Humano, demasiado humano

03 de outubro de 2025

N

Na prova final do último semestre letivo, a professora Cláudia Elias,* que leciona em cursos de Filosofia em diferentes cursos de graduação na Cidade de São Paulo, queria um corte mais rígido entre os discentes que tinham aproveitado a disciplina — sobre história da arte — e aqueles que haviam ficado aquém do que considerava um aprendizado mínimo. “Passei uma noite inteira elaborando um questionário com base nos textos da ementa e testando minhas perguntas no ChatGPT”, conta.

Das 20 questões formuladas, 12 foram respondidas corretamente pela versão 4.0 da ferramenta de Inteligência Artificial (IA) mais conhecida, disponibilizada gratuitamente pela OpenAI, ligada à Microsoft. A partir disso, Cláudia usou as perguntas que o ChatGPT errou para montar a avaliação. No dia da prova, ela vetou o uso da tecnologia e alertou que “se ‘sentisse cheiro de IA’, a prova estaria automaticamente desclassificada”.

Não adiantou. Na hora de corrigir as avaliações, ao menos 80% dos alunos e alunas tinham alcançado a nota máxima — o que não era condizente com o que ela notara no desempenho da turma ao longo do semestre. “Não tinha outra explicação a não ser o uso da IA, mas não fazia sentido. Então, um colega do curso sugeriu testar a prova em outras ferramentas generativas”. Era isso. O DeepkSeek, da empresa chinesa de mesmo nome, não foi tão bem: respondeu duas das dez questões corretamente. O Gemini, a aposta do Google, no entanto, acertou nove. O Copilot, também da Microsoft, sete.

IA na rotina estudantil

Wiliam Pianco, jornalista que coordena mais de dez cursos no Centro Universitário FMU | FIAM-FAAM, na capital paulista, notou, de fato, como o uso de ferramentas como ChatGPT e Gemini explodiu entre os estudantes no último ano. Segundo ele, essa expansão explica-se, em primeiro lugar, por uma dinâmica não tão nova: a pressa para obter respostas aos desafios que são colocados como parte das ementas — e que, antes da IA, eram procuradas no Google, por exemplo. “Há um escape da reflexão própria para resolver o problema de forma imediata. Nas disciplinas de humanidades, essa fuga é mais evidente em textos ou em perguntas objetivas”, observa. “Mas não se trata somente dessa área. É um fenômeno geracional, os estudantes usam mais IA agora porque têm acesso fácil a ela”, indica. O problema é que, por enquanto, são poucas as soluções que as universidades e, sobretudo, os cursos de ciências humanas, encontraram para lidar com essa questão.

Esse contexto é ainda mais complexo porque, como escreveu Graham Burnett, professor no Departamento de História da Universidade de Princeton, em artigo publicado na revista The New Yorker, é fato que as respostas oferecidas pelas ferramentas de IA são “boas ou tão boas quanto as fornecidas por humanos”. Essa circunstância faz com que os docentes tenham dificuldade para perceber quando as avaliações são feitas por IA, além de, em último grau, prejudicar todo o processo de transmissão de conhecimento. “É um dilema”, suspira Pianco, da FMU | FIAM-FAAM. “Há uma preocupação óbvia com essa substituição cognitiva que a IA oferece, mas, por ser novidade, não existem, por enquanto, soluções definitivas nas universidades.”

Pianco relata que o que tem sido ensaiado — não apenas na sua instituição, mas também em um conjunto de faculdades — é a busca de mecanismos nos quais o questionamento e o uso da IA andem juntos. “É difícil, porque, por um lado, não tem mais como abrir mão do uso da ferramenta. É incontornável. Por outro, temos de preservar a competência cognitiva dos alunos”, pondera.

Em 2024, uma pesquisa realizada pela Associação Brasileira de Mantenedoras do Ensino Superior (Abmes) mostrou que sete em cada dez estudantes brasileiros (71%) usam ferramentas de IA com frequência na rotina de estudos. “A universidade não deve proibir [a IA]”, concorda Virgílio Almeida, coordenador de uma comissão instaurada pela Universidade Federal de Minas Gerais (UFMG) para propor ideias sobre como docentes devem lidar com o uso da IA pelos estudantes. Ele acredita que se deve pensar, antes de tudo, em uma nova governança. “Temos de criar orientações para utilização responsável dessas ferramentas”, propõe.

Na verdade, para além da forma como as humanidades vão lidar com a novidade, a pergunta que ronda os departamentos tem sido outra — quais são as implicações dessa imensa transformação tecnológica no próprio processo do saber?

Muitas respostas, menos perguntas

Segundo Burnett, da Princeton, essa é a verdadeira questão a ser respondida. “Eu não fico policiando meus alunos”, admite, em entrevista à Revista Problemas Brasileiros (PB). “Eu apenas digo a eles que o grande objetivo dos meus cursos é refletir sobre a liberdade humana. Como ela pode ser alcançada e o que podemos fazer com ela. O que realmente me importa é fazer com que os meus alunos sintam, enfrentem e envolvam-se com esse tipo de reflexão”, declara. “E se eles quiserem fazer isso usando a IA, tudo bem. Eu apenas acho triste”, completa.

Não é só: para Burnett, há o fato de as ciências humanas serem, antes de tudo, feitas de questionamentos, algo que o ChatGPT desestrutura. “A experiência humana é marcada justamente pela ausência de respostas e pela capacidade de perguntar e conviver com essas perguntas”, resume. “É a mesma coisa com as humanidades — o seu objeto não são as respostas, mas a experiência de viver e de perguntar. Dessas perguntas, surgem respostas que são sempre provisórias e geram outras perguntas. Os algoritmos nunca poderão refletir desse jeito”, explica.

É curioso que, no relatório da Abmes, uma das motivações mais comuns citadas pelos estudantes para o uso de IAs é, justamente, a eficiência na “resolução de dúvidas e problemas” (49%). O critério só ficou atrás do acesso a conteúdos “atualizados e diversificados”, apontado por 50% dos entrevistados, e da “possibilidade que tecnologia fornece de se aprender em qualquer momento e lugar” (53%).

Pianco pontua, ainda, que a IA atual, ainda em estágio de maturação, pode até facilitar o acesso ao saber humano acumulado (o que é bom), mas não tem consciência para elaborar respostas às questões que de fato constroem conhecimento. “Logo, a produção de conhecimento humano precisa continuar, já que é somente essa elaboração que realmente enriquece o saber. Dito de outra forma, até agora, não há máquina capaz de criar perguntas profundas como apenas um humano pode fazer”, resume.

O filósofo Renato Janine Ribeiro, professor aposentado do curso de Filosofia na Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP) e ex-ministro da Educação [em 2015], corrobora parcialmente. De um lado mais prático, ele concorda que não há mais como voltar atrás, “porque é inútil”. No entanto, lembra que inovações tecnológicas sempre causaram temores acadêmicos.

“Quando surgiu a calculadora portátil, por exemplo, falava-se muito que as pessoas perderiam a capacidade de calcular, o que não aconteceu. A rigor, as novidades melhoram a vida das pessoas”, avalia. Mas o filósofo sinaliza que a IA carrega uma característica distinta. “O Chat GPT consegue escrever uma tese e não duvido que, em breve, poderá, sim, produzir conhecimento próprio, não só catalogar o que já se sabe. É difícil saber como vamos lidar com isso”, argumenta.

Enquanto isso, fica ainda a questão: de que forma a IA pode oferecer caminhos às humanidades para além da simples catalogação do que já se sabe? Burnett acredita ter uma resposta. “Ela oferece uma oportunidade de retorno às questões centrais da fenomenologia existencial que vêm sendo relegadas aos ‘projetos acadêmicos’ ou ao próprio treinamento [das ferramentas de IA]”, defende o pesquisador. “E se a educação deve seguir centrada em formar e cultivar maneiras particulares de atenção humana, então, há um caminho aí”, finaliza.

* Nome fictício para preservar a identidade da professora e da instituição em que leciona.

Vinícius Mendes
Débora Faria
Vinícius Mendes
Débora Faria