Tarefa para a inteligência humana

07 de agosto de 2023

Com um potencial para mudar muitos negócios, as tecnologias de Inteligência Artificial (IA), como o ChatGPT, já provocaram uma série de transformações em escolas e faculdades. Um dos maiores impactos tem sido observado nos trabalhos escritos, como redações ou pesquisas temáticas.

A

A ferramenta computacional gratuita e aberta foi treinada com uma grande quantidade de dados de texto para gerar novos conteúdos, com regras gramaticais e padrões de linguagem considerados corretos. É importante reconhecer, no entanto, que ferramentas semelhantes já existem há vários anos. A diferença é que era mais complicado usá-las, uma vez que só agora que ficaram acessíveis a todos.

“A gente já tinha ferramentas que faziam síntese e resumo de outras obras. Contudo, antes, era preciso programar num terminal. Já havia, além de programas de correção de redações, ferramentas de auxílio à escrita como os softwares de memória de traduções, armazenando como você traduziu sequências de textos que se repetem e, depois, sugerindo essas sequências em outros pedaços de texto. Mas elas entregavam fragmentos, textos menos prontos”, cita o linguista cognitivo computacional Tiago Torrent, professor na Universidade Federal de Juiz de Fora (UFJF). O primeiro programa que fazia o chamado “processamento de linguagem natural” foi criado nos anos 1960, no Massachussetts Institute of Technology (MIT). Esse chatbot, batizado de Eliza, era capaz de responder a perguntas simples, simulando um profissional de psicologia. Assim como as novas IAs, o sistema da Eliza criava uma ilusão de que entendia as pessoas quando, na verdade, apenas reproduzia padrões das conversas entre humanos.

Portanto, embora o que o ChatGPT “diga” possa parecer inédito, é, na verdade, uma adaptação de diferentes partes de textos já existentes. Muita coisa é mesmo copiada ou reescrita de outras fontes. Na maioria das vezes, um texto escrito por um humano e um pelo sistema ficam indistinguíveis. Os textos da IA não são apontados como plágio nas ferramentas antiplágio, tampouco vão criar novas palavras, como se fosse uma obra de Guimarães Rosa. A escrita tem múltiplas funções — e, para muitas delas, a originalidade não é relevante. Talvez as IAs sejam ferramentas que acabem alterando formas de expressão escrita das pessoas, sobretudo as mais simples. “A escrita, em si, é um instrumento criado pelo homem, não uma manifestação natural. Recursos de autocompletar são muito úteis: podemos mesmo deixar de escrever e pedir, por voz, a um assistente virtual um lembrete no celular para o dia seguinte”, cita Torrent.

Contudo, agora que essa tecnologia já pode produzir textos completos, o desafio para as escolas é mostrar que ainda é importante aprender a escrever. Mais do que isso: é significativo que os alunos aprendam a distinguir o que é um bom texto, avaliar se é bem contextualizado, se usa informações enviesadas e se é criativo ou repleto de lugares-comuns. Refletir sobre a escrita será uma habilidade tão importante quanto escrever em si. Avaliar o próprio desempenho é uma das tarefas que o sistema do ChatGPT não faz. Talvez muitos se sintam ameaçados por ferramentas de produção de linguagem natural porque o que escrevem parece feito por robôs, seguindo padrões estritos. “Estamos usando já, há muito tempo, o pensamento algoritmizado para ensinar redação. O aluno está sendo ensinado a reproduzir uma fórmula”, afirma o professor de redação Adriano Chan, doutorando pela Universidade Estadual Paulista (Unesp) e fundador do Laboratório de Redação. Segundo ele, numa mesma escola, alunos do nono ano do ensino fundamental e do primeiro do médio fazem redações melhores do que os alunos do segundo e do terceiro anos seguintes. “Isso se dá porque ainda não começaram a ser preparados para os vestibulares. Eles vão sendo ensinados a construir opinião tal como um programa”, critica.

De uma forma de se expressar bem humana, Chan gosta de fazer uma metáfora ao falar do tema. Para ele, escrever uma redação é como ser um juiz: um bom juiz deve olhar as evidências para construir o veredicto; um mau juiz decide de imedianto se o réu é culpado ou inocente — e, depois, procura indícios que se encaixem no seu ponto de vista. “Por que na hora de escrever um texto, o estudante vira um juiz ordinário? Porque o ensinaram a agir assim, encaixar peças em algo já definido. Faz pelo menos 20 anos que é assim que se ensina redação. Para mim, escrever deveria ser uma forma de construir o pensamento”, explica. 

Claro que é possível pensar sem escrever. No entanto, esse ato traz maneiras diferentes e mais aprofundadas do que a oralidade, defende Tathyana Gouvêa, doutora em Inovação Educacional pela Universidade de São Paulo (USP) e professora no Instituto Singularidades. “A gente não pensa primeiro e, depois, escreve. Pensamos ao escrever, porque a escrita é um ato criativo e reflexivo. Então, quando sistematizamos os nossos pensamentos, conseguimos refletir e chegar a lugares mais profundos”, afirma. Assim, se o ChatGPT e seus primos forem usados como uma forma de exercitar o pensamento crítico e reflexões, serão sempre bem-vindos à sala de aula. Para tal, os professores devem repensar as atividades pedidas. Será que faz sentido pedir resumo de livros, ou pedir pontos de contatos entre duas obras? A originalidade precisa começar do topo, das tarefas pedidas. “Se, antes, explorar vários tipos textuais demandava muitas horas, muita dedicação, hoje, um professor poderia, por exemplo, pedir para o chat um pequeno texto informativo e transformar, por exemplo, esse texto numa carta de amor. Podemos brincar com essas várias modalidades e tentar identificar os adjetivos inseridos ou retirados; ou quando está na primeira, segunda ou terceira pessoa. O lugar da metacognição vai se tornar muito mais significativo”, exemplifica Tathyana.

Tal como ocorre a quase todas as ferramentas tecnológicas, um dos grandes riscos da IA para a educação é que as desigualdades entre ricos e pobres aumentem ainda mais. Num dos cenários possíveis, professores podem ser substituídos por sistemas que simulem diálogos humanos para baratear os custos com pessoal docente. Em outro, alguns estudantes fiquem à margem por serem privados de qualquer contato com a nova tecnologia. “A construção de uma narrativa pelo chat ainda depende dos nossos comandos, dos promptsque colocamos. Então, aqueles que dominam certas terminologias e formas de expressar terão resultados muito melhores do que os que não dominam as maneiras de se comunicar com a própria IA”, diz a professora do Singularidade.

Refletir sobre a escrita e avaliar o próprio desempenho são tarefas que o sistema do ChatGPT não faz

Erro humano, alucinação da máquina

Em seis meses desde o lançamento do ChatGPT, milhões de estudantes e professores abraçaram a tecnologia ao redor do mundo. Mas alguns estão aprendendo, da pior forma possível, os limites do sistema. “Recebi um projeto de doutorado com referências bibliográficas que não existiam. A pessoa usou o ChatGPT, que alucinou”, conta Lucia Santaella, professora de pós-graduação em Tecnologias da Inteligência e Design Digital na Pontifícia Universidade Católica (PUC-SP). “Alucinar” é um termo que vem sendo usado para descrever quando os sistemas de IA informam coisas completamente malucas. No entanto, essa tal alucinação é uma questão intrínseca à forma de trabalho do ChatGPT, porque o sistema foi construído sem compromisso factual. Ele produz uma sequência de palavras que parecem plausíveis em sentido, não havendo nenhum tipo de verificação se o resultado contém informações falsas. Obviamente, o projeto “alucinado” foi recusado.

O caso, porém, não afastou a professora da nova tecnologia. Pelo contrário: Lúcia é uma grande entusiasta. Segundo ela, o resultado depende do uso que o humano fizer. “Ele pode revisar os textos para os estudantes. Dou aulas para doutorandos e já orientei mais de 300 teses. Passo madrugadas corrigindo português. Espero que as minhas madrugadas sejam mais bem empregadas”, diverte-se. Mas Lúcia sabe que, ao menos por enquanto, a IA não vai muito além de arrumar a forma dos textos, que devem continuar sendo produzidos pelos humanos. “Ele escreve bem, concatena frase com frase, parágrafo com parágrafo, mas é um texto chapado, sem profundidade, sem fontes”, afirma. Para que a IA seja uma ferramenta útil, há de se reconhecer os problemas, sejam os atuais, sejam os potenciais. O linguista Tiago Torrent explica esse ponto fazendo uma analogia que remete ao motor à combustão, uma tecnologia que resolveu problemas de deslocamento das pessoas, mas trouxe consequências para o clima — que, até hoje, não foram resolvidas. Delegar a maior parte do processo de escrita às “máquinas” poderia ter consequências bastante ruins no futuro.

“Ao escrever um texto, o autor estabelece um diálogo imaginário com o leitor ausente. Nesse momento em que se vê sem o interlocutor, decide exatamente o que tem de explicar para ser compreendido. A construção desse raciocínio contribui para outras capacidades cognitivas. A escola deve continuar sendo um lugar para isso”, defende. Outro perigo é a reprodução ad infinitum dos preconceitos e da discriminação contidos nos textos que serviram de base para treinar os sistemas. Eles elaboram sobre o que já existe no mundo, sem questionar. As escolhas que as pessoas fizerem, neste momento, impactarão as próximas gerações. Não dá para delegar essa responsabilidade a qualquer outra inteligência que não seja a humana.

Luciana Alvarez Débora Faria
Luciana Alvarez Débora Faria