Artigo

Nem inteligente, nem artificial

Bárbara Dias
é doutora pelo Instituto de Pesquisas do Rio de Janeiro – IUPERJ-IESP e professora da Universidade Federal do Pará (UFPA). Integra o grupo de especialistas que escrevem às quartas-feiras na coluna “Ciência Política” da PB.
E
Bárbara Dias
é doutora pelo Instituto de Pesquisas do Rio de Janeiro – IUPERJ-IESP e professora da Universidade Federal do Pará (UFPA). Integra o grupo de especialistas que escrevem às quartas-feiras na coluna “Ciência Política” da PB.

Em abril de 2023, Noam Chomsky coassinou artigo no New York Times[1] em que criticou tanto a falsa promessa do ChatGPT como o rumo que o desenvolvimento da Inteligência Artificial (IA) tem assumido. Especialmente no que diz respeito a algoritmos e sua métrica, ou à utilização de chatbots[2] que simulam a comunicação humana, o filósofo avalia que essas ferramentas contribuem para as inércias analítica e criativa. Descritos como o ataque mais radical ao pensamento crítico e à ciência, esses processos de simulação afastariam a cognição humana dos processos de compreensão e entendimento. Para Chomsky, o ChatGPT, por exemplo, é, sobretudo, um exercício inteligente de simulação, pois percorre quantidades astronômicas de dados para produzir resultados semelhantes à informação que encontra. Isto é, não produz nada nos termos de aprendizagem, inteligência e linguagem. Assim, ele julga errônea a ideia de que podemos aprender alguma coisa com esse tipo de IA. Essas tecnologias apenas criam uma atmosfera na qual a explicação e a compreensão não têm qualquer valor. Dessa maneira, a investigação racional científica perde autoridade e reconhecimento.

Ademais, esses novos sistemas servem como instrumento para a difamação: por meio de uma utilização maciça da simulação de vozes, rostos e elementos, pretendem atribuir algo a uma pessoa que, na verdade, não tem responsabilidade nisso. Podem até criar conteúdos atribuídos a pessoas críveis, credibilizando os maiores disparates. Nesse sentido, a capacidade de danos é grande.

Segundo o neurocientista brasileiro Miguel Nicolelis[3], a IA não é nem inteligente, nem artificial, mas um produto de marketing criado nos anos 1950 nos Estados Unidos quando um grupo de matemáticos e cientistas da computação que estava surgindo precisou convencer o Pentágono de que era necessária a criação de máquinas inteligentes, dando a entender que, em breve, os seres humanos seriam transplantados por máquinas. O nome (e sua sigla) pegou, como toda boa campanha de marketing. Mas o que “Inteligência Artificial” realmente significa é: aplicação de diversos métodos estatísticos para fazer mineração em grandes bancos de dados e extrair correlações e estimativas de futuro, como se o futuro reproduzisse o passado. Não há nenhum processo de criação e inovação na IA. Há a compilação de tudo o que foi criado pela mente humana. O ChatGPT, para Nicolelis, é um grande plágio, só que ainda pior do que os produzidos nas buscas das plataformas digitais, porque só concede uma opção de resposta.

O grande problema para Nicolelis é que esse tipo de tecnologia vem embutida com as intenções de desvalorização do trabalho e de moldagem do comportamento humano. Podemos, com a IA, instituir a ditadura do algoritmo, na qual a capacidade cognitiva de invenção e inovação será reduzida a uma métrica simplificadora, hierárquica e ranqueadora, que depende exclusivamente de quem a programa.

A socióloga Rebecca Lewis[4] afirma que, em sua lógica de segmentação de públicos, os algoritmos agregam perfis com comportamentos que os próprios entendem como similares: o conteúdo do comportamento interessa menos que os padrões formais. É assim, por exemplo, que usuárias interessadas em parto domiciliar ou alimentação natural podem ser sutilmente direcionadas pelos algoritmos para conteúdo antivacina, ou que comunidades de gamers passem a ressoar em ecossistemas de extrema direita.

Nesse processo, novos públicos são formados e, com eles, novas subjetividades individuais e coletivas. Como a cognição humana não tem acesso à realidade a não ser via mediações, o resultado pode ser, em casos extremos, a segmentação dos usuários em mundos personalizados que se conectem apenas parcialmente, ou mesmo que se bifurquem em realidades paralelas. Assim, o que estaria em curso é o fim da verdade, especialmente a produzida cientificamente. A estratégia é influenciar o público a ponto de negar a objetividade da ciência, ao semear dúvidas e induzir no público uma sensibilidade que nega fundamentalmente o objetivo da ciência. Isso, inclusive, já foi utilizado pela indústria tabagista — e, hoje, é utilizada pela propaganda dos combustíveis fósseis e do agronegócio.

Somado a essa antipropaganda científica, há em curso uma espécie de rejeição da tese racionalista que propõe uma distinção entre pensamento e sensibilidade, bem como o reforço de dispositivos que visem à “naturalização” do ser humano. Este passa a ser visto como um animal qualquer, e não como um ser de razão e de linguagem. Para a IA, o ser humano deve ser visto como um organismo des-historicizado e considerado independente. Independente das estruturas coletivas, dos vínculos sociais e das instituições políticas de humanização[5]. Nesse sentido, os teóricos da neurociência e psicologia experimental têm adotado uma perspectiva naturalista dos fenômenos mentais, como se estes fossem apenas internos ao sistema neural e não um aparelho orgânico moldado pela relação com o mundo externo, especialmente pela linguagem e pelas interações sociais. Dessa forma, os fenômenos mentais são tratados como representações independentes e separadas dos processos de aprendizagem e criação coletivas e intersubjetivas. Além disso, é constantemente reforçada a crença ideológica de que liberdade significa que todos estamos sozinhos para realizar nossas próprias fantasias (avatares) e que, para se ter acesso a verdades escondidas, basta uma conexão com a internet.

Não somente se enfraquecem formas de subjetivação e produção de verdade baseadas no reconhecimento universal, como se recriam novas identidades com base em modelos de reconhecimento bifurcado. No caso da política, por exemplo, o colapso da diferenciação entre público e privado que fundamentava a norma da esfera pública leva a bifurcação do tipo antagonística (amigo versus inimigo), em que o público passa a ser englobado pelo privado. Nos conspiracionismos, o colapso de contextos entre fato e ficção leva à bifurcação entre dois mundos invertidos, na qual a ficção engloba o fato[6].

Assim, a questão passa a ser não somente como vamos regular quem programa os algoritmos, mas como podemos evitar a criação de zumbis digitais, ou seja, pessoas que perdem a capacidade de interpretar um texto e escrever, duas das maiores conquistas cognitivas do ser humano. Não há como renunciar a esse campo de batalha, e ele permanece em aberto. A questão não parece de destruição das máquinas, mas de fortalecer a defesa do valor do que é produzido por nós, seja produtivamente, seja reprodutivamente. A regulamentação das Big Techs é urgente. Mais do que isso: precisamos compreender que o que está em jogo para as próximas décadas é o conhecimento e a definição de humanidade como central na tomada de decisões sobre o seu devir Comum.


[1]     https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html

[2] O termo é a junção das palavras “chat”, que significa bate-papo com robôs, ou seja, chatbots são robôs que se comunicam com um determinado público, de forma automatizada, tendo como base a interação do usuário. Utilizando sistemas de IA, como a base Machine Learning (ML), os chatbots analisam a interação e apresentam uma resposta que esteja de acordo com as necessidades do usuário.

[3]     https://www.youtube.com/watch?v=pb4b4_MlNwo.

[4]     Lewis, Rebecca. Alternative influence: Broadcasting the Reactionary Right on YouTube. New York: Data & Society Research Institute, 2018.

[5]   Gillot, Pascale. « L’effacement contemporain de la césure anthropologique: naturalisation de l’humain et occultation du social dans l’ordre néo-libéral ». In:  DELUCHEY (J-F), CHAMPROUX (N.). La Valeur Néoliberale de LHumain: Capitalisme et biopolitique à l’ère pandémique. Paris: Éditions Kimé, 2022, págs. 69–94.

[6]     Cesarino, Letícia. O mundo do avesso: verdade e política na era digital. São Paulo: Ubu, 2022.

Os artigos aqui publicados são de inteira responsabilidade de seus autores e não refletem a opinião da PB. A sua publicação tem como objetivo privilegiar a pluralidade de ideias acerca de assuntos relevantes da atualidade.

receba a nossa newsletter
seta