Artigo

Perigo iminente? IA e as eleições

Helga Almeida
é doutora em Ciência Política pela Universidade Federal de Minas Gerais (UFMG), professora na Universidade Federal do Vale do São Francisco (Univasf) e no Programa de Pós-Graduação em Ciência Política (PPGCP) da Universidade Federal do Piauí (UFPI). Integra o grupo de especialistas que escrevem às quartas-feiras na coluna “Ciência Política” da PB.
Romário Djavan Lins de Araújo
é graduando de Ciências Sociais pela Universidade Federal do Vale do São Francisco (Univasf), bolsista de iniciação científica CNPQ, membro do grupo de pesquisa Polifonia (Uneb), membro do Politik (Univasf) e membro do Observatório de Conflitos na Internet (UFABC). 
Gislaine Bagagi Lima
é graduanda de Ciências Sociais pela Universidade Federal do Vale do São Francisco (Univasf) e membro do Politik (Univasf).
D
Helga Almeida
é doutora em Ciência Política pela Universidade Federal de Minas Gerais (UFMG), professora na Universidade Federal do Vale do São Francisco (Univasf) e no Programa de Pós-Graduação em Ciência Política (PPGCP) da Universidade Federal do Piauí (UFPI). Integra o grupo de especialistas que escrevem às quartas-feiras na coluna “Ciência Política” da PB.
Romário Djavan Lins de Araújo
é graduando de Ciências Sociais pela Universidade Federal do Vale do São Francisco (Univasf), bolsista de iniciação científica CNPQ, membro do grupo de pesquisa Polifonia (Uneb), membro do Politik (Univasf) e membro do Observatório de Conflitos na Internet (UFABC). 
Gislaine Bagagi Lima
é graduanda de Ciências Sociais pela Universidade Federal do Vale do São Francisco (Univasf) e membro do Politik (Univasf).

Dispositivos que se utilizam de sistemas de Inteligências Artificiais (IAs) têm sido massivamente difundidos no mundo. É comum ver a interação de pessoas com assistentes virtuais como Siri (Apple) e Alexa (Amazon); sistemas de recomendação de filmes, músicas e livros em plataformas, como Netflix, Spotify e Amazon; mídias sociais que organizam os conteúdos de forma customizada, como Facebook, Instagram, Twitter e Tiktok; chatbots que atendem clientes ou traduzem textos para diferentes idiomas; assistência médica que se utiliza da ferramenta para ajudar em diagnósticos; IAs que geram conteúdos, como ChatGPT (Open AI), BERT (Google), Ernie (Baidu) e Albert (Google); ou IAs especializadas na geração de imagens, como DALL-E (OpenAI) ou Midjourney. Essas tecnologias também são usadas na política em diversos contextos. O governo de extrema direita de Israel, de acordo com investigação conjunta de jornalistas palestinos e israelenses para a revista +972, utiliza uma ferramenta baseada em IA chamada Lavender, com uma taxa de erro de 10%, para identificar alvos de bombardeio em Gaza.

Em contextos democráticos, as IAs têm assistido, para o bem e para o mal, políticos em mandatos e em campanha eleitoral. Os potenciais problemas proporcionados pelo uso malicioso de IAs nas eleições, por exemplo, passam pelo aumento da desinformação, pelo microtargeting, campanhas que enviam mensagens altamente personalizadas para influenciar o voto, mediante ataques cibernéticos coordenados pela discriminação algorítmica, colocando-os em bolhas de desinformação, e falta de transparência.

No caso brasileiro, nota-se que o sistema eleitoral passou por muitas mudanças no decorrer dos anos. Em 1988, quando a Constituição foi promulgada, fundaram-se os alicerces da democracia. No entanto, obviamente, não foi pensado em como os avanços tecnológicos poderiam impactar as instituições. A partir das experiências vistas no mundo, o Tribunal Superior Eleitoral (TSE) brasileiro, em fevereiro deste ano, começou a tomar precauções para garantir que as eleições municipais de 2024 corram bem. 

Nessa toada, proibiu o uso de IA para criar e propagar conteúdos falsos nas eleições. Diante da alteração da Resolução 23.610/2019, que regulamenta a propaganda eleitoral, o TSE proibiu várias atividades que se utilizam da tecnologia, como “proibição de deepfakes; obrigação de aviso sobre o uso de IA na propaganda eleitoral; restrição do emprego de robôs para intermediar contato com o eleitor; e responsabilização das Big Techs que não retirarem do ar, imediatamente, conteúdos com desinformação, discurso de ódio, ideologias nazista e fascista, além dos antidemocráticos, racistas e homofóbicos” (TSE, 2024).

Além disso, houve o acréscimo de dois artigos no Código Eleitoral, como o artigo 9º-C, que proíbe o uso de “conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral”, e o artigo 9º-E, que “estabelece a responsabilização solidária dos provedores, de forma civil e administrativa, caso não retirem do ar, imediatamente, determinados conteúdos e contas, durante o período eleitoral” (TSE, 2024). Essa resolução foi classificada pelo presidente do TSE, o ministro Alexandre de Moraes, como uma das normas mais modernas do mundo.

O potencial da IA é grande, mas é preciso que se tenha olhar crítico. Apontar os riscos não nos coloca numa posição contra avanços tecnológicos. Ao contrário, entender que a sociedade está em constante evolução também é compreender a necessidade de salvaguardar os direitos fundamentais, como a proteção e a democratização dos dados. Apesar dos avanços trazidos pelo TSE, ainda é difícil prever os impactos da IA sobre as campanhas eleitorais. O que podemos perceber é que a velocidade que se propaga a desinformação é desproporcional à da checagem de fatos — e, nas eleições, será necessário um monitoramento mais contundente e especializado. Serão, ao todo, 5570 cidades elegendo prefeitos em todo o Brasil. Isso significa que TSE, juntamente com os Tribunais Regionais Eleitorais, terá muito trabalho para monitorar essa quantidade de campanhas de forma simultânea.

Os artigos aqui publicados são de inteira responsabilidade de seus autores e não refletem a opinião da PB. A sua publicação tem como objetivo privilegiar a pluralidade de ideias acerca de assuntos relevantes da atualidade.