Há alguns meses, o antropólogo carioca Roberto DaMatta estranhou a fluidez do texto do trabalho que recebera de um dos seus alunos da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio). Não parecia plágio, mas tinha uma linguagem bastante formal para o proposto. Ao investigar mais a fundo, o professor descobriu, dias depois, que o incômodo fazia sentido. “O cara simplesmente colou um artigo produzido pelo ChatGPT e me entregou, pô! Um absurdo...”, vociferou à PB, com a sua conhecida prosódia.
O episódio materializou, para DaMatta, um dos primeiros dilemas envolvendo ferramentas em ascensão como o ChatGPT e o BingChat — ambos treinados pela empresa norte-americana OpenAI. Nos meios acadêmicos e escolares corria, desde o início do ano, a impressão de que a nova tecnologia se transformaria em uma alternativa inequívoca nas mãos dos estudantes, que a colocariam para produzir suas avaliações. Era a percepção de DaMatta, por exemplo. “Eles não vão ler mais nada. Vão encomendar tudo para o ChatGPT.”
Naquela mesma semana, uma carta intitulada “Pausem as pesquisas em IA”, revelava um temor ontológico, pedindo ao Vale do Silício um intervalo de seis meses em todas as pesquisas relacionadas à tecnologia para “treinar melhor os sistemas”. Dentre os vários paradoxos, o principal estava no fato de seu signatário mais conhecido, o empresário sul-africano Elon Musk, ser um dos sócios da própria OpenAI. Tempos depois, o jornal britânico The Guardian publicou uma reportagem revelando que as pesquisas não só prosseguiram, como também que algumas das assinaturas da carta eram falsas. No mercado, sabe-se hoje que Musk fez o artigo circular para recuperar o tempo perdido da própria empresa dedicada à tecnologia.
“O ponto é que a IA é uma transformação social tão profunda que só se compara à Revolução Industrial”, opina o cientista político Andriei Gutierrez, presidente do Conselho de Economia Digital e Inovação da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP). “Se o que aconteceu dali em diante mudou a forma de tudo, da noção de tempo às características das cidades, agora estamos diante de outra da mesma magnitude. Uma Revolução Digital”, ressalta.
Ferramentas como o ChatGPT têm invadido rapidamente o cotidiano das empresas. De um lado, já há uma grande preocupação que os dispositivos inteligentes substituam, no futuro próximo, profissões que hoje são desempenhadas por humanos. Uma pesquisa realizada pela plataforma Onlinecurrículo em junho mostrou, por exemplo, que sete em cada dez brasileiros (75%) trabalham com essa hipótese. Não é uma impressão sem fundamento, já que, em março, o banco Goldman Sachs divulgou um relatório prevendo que 300 milhões de empregos serão substituídos ou parcialmente otimizados na Europa e nos Estados Unidos nos próximos anos.
De outro lado, o ambiente global de negócios passou a vislumbrar na IA uma possibilidade real de agregar valor a produtos e serviços, além de eliminar tarefas e, principalmente, permitir novos meios de inovação. Hoje, há um consenso corporativo acerca das novas capacidades da tecnologia: a promessa de melhorar a capacidade produtiva das empresas. No mesmo relatório, o Goldman Sachs também previu um crescimento de 1,5% da produtividade brasileira à medida que a IA avançar no País — mas é aí também que esse consenso acaba.
O Brasil está em um debate similar ao de países como Estados Unidos e Japão, além da União Europeia (UE): como desenhar uma regulação pública de IA sem sufocar os possíveis avanços econômicos?
Em maio deste ano, o presidente do Senado, Rodrigo Pacheco (PSD/MG) protocolou um projeto propondo a regulação parecida com o da UE. O texto, batizado de Marco Regulatório da Inteligência Artificial (PL 2.338/2023), foi produzido por uma comissão de especialistas em Direito Digital, incluindo Ricardo Villas Bôas Cuevas, ministro do Superior Tribunal de Justiça (STJ), e traz no seu bojo uma classificação dos riscos de dispositivos de IA violarem direitos fundamentais, regras de governança e tratamento de dados pessoais e responsabilizações das plataformas que operam as ferramentas. O texto entrou em concorrência com outro projeto em tramitação no Congresso, protocolado em 2021 pela deputada federal Luiza Canziani (PSD/PR), com uma estrutura mais parecida com o modelo japonês.
“O atual modelo regulatório global, de corte neoliberal, atua mais modulando do que restringindo ou liberando campos de atuação”, afirma Murilo Duarte Côrrea, professor de Teoria Política na Universidade Estadual de Ponta Grossa (UFPG). “Esse espaço entre Estado e mercado como entidades opostas é um falso problema, porque, pelo menos desde os anos 1970, o Estado não é contrapartida do capitalismo, mas parceiro dele. Principalmente quando se trata de regular”, completa.
Côrrea exemplifica essa ideia com a legislação ambiental brasileira que, hoje, não é feita sem a colaboração ativa de atores privados do agronegócio, um dos pilares da inserção do Brasil no mundo. “Não se regulamenta nada sem chamá-los à mesa. Esse tipo de vínculo mostra que não teremos uma regulação da Inteligência Artificial no País sem que as corporações sejam chamadas também.”
A FecomercioSP avançou na discussão sobre um escopo regulatório de IA no Brasil ao lançar um documento com dez princípios para o processo de regulação. O material é de autoria de Gutierrez e de Rony Vainzof, consultor de Proteção de Dados da Entidade.
Um dos pilares do decálogo (ver box ao lado) é regular a forma como os usuários consomem os dispositivos, não interferindo no funcionamento deles. A defesa é por uma legislação mais semelhante ao Marco Civil da Internet, baseada em princípios gerais, do que à Lei Geral de Proteção de Dados (LGDP), mais objetiva. Outro fundamento é a sustentação de uma futura legislação a partir do arcabouço legal já existente, lançando mão da própria LGDP e do Código de Defesa do Consumidor (CDC), por exemplo. O documento ainda sugere que os riscos inerentes ao uso de dispositivos de IA sejam hierarquizados para que possam ser avaliados em diferentes graus e terem distintos mecanismos de mitigação. Quanto maior o risco, maior a necessidade de intervir publicamente no uso da tecnologia.
Dez princípios que devem permear a regulamentação da IA no Brasi
1. Regular o uso, e não a tecnologia
2. Avaliar a aplicação da legislação em vigor e a competência dos órgãos constituídos
3. Observar as normas sobre a responsabilidade civil existentes
4. Obedecer ao regime atual das sanções administrativas
5. Abordagem principiológica e contextual baseada em riscos
6. Soft law combinado com flexibilidade regulatória
7. Promover a autorregulação regulada
8. Empregar regulação descentralizada com interoperabilidade regulatória e coordenação central
9. Incentivar a inovação responsável
10. Participar do debate de padronização global
Conheça os detalhes do Decálogo com princípios fundamentais para regulação da Inteligência Artificial produzido pela FecomercioSP
“Hoje, esses riscos envolvem principalmente questões que englobam preconceitos, falta de transparência no uso dos dados e propriedade intelectual”, afirma Gutierrez, da FecomercioSP, lembrando, por exemplo, da dificuldade em resolver o problema dos direitos autorais de quem tem parte de obras artísticas ou científicas tomada como matéria-prima das respostas geradas pelo ChatGPT. É por isso que, de acordo com o cientista político, ainda é cedo para avançar legalmente. “Minha sensação é que hoje o assunto é como se fosse aquela onda imensa que, quando passa, deixa a água cheia de espuma. Nós estamos dentro dessa espuma, não temos maturidade para tomar nenhuma decisão ainda.”
O caminho, na visão de de Rony Vainzof, deve ser uma regulação que estimule as potencialidades das ferramentas e, ao mesmo tempo, lide com esses riscos, sobretudo os que envolvem violação de direitos. Para isso, o equilíbrio está em estipular princípios gerais, não prescrições robustas, cuja inspiração está no próprio Brasil: o Marco Civil da Internet, de 2014. “Alguns pontos que estão ali são, hoje, muito relevantes, como a neutralidade de rede, a proteção de dados pessoais e a responsabilização dos agentes de acordo com suas atividades, além do caráter educativo e de cidadania do ponto de vista digital. É uma forma de proteger direitos fundamentais e não prejudicar as possibilidades de inovação”, observa.
Diogo Costa, CEO do Instituto Millenium, vê a atual circunstância das coisas com mais preocupação. Ele acredita que se o projeto de Pacheco virar lei, vai estrangular o potencial inovador da IA e ainda trará mais insegurança jurídica ao ambiente de negócios. “Será uma barreira intransponível para muitas empresas, já que significará aumentos de custos e de burocracia. Elas ficarão à mercê de mudanças constantes na lei e, por necessidade, terão que se adaptar. No fim, as startupsprecisarão equilibrar o número de técnicos com o de advogados para atingirem o compliance.”
Ainda segundo o CEO do Instituto Millenium, há outro rumo possível. “A Inteligência Artificial já está sendo regulada de forma setorial no País. A Anac [Associação Nacional de Aviação Civil] tem portarias estabelecendo limites do uso dessas ferramentas na aviação. A Anvisa [Agência Nacional de Vigilância Sanitária] também dispõe de editais que as regulam na saúde. A mesma coisa com o Banco Central. O caminho em que diferentes agências vão regulando os seus setores não é ruim”, analisa Costa. “Na verdade, é uma alternativa mais saudável do que fazer uma regulação de propósito geral. A IA, vale lembrar, é uma tecnologia-meio”, completa.
A falta de controles sobre os dispositivos de IA, tanto de quem os consome quanto dos próprios inventores é o alerta dado por Rodolfo Avelino, professor do curso de Engenharia no Insper. Ao defender uma regulação mais robusta, ele afirma que as aplicações [de IA] têm a capacidade de evoluir sem a intervenção humana explícita. “Mesmo os criadores não têm o conhecimento do funcionamento exato do algoritmo. Essa opacidade vai contra a transparência, a imprevisibilidade e a incontrolabilidade dela”, ressalta. A partir do momento em que um sistema pode tomar decisões que afetem a sociedade, este deve gerar confiança e ter os limites de responsabilidade limitados, segundo Avelino. “Precisamos garantir um modelo de auditoria em que seja possível acessar os dados utilizados pelas empresas para colocar esses dispositivos em operação”, complementa.
É uma visão parecida com a de Villas Bôas Cueva, do STJ, que encabeça a proposta de regulação de IA no Congresso. Ele já afirmou que uma das preocupações centrais do seu texto está na responsabilização dos atores que operam esses dispositivos. “Sempre que algum deles causar dano (patrimonial, moral, individual ou coletivo), será obrigado a repará-lo de maneira integral, independentemente do grau de autonomia do sistema”, explica. Essa lógica será ainda mais rígida nos casos em que a IA estiver classificada, na lei, como de alto risco. “[Nesse caso], a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.”
Alguns episódios envolvendo discriminação dos dispositivos contra pessoas negras, mulheres ou mesmo beneficiários de programas sociais como fatores para justificar uma legislação prescritiva são lembrados por Avelino, do Insper. Em fevereiro, por exemplo, pesquisadores do Allen Institute for IA, uma organização sem fins lucrativos de Seattle, nos Estados Unidos, descobriu que o ChatGPT oferece diferentes respostas dependendo da identificação da persona que lhe dá os comandos. Algumas delas, claro, eram mais “tóxicas”, já que o chat aperfeiçoa os resultados à medida que é solicitado pelos usuários. Segundo Avelino, o problema é que não existem mecanismos de contestação para casos como esse — que se restringem, dessa forma, às diretrizes das próprias plataformas.
“No âmbito do Estado, quais dados serão utilizados para treinar modelos de Inteligência Artificial no campo da segurança pública? Nós sabemos que alguns deles serão produzidos sobre populações mais vulneráveis, como a análise do comportamento das pessoas no transporte público. Esse tipo de processo, feito com base em um perfil social, torna o modelo tendencioso. É aí que a regulação precisa agir.”