A Inteligência Artificial (IA) é tecnologia condicionante para os atuais desenvolvimentos econômico e social de nações ao permitir a exploração de níveis de conhecimento inimagináveis há poucos anos, além de abrir margem para novas descobertas e contribuir para a possível solução de grandes desafios da humanidade.
A IA potencializa a revolução do mercado e a maneira como nos relacionamos com a tecnologia. Contudo, elementos responsáveis por produzir os benefícios podem também trazer novos riscos a direitos ou consequências adversas, o que motiva a discussão global acerca das estratégias para o uso ético, confiável e responsável dos sistemas de IA.
Na União Europeia (UE), vê-se iniciativa de legislação abrangente, com definição de riscos antecipadamente e regras firmes quanto aos requisitos para desenvolvimento e emprego da ferramenta. Diferentemente da abrangente estrutura regulatória pretendida na UE, nos Estados Unidos (EUA), a descentralização do sistema normativo faz com que, até o momento, a regulação seja principiológica e com participação do setor privado, com propostas de diretrizes regulatórias específicas.
Nesse sentido, ainda nos EUA, chamou atenção uma iniciativa atual e relevante, capitaneada pelo governo Biden–Harris, envolvendo compromissos voluntários de sete empresas líderes de IA (Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI) em direção ao desenvolvimento seguro, protegido e transparente da IA, como:
1. testar as seguranças interna e externa de seus sistemas de IA antes do lançamento, com especialistas independentes, para mitigar riscos como biossegurança e segurança cibernética, bem como seus efeitos sociais mais amplos;
2. compartilhar informações com governo, sociedade civil e academia sobre o gerenciamento de riscos de IA. Isso inclui práticas recomendadas de segurança, informações sobre tentativas de burlar proteções e colaboração técnica;
3. investir em segurança cibernética e salvaguardas contra ameaças internas para proteger modelos proprietários e inéditos;
4. Desenvolver mecanismos técnicos robustos para garantir que os usuários saibam quando o conteúdo é gerado por IA, como sistema de marca d’água. Essa ação permite que a criatividade com a tecnologia floresça, mas com o potencial de reduzir os perigos de fraude e engano. No Brasil, há diversas leis aplicáveis de acordo com a forma e a finalidade do uso da IA, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados (LGPD), o Código de Defesa do Consumidor (CDC), o Código Civil, entre outras.
No Congresso Nacional, desde 2019, há diversos Projetos de Lei (PLs) sobre uso e desenvolvimento de sistemas de IA, com as mais variadas orientações e metodologias. Em 2021, o PL 21/20, conhecido por sua orientação principiológica, foi aprovado na Câmara dos Deputados. No Senado, em março de 2022, foi instaurada uma comissão de juristas para a elaboração projeto substitutivo. O resultado do trabalho culminou na recente apresentação do PL 2.338/2023 (maio de 2023), pelo presidente do Senado, Rodrigo Pacheco, o qual segue a linha da proposta da União Europeia (AI Act).
Sobre o tema, recentemente, a FecomercioSP lançou seu Decálogo com diretrizes para o Marco Regulatório da IA no Brasil no qual, alguns dos itens vão ao encontro da recente iniciativa norte-americana, ressaltando a importância do diálogo e participação do setor privado na regulação, como:
Privilegiar balizas gerais de governança, como orientações para a utilização ética e responsável. Ainda, a escolha da estratégia regulatória deve ser consistente com o comportamento apresentado pelos agentes regulados e permanentemente adaptada e otimizada, ou seja, uma regulação responsiva. O sucesso da regulação de um objeto em constante transformação depende da combinação de soft law com flexibilidade regulatória, com o objetivo de que reguladores e regulados possam avançar juntos em medidas e ações de mitigação de riscos.
Reconhecendo a dinâmica de evolução constante da tecnologia, a inovação e a diversidade de contextos para cada setor de aplicação, apoiamos a adoção de soluções de corregulação ou “autorregulação regulada”, provendo segurança jurídica e proteção de direitos fundamentais. A norma traz parâmetros mínimos de governança no desenvolvimento, no emprego e no monitoramento dos sistemas de IA, capazes de balizar o dever de cuidado a ser tomado. Esses parâmetros mínimos orientarão instituições de autorregulação no desenvolvimento de códigos de conduta específicos para diferentes setores de atividade econômica e de possível emprego da tecnologia, podendo ser reconhecidos posteriormente por autoridades públicas setoriais competentes.
O sistema proposto deve prever mecanismos de benefícios aos agentes virtuosos. Isto é, aqueles que utilizem os sistemas de IA de acordo com os preceitos éticos e regulatórios estabelecidos e, ainda, atuem preventivamente para evitar qualquer tipo de utilização da sua tecnologia de forma enviesada, discriminatória e inapropriada.
Uma das principais características da economia digital é que suas cadeias globais de valor são inerentemente dinâmicas e globalizadas. É de grande relevância que o Brasil tenha participação ativa e voz nos fóruns internacionais para a discussão das melhores práticas e de uma governança global da IA, em especial para que tenhamos convergência em termos de padrões e de regulações. A competitividade das organizações brasileiras, assim como o acesso a novas tecnologias globais por elas, dependerá, cada vez mais, de uma ativa participação brasileira na construção dessas políticas globais.
Os artigos aqui publicados são de inteira responsabilidade de seus autores e não refletem a opinião da PB. A sua publicação tem como objetivo privilegiar a pluralidade de ideias acerca de assuntos relevantes da atualidade.