Artigo

Inteligência Artificial: como conciliar regulamentação e inovação?

Rony Vainzof
Consultor em Proteção de Dados da FecomercioSP, secretário-executivo do Fórum Empresarial LGPD e sócio-fundador do VLK Advogados.
Caio Lima
Coordenador do GT de Segurança Jurídica do Fórum Empresarial LGPD e sócio-fundador do VLK Advogados.
A
Rony Vainzof
Consultor em Proteção de Dados da FecomercioSP, secretário-executivo do Fórum Empresarial LGPD e sócio-fundador do VLK Advogados.
Caio Lima
Coordenador do GT de Segurança Jurídica do Fórum Empresarial LGPD e sócio-fundador do VLK Advogados.

A Inteligência Artificial (IA) vem se consolidando como instrumento de transformação global ao potencializar a competitividade de empresas e nações, sendo tecnologia condicionante também para o desenvolvimento socioeconômico do Brasil. A McKinsey estima que a IA generativa, por exemplo, possa contribuir para gerar entre US$ 2,6 trilhões e US$ 4,4 trilhões à economia global. Todos os setores estão sendo impactados positivamente, como Saúde, Financeiro, Alta Tecnologia e Comércio. Em média, o rendimento humano ao utilizar a IA generativa é 66% maior (Nilsen Norman).   

Existem, contudo, desafios éticos e legais que precisam ser enfrentados. O modelo de regulação, a forma de se mitigarem os riscos existentes e os investimentos em educação, capacitação, infraestrutura e pesquisa nortearão a corrida pela inovação e pelo desenvolvimento. Alguns dos riscos da IA são: concentração de poder em poucos países e empresas; potencialização de vieses discriminatórios existentes na sociedade; violação de propriedade intelectual e direitos de terceiros — seja para o treinamento dos modelos algorítmicos (entrada), seja para o conteúdo gerado na saída —; aumento na escala e na sofisticação da desinformação, dificultando a identificação do que é verdade e o que é manipulado (conteúdo sintético gerado pela IA); proteção de dados pessoais e segurança cibernética; e mudanças radicais no mercado de trabalho, considerando o intervalo de tempo para capacitação e qualificação. Sobre o último ponto, estima-se que 300 milhões de empregos atuais estejam em risco (Goldman Sachs).

De fato, o treinamento dos algoritmos e a proteção de direitos autorais e dados pessoais, além do risco de elevação da desinformação, desafiam a busca pelo equilíbrio entre o avanço tecnológico e o respeito aos direitos de terceiros. A utilização de conteúdo protegido (como artigos, áudios e imagens) para treinar sistemas de IA levanta questões complexas sobre como os direitos dos autores das obras devem ser respeitados sem impedir a evolução da tecnologia, considerando que, como regra, elas são protegidas legalmente e demandam prévia autorização para o uso.

Além disso, deve haver atenção à proteção dos dados pessoais e de segredos de negócios, garantindo a ética do uso desses dados para treinamento de algoritmos, mirando a minimização de dados, como forma de contribuir para reduzir o risco de violação de direitos. O treinamento de algoritmos também deve ser realizado de forma a mitigar o risco de discriminação (vieses) ilícita nas decisões automatizadas. Para tanto, é essencial que empresas invistam em governança de IA composta por cultura, princípios, processos, políticas e ferramentas para gerenciar o desenvolvimento, a implantação e o uso ético, responsável e eficaz da tecnologia a fim de que esta esteja alinhada aos próprios valores corporativos, requisitos legais e padrões sociais e éticos.

A governança permite que as organizações libertem todo o potencial da tecnologia, ao mesmo tempo que mitigam riscos regulatórios e jurídicos. Além disso, uma boa governança, implica o desenvolvimento melhor e mais eficiente das organizações (Gartner prevê que, até 2026, as organizações que operacionalizarem IA de forma ética e responsável verão os seus modelos alcançarem melhoria de 50% nos resultados de negócios e na aceitação do usuário).

Sobre eventual carga regulatória adicional, seria importante avaliar se as legislações existentes de acordo com o respectivo uso da IA já sejam suficientes para resolver a maioria das controvérsias, presentes e futuras. As lacunas residuais seriam tratadas em cada caso concreto. Apesar disso, as propostas de regulamentação da  IA têm avançado globalmente. No Brasil, entendemos que não deve haver urgência normativa, especialmente diante do risco de impacto à inovação. Ademais, já há legislação que possa ser utilizada para fazer frente aos desafios mais críticos, incluindo os códigos Civil e de Defesa do Consumidor (CDC), a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, além da própria Constituição Federal.

A União Europeia, que, tradicionalmente, se antecipa à regulação do ambiente digital e privilegia normas mais restritivas — apesar de caminhar para a uma densa regulamentação (EU AI Act) —, ainda não divulgou o texto final, o qual ainda precisará ser aprovado pelo Parlamento e pelo Conselho Europeu para ter validade no continente. Reino Unido, Japão, Singapura e Austrália optaram por abordagem cautelosa na governança de IA, buscando preservar a inovação e a competitividade por meio de múltiplos instrumentos. Nos Estados Unidos, o presidente Joe Biden, recentemente, assinou uma ordem executiva, estabelecendo políticas públicas e diretrizes de IA para as agências federais ao propor abordagem regulatória setorial. Já os membros do G7, grupo das maiores economias do mundo, acolheram favoravelmente princípios orientadores internacionais na matéria e no código de conduta voluntário para os criadores de IA.

Por fim, a Organização das Nações Unidas (ONU), no início de novembro, instalou órgão consultivo com 38 membros (sendo o Brasil um deles), com o objetivo de propor diretrizes para a governança da IA, e, eventualmente, a agência global.

BRASIL: REGULAMENTAÇÃO PRINCIPIOLÓGICA

Em meio a esses desafios da IA, a questão da regulamentação permanece um dilema global. O Brasil, ciente da importância da tecnologia para a competitividade, deve trilhar caminho cuidadoso, avaliando as leis em vigor e propondo regulamentação principiológica focada nessas eventuais lacunas. A busca pelo equilíbrio entre inovação e proteção de direitos é fundamental para o desenvolvimento sustentável nesse novo paradigma tecnológico.

O debate em torno do fair training e da violação de direitos autorais e de terceiros destaca a complexidade ética na evolução da IA. Encontrar soluções que promovam a equidade no treinamento, ao mesmo tempo que respeitem os direitos legítimos dos detentores de dados, é imperativo para garantir desenvolvimento ético e responsável da ferramenta. A colaboração entre especialistas em ética, juristas e desenvolvedores de IA é essencial para abordar esse dilema de maneira holística, equilibrando o progresso tecnológico com a proteção dos direitos sob risco e da propriedade intelectual.

A prioridade deveria ser um plano de nação para IA e dados, de forma a qualificar a mão de obra, com recursos e infraestrutura para criar ecossistemas em torno da capacidade humana, além de diminuir a barreira de entrada a pequenas e médias empresas. Precisamos promover a inovação responsável, evitando a obsolescência regulatória e garantindo competitividade. O Direito deve impulsionar a inovação, e não ser detrator dela.

Os artigos aqui publicados são de inteira responsabilidade de seus autores e não refletem a opinião da PB. A sua publicação tem como objetivo privilegiar a pluralidade de ideias acerca de assuntos relevantes da atualidade.

receba a nossa newsletter
seta