O acelerado desenvolvimento da Inteligência Artificial (IA) tem promovido significativas transformações em diversas áreas da sociedade, com inegáveis vantagens para quem a utiliza e, ao mesmo tempo, desafios relacionados à proteção dos direitos fundamentais.
A IA pode ser compreendida como um mecanismo baseado em algoritmos inteligentes e de aprendizagem que tem a capacidade de processar informações para resolução de problemas. Os algoritmos, por sua vez, correspondem a fórmulas que descrevem as instruções a serem observadas pela máquina para atingir os objetivos almejados pelos usuários, seguindo um roteiro de comandos preordenados. Cada vez mais os algoritmos estão presentes no cotidiano da sociedade e são utilizados para monitorar o comportamento dos indivíduos, seja nas atividades mais simples, seja nas atividades profissionais, com a possibilidade de exposição a riscos que ainda não estão totalmente compreendidos, nem regulados.
A gestão das relações laborais por algoritmos já é realidade em muitas empresas que delegam decisões a sistemas automatizados, os quais decidem sobre contratações (seleção e recrutamento) e dispensas, além de monitorarem as atividades e os comportamentos dos empregados no local de trabalho para avaliação de desempenho e promoções, com otimização de processos que demandam tempo e custos relevantes.
No entanto, os algoritmos utilizados nessas decisões podem replicar vieses sociais e, consequentemente, provocar discriminação nessas relações. A possibilidade de discriminação decorre do fato de a tecnologia de IA não estar dissociada de seus desenvolvedores. Assim, como os algoritmos são fórmulas/sequências matemáticas criadas, programadas e treinadas por seres humanos para determinadas finalidades, podem tomar decisões com vieses preconceituosos.
Fala-se em viés algorítmico quando se observa a absorção pela IA, no processo de incorporação de dados, de padrões discriminatórios que influenciam a decisão da máquina, produzindo respostas tendenciosas e segregativas que acentuam desigualdades preexistentes (de ordem socioeconômica, racial, étnica, religiosa, de gênero, de idade, de deficiência ou de orientação sexual, ou outras características) e promovem tratamento desigual em processos seletivos e de avaliação de desempenho.
Na literatura especializada, há exemplos de situações que apontam vieses discriminatórios em softwares utilizados para recrutamento de candidatos, como o de uma grande empresa estadunidense com presença global, que desenvolveu um software de recrutamento e seleção que tinha a finalidade de avaliar currículos. O algoritmo foi descontinuado após a empresa constatar a existência de viés sexista na tomada de decisão, que penalizava candidatas mulheres. A discriminação ocorria porque os dados utilizados para treinamento e validação do modelo foram extraídos de currículos enviados para a empresa nos últimos dez anos, em sua imensa maioria por homens, como acontecia na maior parte da indústria de tecnologia. Por isso, o algoritmo passou a entender que os homens seriam mais aptos para as vagas, refletindo a desigualdade de gênero que havia no setor de tecnologia.
Recentemente, houve ampla divulgação na imprensa das dispensas praticadas por uma grande instituição financeira brasileira, motivadas pela baixa produtividade dos empregados que trabalham remotamente (a avaliação de desempenho teria considerado os cliques e outras ações nos equipamentos utilizados para o trabalho). Neste caso, o sindicato profissional questionou a legitimidade dos desligamentos, sobretudo porque, na sua opinião, não foram consideradas as especificidades de cada área, tampouco houve transparência quanto aos critérios de monitoramento e vigilância dos empregados nem feedbacks prévios ou oportunidade de contestação das avaliações. Com a mediação do Tribunal Regional do Trabalho (TRT) de São Paulo, houve acordo entre as partes, com pagamento de indenizações adicionais aos trabalhadores demitidos.
O uso de sistemas automatizados depende da coleta massiva de dados que podem influenciar diretamente a remuneração, as oportunidades de trabalho e a reputação dos trabalhadores. Para mitigar os riscos, recomenda-se que os sistemas de IA sejam transparentes, auditáveis e explicáveis, além de sujeitos à supervisão humana, com a garantia de mecanismos de contestação, especialmente quando envolverem decisões que possam afetar direitos fundamentais.
A Lei Geral de Proteção de Dados Pessoais (LGPD) dispõe de instrumentos para reduzir a ocorrência de enviesamento algorítmico, como o direito à explicação e a necessidade de se estabelecerem sistemas de auditorias. Por isso, consagra o direito de o titular solicitar a revisão de decisões tomadas com base em tratamento automatizado de dados pessoais e prevê que a autoridade nacional possa realizar auditoria para a verificação de aspectos discriminatórios no tratamento automatizado de dados pessoais (artigo 20 e parágrafo 2º da Lei 13.709/2018).
O Projeto de Lei (PL) 2.338/2023, que cria um marco legal para a IA no Brasil, contempla os direitos das pessoas afetadas por sistemas dessa tecnologia, a gradação dos níveis de riscos e medidas de governança aplicáveis a empresas que forneçam ou operem tais sistemas, demonstrando preocupação com a potencial propagação de vieses discriminatórios.
Quanto à categorização dos riscos, os sistemas de IA são classificados como de risco excessivo, que são vedados; e de alto risco, a exemplo dos que são empregados para “recrutamento, triagem, filtragem ou avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, avaliação do desempenho e do comportamento das pessoas afetadas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria” (artigo 14, III).
Como instrumentos para assegurar os direitos das pessoas e dos grupos afetados por esses sistemas, o PL assegura:
(i) “direito à explicação sobre a decisão, recomendação ou previsão feitas pelo sistema”;
(ii) “direito de contestar e de solicitar a revisão de decisões, recomendações ou previsões de sistema de IA”;
(iii) “direito à revisão humana das decisões, levando-se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico” (artigo 6º, I, II e III).
Em termos de governança e processos internos voltados para o aplicador, dispõe sobre o “uso de ferramentas ou processos dos resultados da utilização do sistema, de modo a permitir a avaliação de sua acurácia e robustez e a apurar potenciais resultados discriminatórios ilícitos ou abusivos, e implementação das medidas de mitigação de riscos adotadas” (artigo 18, I, “b”).
Ainda, tanto o aplicador como o desenvolvedor deverão adotar “medidas para mitigar e prevenir vieses discriminatórios, quando o risco à discriminação decorrer da aplicação do sistema de IA” (artigo 18, I, “e”, e II, “e”).
De fato, diversas medidas precisam ser avaliadas e podem ser adotadas para evitar a discriminação por algoritmos, como:
· diversidade e representatividade na base de dados;
· diversidade e representatividade dos programadores e desenvolvedores;
· aprimoramento dos desenhos dos algoritmos com menos vieses;
· avaliação de impacto antecedente à implementação;
· transparência (informações claras sobre sua lógica decisória para combater a opacidade dos algoritmos e possibilitar o exercício do contraditório);
· compliance trabalhista, com revisão humana das tomadas de decisões automáticas e identificação de eventuais vieses discriminatórios durante o treinamento do modelo;
· tratamento de dados pessoais de acordo com a LGPD, com respeito aos princípios de finalidade, adaptação, necessidade, livre acesso, transparência, segurança, prevenção, não discriminação e prestação de contas.
Ao se cercar de tais parâmetros na aplicação de ferramentas de IA, o empregador mitiga o risco de vieses e alcança maior segurança jurídica na gestão das relações de trabalho.
Os artigos aqui publicados são de inteira responsabilidade de seus autores e não refletem a opinião da PB. A sua publicação tem como objetivo privilegiar a pluralidade de ideias acerca de assuntos relevantes da atualidade.