A briga europeia sobre a legislação de Inteligências Artificiais
Tecmundo
O uso e o desenvolvimento de inteligências artificiais têm gerado discussões cada vez mais relevantes, principalmente quando esse assunto está vinculado aos impactos jurídicos e éticos resultantes da evolução da IA.
Enquanto a China e os EUA vivem uma disputa sobre quem avança mais em aplicações de inteligência artificial, a União Europeia está mais preocupada com a contenção de riscos em relação ao uso maléfico das IAs, abstendo-se dessa disputa tecnológica a fim de preservar sua população.
Muito se questiona sobre o poder disruptivo que essas inteligências artificiais possam ter nos valores humanos, e isso é ainda mais intenso quando se fala na interação entre a vulnerabilidade dos direitos frente a essa tecnologia.
Um exemplo disso é um caso ocorrido em 2019, quando guardas, alocados nas fronteiras da Grécia, Hungria e Letônia, passaram a testar detectores de mentiras alimentados através de uma inteligência artificial. O sistema, nomeado como “iBorderCtrl” tinha como objetivo analisar movimentos faciais com o fim de detectar sinais caso uma pessoa estivesse mentindo para o agente da fronteira.
Apesar do investimento milionário de US$ 5 milhões financiado pela União Europeia, bem como os quase 20 anos de pesquisa na Manchester Metropolitan University, no Reino Unido, a prática resultou em um julgamento polêmico, uma vez que a tecnologia de inteligência artificial apresentou diversas falhas. Notícias da época relataram que o próprio site do projeto afirmou reconhecer os riscos aos direitos humanos fundamentais afetados pela tecnologia.
Muitas empresas como a "iBorderCtrl" têm sido dissolvidas em razão do uso desregulado de inteligências artificiais. A explicação para isso vem da pressão que a lei da União Europeia de regulação da IA tem exercido sobre elas, visto que uma das emendas consideradas pela lei é, justamente, o banimento de sistemas que alegam detectar fraudes humanas na imigração, usando o caso da iBorderCtrl como um exemplo daquilo que pode dar errado.
O propósito dessa legislação é, em suma, proteger os direitos fundamentais dos cidadãos da União Europeia, assim como o direito de buscar asilo ou de viver sem qualquer tipo de discriminação. Ela, portanto, procura rotular os casos de IA que possam ser considerados como “alto risco” ou “baixo risco”, e proíbe outros.
Além de tudo, há a pressão exercida por grupos de direitos humanos, sindicatos, advogados, ativistas e até mesmo empresas como o Google e a Microsoft , que esperam que a Lei da IA diferencie aqueles que produzem sistemas de inteligência artificial para um propósito geral e aqueles que os instituem para fins específicos.
Ainda em relação à polêmica dos detectores de mentiras, em maio desse ano, grupos de defesa voltados para os Direitos Digitais Europeus e a Plataforma para Cooperação Internacional sobre Imigrantes Indocumentados solicitaram que a lei passasse a proibir o uso de polígrafos de IA nas fronteiras, responsáveis por avaliar a movimentação dos olhos, expressão facial e tom de voz.
Segundo a diretora associada do Refugee Law Lab, Petra Molnar, o uso de detectores dessa tecnologia nas fronteiras cria uma política de imigração que rotula todos como possíveis suspeitos. Sendo assim, mesmo imigrantes refugiados são considerados mentirosos, a menos que provem o oposto.
Molnar defende que muitas pessoas que passam pela imigração tendem a evitar o contato visual por diversas razões, sejam elas culturais, religiosas e até mesmo provenientes de algum trauma, o que acaba sendo interpretado equivocadamente como um sinal de mentira ou de que essa pessoa esteja escondendo algo.
Para ela, se até mesmo os humanos têm dificuldades para lidar com a comunicação intercultural, não faz o menor sentido que uma máquina movida por IA, desprovida de qualquer tipo de humanidade, se saia melhor nesse quesito.
Em consonância com os seus Estados-Membros, a União Europeia tem, a partir de um novo Plano Coordenado, procurado garantir a segurança e a defesa dos direitos fundamentais tanto da sociedade, como das empresas, sem deixar de reforçar o investimento e a utilização de Inteligências Artificiais na UE.
Essas regras surgiram com o intuito de regular e complementar como esses sistemas devem ser utilizados e adaptados às novas normas de segurança, com a finalidade de garantir um resultado mais satisfatório, bem como passar mais confiança aos seus usuários.
O novo regulamento se propõe a evitar situações como a da “iBorderCtrl”, já que trata de implementar regras que abordam os riscos colocados pelos sistemas de IA, estabelecendo padrões rígidos e ainda mais elevados.
Outros objetivos relacionados a essa regulamentação tratam-se de:
Além disso, os sistemas nomeados como “prognósticos de criminalidade”, cujo intuito é dirigir as ações de policiamento, também estão em debate entre seus defensores e aqueles que os consideram como pouco transparentes e reprodutores de racismo e desigualdades. Com o advento da AI Act, esses poderão sofrer limites mais criteriosos ou até mesmo serem banidos, uma vez que seu risco seja considerado excessivo.
A AI Act (Lei da IA), um dos principais projetos em discussão no Parlamento Europeu atualmente, tem sido considerada uma precursora em relação às leis do tipo, devido ao tamanho de sua ambição de regular, em uma única peça legislativa, todo o setor de inteligência artificial.
Conforme o MIT Technology Review, caso a União Europeia consiga que esse marco regulatório cumpra satisfatoriamente os objetivos propostos de discernimento de riscos e limites na aplicação de inteligências artificiais, é provável que essa legislação sirva como parâmetro para que outros países — como no caso do Brasil, que, segundo a Agência Câmara de Notícias, já tem o Projeto de Lei 21/20 com diretrizes semelhantes — também o adotem.
É interessante, estrategicamente, que outros países, como os EUA, por exemplo, se mantenham em harmonia com a União Europeia nesse quesito, principalmente considerando a rápida evolução tecnológica da China frente às AIs. Esse cenário ganha mais relevância ao passo em que a própria China já se adiantou, tornando-se o primeiro desenvolvedor a lançar um marco regulatório de IA.
Embora o cenário para a aprovação da Lei da IA seja bastante promissor, são diversas as controvérsias e disputas políticas e econômicas que dificultam a sua finalização. Muitos especialistas, segundo a MIT Technology Review, acreditam que a transparência e a prestação de contas quanto a essas regulações, são, na prática, inviáveis.
Estima-se, portanto, que as medidas finais de aprovação ou rejeição desse projeto possam acontecer até o fim do próximo ano, levando, ainda, mais um período para que o mercado e os próprios Estados se adéquem às novas normativas no caso de aprovação.