Inteligência artificial caminha para regulamentação em todo o mundo
Tecmundo
A inteligência artificial (IA) está sendo alvo de várias iniciativas de regulamentação em todo o mundo. As principais economias globais preparam legislações que buscam colocar regras para o desenvolvimento, implantação e utilização da tecnologia, coibindo abusos e garantindo os direitos dos usuários.
No final de março, uma carta aberta assinada por Elon Musk, ex-investidor da OpenAI, e mais de dois mil pessoas e organizações ligadas ao setor tecnológico, alertou sobre os riscos da ferramenta e propôs a suspensão das pesquisas sobre IA por seis meses. No entanto, as novas iniciativas e os relatos de mau uso continuam aparecendo a topo vapor.
Os problemas são variados e envolvem vazamento de dados de usuários, violação de direitos autorais e manipulação social e política, bem como a responsabilização das empresas sobre os atos realizados pela tecnologia. Além disso, em abril, uma IA chamada ChaosGPT ficou famosa por seus planos de controlar o humano e tentar destruir a humanidade.
Por isso, conheça os planos de cada governo para controlar a inteligência artificial:
A Lei de Inteligência Artificial da União Europeia, apresentada em 2021, proíbe o uso da IA em serviços críticos que possam ameaçar os meios de subsistência ou encorajar comportamentos destrutivos. Todavia, permite que a tecnologia seja usada em outros setores sensíveis – como a saúde – com segurança máxima.
A administração de Biden publicou orientações amplas para o uso seguro da IA. Além de que governos estaduais e municipais estão desenvolvendo suas próprias regulamentações.
A Declaração de Direitos da IA fornece recomendações para o uso seguro de ferramentas nos setores público e privado. Embora não seja juridicamente vinculativa, serve como um guia para os legisladores.
Um projeto de lei apresentado pelo Parlamento canadense em junho de 2022 inclui a Lei de Inteligência Artificial e Dados (AIDA). Vale ressaltar que ela não proíbe o uso de ferramentas automatizadas de tomada de decisão, mesmo em áreas críticas.
Contudo, os desenvolvedores devem criar um plano de mitigação para reduzir os riscos e aumentar a transparência ao usar IA.
Lei chinesa não trata de IA usada pelo governo. (Fonte: Pixabay/fszalai/Reprodução)
Recentemente, a China introduziu uma lei que regula o uso de algoritmos online para fins de marketing de consumo pelas empresas privadas.
Essa lei exige que as empresas informem os usuários sobre o uso de IA para marketing e proíbe o uso de dados financeiros do cliente para anunciar o mesmo produto a preços diferentes.
O regulador de concorrência do Reino Unido, a Autoridade de Concorrência e Mercados (CMA), anunciou que iniciará uma análise sobre o impacto da inteligência artificial nos consumidores, empresas e economia do país, considerando se novos controles são necessários em tecnologias como o ChatGPT da OpenAI.
No Brasil, um projeto de Lei (PL) propõe a criação de um órgão responsável por implementar as regras sobre a IA em todo o território nacional, com foco em fiscalização e incentivo à inovação. O texto proíbe o uso de sistemas de IA que possam acarretar discriminação direta, indireta, ilegal ou abusiva, além de regular a utilização de dados sensíveis biométricos.