Inteligência artificial imitando vozes: quais os perigos da tecnologia?
33giga
*Por Alexandre Pierro // A linha entre realidade e ficção está cada vez mais tênue. Caminhando a passos velozes, os avanços da inteligência artificial trazem consigo benefícios enormes para uma maior otimização, segurança de dados e, até mesmo, divertimento por meio de sistemas mais interativos. Porém, quando utilizada para fins desvirtuosos, pode trazer perigos graves em um efeito cascata para toda a sociedade.
Em um recente anúncio feito pela Amazon, atualizações da Alexa permitiriam que o robô imite vozes de qualquer pessoa, por meio de algoritmos capazes de identificar as entonações e registros únicos de cada um, após ouvir gravações curtas de áudio. Em um primeiro momento, se torna curioso e atrativo ter uma inteligência que consiga replicar vozes de entes queridos que já nos deixaram, amigos com quem temos afinidade ou, ainda, famosos e políticos que idolatramos. Mas, em uma análise mais profunda, existem perigos enormes em se apropriar de tais características em quaisquer sistemas acessíveis à população.
Cada tecnologia traz consigo dois lados da moeda. Tratando-se especificamente da inteligência artificial, cerca de US$ 93,5 bilhões foram investidos para fins privados em 2021 – estimulando uma imensa geração de emprego no segmento e em áreas correlacionadas e, assim, o desenvolvimento de produtos e serviços robustos que tragam facilidades para o dia a dia da população. Dados e perspectivas inegavelmente positivos, mas, também, mascarados por riscos que muitos deixam de considerar.
Em uma era polarizada por constantes conflitos de opiniões divergentes, contar com uma ferramenta que simule vozes de qualquer pessoa é a oportunidade perfeita para manipulações de interesses pessoais e profissionais. Como exemplo mais sutil, um adolescente pode utilizar o recurso para reproduzir a voz de seus pais ou responsáveis para adquirir algo de seu interesse. Ou, pensando em cenários mais graves, um defensor político nato pode criar falas e discursos polêmicos de candidatos contrários a seu partido para danificar sua imagem, gerar entraves e, ainda, a possibilidade de desentendimentos sérios.
A disseminação dessas fake news teriam um poder avassalador que, dificilmente, conseguiriam ser contidas. Afinal, em meio a um mar extenso de conectividade por meio de inúmeras redes sociais e canais de comunicação, se torna cada vez mais complexo distinguir as informações verídicas daquelas manipuladas.
São poucos os que hoje buscam compreender a fonte de cada notícia lida, a confiabilidade de quem a escreveu e assegurar sua veracidade conferindo aquele dado em mais de um canal. Opiniões incompletas, superficiais e equivocadas vêm se tornando cada vez mais presentes, deixando para trás um senso crítico fundamental para a distinção desses opostos e como critério de exclusão das tentativas de distorções.
Qualquer sobrevalorização para informações compartilhadas em redes sociais de influenciadores ou conhecidos, em vez de fontes verídicas e profissionais qualificados, apenas abrirá portas para cada vez mais conflitos e desentendimentos baseados em dados manipulados e divulgados para fins egocêntricos. Em ferramentas capazes de simular vozes de qualquer ser humano, esses cenários podem se tornar ainda mais frequentes – especialmente, em vista de eventos políticos extremamente importantes, como a chegada das eleições.
Ainda não temos perspectivas do lançamento do recurso da Amazon para o público, mas, pouco nos distancia dessa realidade. Para que possamos desfrutar ao máximo das vantagens desta tecnologia, é essencial aprimorarmos um senso crítico mais refinado, analisando com maior cuidado toda informação recebida e evitando disseminá-la antes de sua confirmação. Afinal, a única arma que temos contra tais tentativas de distorções é a nossa capacidade de reflexão acerca do que ouvimos.
*Alexandre Pierro é engenheiro mecânico, físico nuclear e sócio-fundador da PALAS, consultoria pioneira na ISO 56002 na América Latina