Home
Tecnologia
O outro lado da IA: como se proteger dos perigos das Deepfakes
Tecnologia

O outro lado da IA: como se proteger dos perigos das Deepfakes

publisherLogo
Tecmundo
20/02/2024 23h00
icon_WhatsApp
icon_facebook
icon_email
https://timnews.com.br/system/images/photos/16066275/original/open-uri20240220-18-7zqxnm?1708470085
©TecMundo
icon_WhatsApp
icon_facebook
icon_email
PUBLICIDADE

Por Andréa Migliori.

Se você buscar pelos termos “golpe”, “IA” ou “deepfake” agora mesmo, conseguiria passar uns bons minutos indo de notícia em notícia e descobrindo maneiras surpreendentes – e cheias de más intenções – de usar inteligência artificial.

Falar desse tipo de tecnologia é importante, já que a incorporamos cada vez mais no dia a dia, e na maioria das vezes o resultado é positivo. Temos ferramentas de todos os tipos que agilizam processos, reduzem custos das empresas e auxiliam até com as tarefas mais cotidianas. Mas não dá para ignorar que, como ocorre com qualquer recurso poderoso, ele também pode ser utilizado para o mal.

Recentemente se popularizaram alguns casos problemáticos nesse sentido, especialmente deepfakes, que são o uso de IAs para criar imagens e vídeos extremamente realistas de pessoas que não existem ou simulando o rosto de pessoas reais.

Por exemplo, houve a situação de um diretor financeiro de uma multinacional chinesa que perdeu US$ 26 milhões (R$ 129 milhões) após participar de uma reunião online e acreditar que estava falando com outros colaboradores da empresa. Só que mais ninguém estava ali de verdade, e ele foi convencido por bandidos que nem precisaram mostrar o próprio rosto a fazer diversas transferências.

Outro caso muito relevante é o da cantora Taylor Swift, que tem tido sua imagem vinculada a conteúdos pornográficos na internet, também por meio do deepfake . O cenário é tão preocupante que já está causando mudanças na legislação americana; no Missouri, o “Taylor Swift Act” surgiu justamente devido às ocorrências envolvendo a cantora.

Deepfake e IAA DeepFake está se espalhando mais rápido e com a IA as imagens e vídeos falsos estão cada vez mais realistas.

É provável — e necessário — que isso se repita ao redor do mundo. Novas leis estão sendo propostas e estudadas para regulamentar o uso da inteligência artificial em várias instâncias . Mas, enquanto isso, todos nós ainda precisamos nos proteger.

Como? Por mais que não exista uma solução integral, algumas dicas podem ajudar:

Os deepfakes em vídeo e áudio, ou mesmo as IAs por texto, podem simular muito bem o estilo de falar ou escrever de alguém próximo a você. Os bandidos então usam esses recursos para solicitar depósitos ou mesmo para fingir que a pessoa em questão está em perigo, como o golpe do falso sequestro.

A dica é combinar uma palavra de segurança com seus amigos e familiares, pessoalmente, para que seja dita se algo assim acontecer de verdade. Não deixe essa palavra em algum dispositivo que poderia ser hackeado, procure memorizá-la e peça para que seus contatos façam o mesmo. Pode ser algo bem aleatório, para ser mais difícil de surgir em conversas casuais.

Não confie rapidamente no que está sendo dito, principalmente se já houver alguma suspeita de golpe ou fraude. Pressione o interlocutor por respostas detalhadas, lembranças específicas que você tenha sobre o assunto e outras informações relevantes. Alguns podem desistir por perceberem que você está muito atento.

Se for possível, sempre busque confirmação sobre o que está sendo tratado com outra pessoa, não envolvida naquela interação. Por exemplo, se for algo relacionado ao seu emprego, ao invés de tomar uma decisão rapidamente, avise que vai conferir as informações com seus superiores ou outros colaboradores.

É provável que surja uma pressão para que tudo aconteça rápido, e isso por si só já é um sinal de alerta.

Ficar de olho no que está acontecendo é um meio importante de se precaver. Agora mesmo você já está sabendo sobre os perigos do deepfake, o que naturalmente cria uma percepção extra sobre situações que pareçam estranhas.

Esse texto não reflete, necessariamente, a opinião do TIM NEWS, da TIM ou de suas afiliadas.
icon_WhatsApp
icon_facebook
icon_email
PUBLICIDADE
Confira também