Home
Tecnologia
Você seria enganado por uma deepfake? A resposta é sim!
Tecnologia

Você seria enganado por uma deepfake? A resposta é sim!

publisherLogo
Tecmundo
26/03/2023 12h00
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
https://timnews.com.br/system/images/photos/15481288/original/open-uri20230326-18-hz1qva?1679843157
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE

O deepfake usa técnicas de Inteligência Artificial (IA) para alterar conteúdos de audiovisual existentes ou criar algo novo. Ele têm alguns propósitos inocentes – como sátira e educação – mas é cada vez mais usado de formas ruins. Os conteúdos pornográficos, por exemplo, respondem por 96% desse tipo de conteúdo, segundo relatório da Deep Trace — empresa italiana de Tecnologia, com foco em IA.

No entanto, além das ameaças de difamação contra pessoas físicas, os deepfakes podem causar prejuízos à sociedade como um todo, ao disseminar fake news para manipular a opinião pública e interferir em resultados eleitorais. Se a prático não ocorrer de forma controlada, as pessoas não serão mais capazes de diferenciar vídeos e áudios verdadeiros dos falsos.

Para empresas, os deepfakes podem aumentar a eficácia dos ataques de phishing e de engenharia social, facilitar a fraude de identidade e manipular a reputação da empresa para causar um colapso injustificado no valor das ações. E ainda, podem ser utilizados para burlar dispositivos de segurança, como a validação do login de usuários por reconhecimento facial.

A velocidade de conexão 5G e o poder de computação da nuvem podem deixar a situação ainda mais complicada, permitindo que o vídeo seja manipulado em tempo real. As tecnologias deepfake podem, portanto, ser aplicadas em configurações de videoconferência, serviços de vídeo ao vivo e televisão.

Enquanto alguns deepfakes podem ser criados por efeitos visuais ou abordagens de computação gráfica, as manipulações mais convincentes são desenvolvidas usando modelos de aprendizado profundo, como autoencoders e redes generativas adversariais (GANs), que têm amplamente aplicado no domínio da visão computacional.

Como em todo aprendizado de máquina, a quantidade de dados que pode ser usada para treinamento é crítica – quanto maior o conjunto de dados, mais preciso é o algoritmo. Os alvos iniciais dessa técnica de manipulação são celebridades e políticos, uma vez que grandes conjuntos de dados de treinamento estão disponíveis gratuitamente na internet.

As redes neurais operam com dois modelos: generativo e discriminante. O modelo discriminante testa repetidamente o modelo generativo contra o conjunto de dados original. Com os resultados desses testes, os modelos melhoram continuamente até que o conteúdo gerado não possa ser detectado pelo olho humano.

Os softwares para criar deepfakes são gratuitos, de código aberto e podem ser baixados facilmente. No entanto, as habilidades significativas de edição gráfica e dublagem de áudio necessárias para criar um deepfake crível não são comuns. Além disso, o trabalho empregado para criar tal deepfake requer um investimento de tempo de várias semanas, a meses, para treinar o modelo e corrigir imperfeições. 

Até mesmos os softwares têm dificuldade para detectar os vídeos manipulados. A questão é, geralmente, tratada como um problema de classificação binária onde os classificadores são usados para diferenciar vídeos autênticos e dos adulterados. Esse tipo de métodos requer um grande banco de dados de vídeos reais e falsos para treinar modelos de classificação.

Embora o número de vídeos falsos está cada vez mais disponível, ainda limitado em termos de estabelecer um benchmark para validar vários métodos de detecção. Para superar a questão, os especialistas em dados biométricos Pavel Korshunov e Sebastien Marcel produziram um notável conjunto de dados deepfake composto por 620 vídeos baseados no GAN.

Um banco de vídeos públicos foi utilizado para gerar vídeos deepfake de baixa e alta qualidade, que podem imitar efetivamente as expressões faciais, movimentos da boca e piscar de olhos. Esses vídeos foram então usados para testar vários métodos de detecção. Os resultados dos testes mostram que os sistemas populares de reconhecimento facial baseados em modelos VGG e Facenet são incapazes de detectar deepfakes de forma eficaz.

Outros métodos incluem sinais biológicos baseados em imperfeições nas mudanças naturais do tom da pele causadas pelo fluxo sanguíneo; correlação imperfeita entre a correspondência palavra e boca; movimentos faciais; e modelos convolucionais recorrentes que procuram inconsistências entre os quadros individuais que compõem um vídeo.

Mas, há dificuldades. Assim como uma pequena variação no malware pode ser suficiente para enganar os mecanismos de detecção, uma pequena alteração no método usado para gerar um deepfake também pode enganar a detecção existente.

Apesar de toda a preocupação com o mau uso, a tecnologia deepfake tem um potencial positivo em diversos campos. Na educação, poderia revolucionar nossas aulas de história com interatividade, preservando não apenas os fatos descritos nos livros, mas o impacto que os eventos históricos tiveram nas pessoas reais.

Em 2018, o Illinois Holocaust Museum and Education Center criou entrevistas hologramáticas, que permitiu que os visitantes interagissem com os sobreviventes do Holocausto. Eles poderiam fazer perguntas e ouvir suas histórias. À medida que a tecnologia deepfake avança, esse tipo de história virtual pode se tornar alcançável em uma escala muito maior.

Como os deepfakes podem replicar vozes e alterar vídeos, eles podem permitir uma série de usos criativos em filmes, como dublagem, criação de personagens mais consistentes e até usando atores que já faleceram. Em 2020, o jogador David Beckham apareceu em uma campanha contra a malária com 70 anos, falando nove idiomas diferentes.

Na medicina, os vídeos manipulados podem dar um impulso à privacidade dos dados, ao mesmo tempo em que ajuda no desenvolvimento de novas práticas de diagnóstico e monitoramento. Os hospitais podem usar dados de pacientes para testes e experimentações que são realistas, mas não colocam pacientes reais em risco.

A tecnologia também pode ser útil para treinamentos empresariais. Por exemplo, treinamento de atendimento ao cliente. É possível utilizar “humanos virtuais” substituindo clientes reais para treinar seus novos membros da equipe, sem jogá-los de cabeça em interações reais.

A caixa de Pandora foi aberta e parece que a competição entre a criação, detecção e prevenção de deepfakes se tornará cada vez mais acirrada no futuro, com a tecnologia não apenas se tornando mais fácil de acessar, mas o conteúdo manipulado mais fácil de criar e progressivamente mais difícil de distinguir real.

Embora o uso de deepfakes para o bem esteja aumentando em setores como entretenimento, notícias e educação, esses desenvolvimentos, por outro lado, também introduzirão ameaças ainda mais sérias ao público, incluindo o aumento da atividade criminosa, a disseminação de desinformação, fraude de identidade e interferência eleitoral.

A questão a ser resolvida é: como restringir o uso de uma tecnologia para fins criminosos, sem demonizá-la e impedir sua aplicação em situações inofensivas ou, até mesmo benéficas? As deepfakes já circulam em diversas capacidades, até termos um meio de diferenciá-las da realidade, deveremos tomar cada vez mais cuidado com as informações que consumimos e sua procedência.

Esse texto não reflete, necessariamente, a opinião do TIM NEWS, da TIM ou de suas afiliadas.
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE
Confira também