Deepfake: entenda a tecnologia de IA que cria vídeos ultrarrealistas
A tecnologia que permite trocar rostos em vídeos se popularizou; entenda como ela funciona e os riscos de seu uso indevido para a imagem de artistas
compartilhe
SIGA
A crescente popularidade de celebridades e figuras públicas as coloca no centro de um problema digital cada vez mais comum: a criação de deepfakes. Imagens e vídeos falsos de artistas e personalidades circulam frequentemente nas redes sociais, expondo os perigos de uma tecnologia que utiliza inteligência artificial para manipular rostos e vozes de forma extremamente realista.
O termo, que une "deep learning" (aprendizagem profunda) e "fake" (falso), descreve conteúdos audiovisuais manipulados por IA. Na prática, um software "aprende" as características faciais e os movimentos de uma pessoa a partir de uma grande quantidade de fotos e vídeos. Em seguida, ele consegue sobrepor esse rosto ao corpo de outra pessoa em um vídeo diferente, sincronizando movimentos labiais e expressões.
O resultado é um vídeo falso, mas que parece autêntico, no qual a pessoa parece dizer ou fazer coisas que nunca fez. A tecnologia se tornou mais acessível nos últimos anos, com aplicativos e programas que permitem a qualquer um criar essas montagens com poucos cliques, o que amplificou seu potencial de uso indevido.
Leia mais
-
Guia prático para identificar um vídeo de político feito com IA
-
ChatGPT mente? Saiba o que são as 'alucinações' da inteligência artificial
-
Chat GPT pode impactar negativamente a aprendizagem, diz instituto
Como a tecnologia funciona?
A criação de um deepfake convincente exige duas redes neurais de inteligência artificial que trabalham em conjunto. Uma rede, chamada de geradora, cria as imagens falsas, tentando imitar o rosto da pessoa alvo da maneira mais fiel possível. A outra, a discriminadora, tem a função de identificar as falhas e apontar se a imagem é real ou falsa.
Esse processo de competição força a rede geradora a aprimorar constantemente suas criações, eliminando imperfeições até que o resultado seja bom o suficiente para enganar não apenas a outra rede, mas também o olho humano. Quanto mais material de origem (fotos e vídeos da pessoa) o sistema tiver, mais realista será o resultado final.
Quais são os principais riscos?
O uso malicioso da tecnologia vai além da manipulação de imagens de artistas. No campo político, deepfakes podem ser usados para criar notícias falsas, atribuindo declarações falsas a líderes mundiais para manipular eleições ou gerar crises diplomáticas. A disseminação de desinformação se torna ainda mais poderosa quando apoiada por vídeos aparentemente reais.
Outra aplicação perigosa é a fraude. Criminosos podem usar a tecnologia para se passar por outra pessoa em uma videochamada, autorizando transações financeiras fraudulentas ou enganando funcionários de uma empresa. O principal dano, no entanto, é o de reputação, com a criação de conteúdo difamatório ou pornográfico falso, causando danos irreparáveis à vida pessoal e profissional das vítimas.
A detecção de conteúdo manipulado se tornou uma corrida contra o tempo. Empresas de tecnologia desenvolvem ferramentas para identificar as falsificações, mas os algoritmos para criá-las também evoluem rapidamente, tornando o desafio cada vez maior.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Uma ferramenta de IA foi usada para auxiliar na produção desta reportagem, sob supervisão editorial humana.