Técnica que começou a ser empregada em dezembro de 2017 produz clipes realistas e pode ser usada até por leigos
Vídeos deepfakes são produções falsas que usam aprendizado de máquina e inteligência artificial para trocar rostos de pessoas e colocá-las em situações pelas quais nunca passaram na vida real. O realismo da técnica, que começou a ser empregada para produzir montagens de celebridades em vídeos pornográficos e já ajudou a forjar discursos de políticos influentes, preocupa especialistas e entidades como o Pentágono e o Congresso dos Estados Unidos. Na lista a seguir, conheça sete curiosidades sobre os polêmicos deepfakes, considerados a evolução das fake news.
Vídeo deepfake com Mark Zuckerberg causa polêmica nos Estados Unidos — Foto: Reprodução / Instagram Vídeo deepfake com Mark Zuckerberg causa polêmica nos Estados Unidos — Foto: Reprodução / Instagram
Origem em vídeos pornô
O termo deepfake apareceu pela primeira vez em dezembro de 2017, quando um usuário do fórum Reddit com esse nome começou a transpor os rostos de famosas em vídeos pornográficos. No mesmo mês, a Revista Vice publicou em seu site um artigo denunciando um vídeo manipulado que mostrava a atriz Gal Gadot, estrela do filme Mulher Maravilha, tendo relações sexuais com um familiar. Essa falsificação fora feita por deepfake, que também usou softwares de aprendizado de máquina para aplicar os rostos de Taylor Swift e Scarlett Johansson a clipes já existentes.
Chamou a atenção o fato de os vídeos serem feitos por uma única pessoa, que conseguiu criar de maneira fácil e rápida, falsificações convincentes e de alta qualidade. Com isso, a expressão deepfake logo passou a ser usada para indicar uma variedade de vídeos editados com aprendizado de máquina e outras capacidades da inteligência artificial.
Empresas oferecem o serviço
Em 2018, uma empresa do setor pornográfico aproveitou a popularização dos deepfakes para oferecer um novo serviço aos seus clientes. A proposta da produtora Naughty America era ajudá-los a realizar uma fantasia sexual, colocando seus rostos sobre o de atores pornô e vice-versa. Os consumidores recebiam um roteiro que os orientava a filmar a si mesmos com determinadas expressões, para garantir que o produto final fosse realista.
Outro caso de monetização da prática deepfake envolveu o aplicativo DeepNude, que criava fotos de mulheres nuas a partir de inteligência artificial. Com alguns cliques, o app trocava as blusas por seios e a calça por vulvas, produzindo nudes bastantes realistas. Em junho deste ano, após repercussão negativa na imprensa internacional, a aplicação foi descontinuada. Ainda assim, versões alternativas ao DeepNude continuam a circular na Internet.
Facebook já se recusou a tirar deepfakes do ar
No último mês, Mark Zuckerberg apareceu em um vídeo no Instagram afirmando que controla dados roubados de bilhões de pessoas. A produção falsa, que trazia a logomarca do canal de notícias CBSN, utilizou a técnica deepfake e foi criada por dois artistas, em conjunto com a agência de publicidade Canny. Embora a CBSN tenha reivindicado o uso da marca registrada, o Facebook se recusou a retirar o vídeo, afirmando que só removeria o material a falsidade fosse atestada por checadores terceiros.
Esta não foi a primeira vez que a empresa de Zuckerberg se negou a retirar vídeos falsos. Em maio de 2019, o Facebook decidiu manter um vídeo manipulado que fazia a líder democrata dos EUA Nancy Pelosi parecer bêbada. Com milhões de reproduções, o clipe não é um caso de deepfake, mas teve sua velocidade reduzida em 75%, fazendo com que Pelosi falasse de maneira arrastada. Na época, o Facebook afirmou que a produção não violava os termos de uso da plataforma.
Deepfakes na mira do Congresso americano
Os possíveis impactos dos deepfakes nas eleições presidenciais norte-americanas de 2020 levaram o Congresso dos E a entrar em ação. Em dezembro de 2018, foi criado o primeiro projeto de lei federal voltado para a tecnologia. O “Projeto de Proibição de Deepfakes Maliciosas” (Malicious Deep Fake Prohibition, em inglês) torna crime federal criar ou distribuir deepfakes nos casos em que isso facilita condutas ilegais.
Já a Ação de Responsabilidade sobre Deepfakes, adotada em junho deste ano, exigiria marcas d’água obrigatórias e rótulos claros em todos os deepfakes – uma regra que provavelmente será ignorada por quem tem interesse em transformar os vídeos falsos em arma política. O Congresso estuda, ainda, combater os deepfakes por meio da regulamentação das redes sociais.
Deepfakes podem ser criados por usuários leigos
O lançamento, em janeiro de 2018, do software FakeApp tornou a criação de vídeos deepfakes acessível a usuários comuns. É possível encontrar tutoriais que ensinam a usar a ferramenta em fóruns da Internet.
Pouco meses depois, em abril, o BuzzFeed publicou um vídeo em que o ex-presidente dos Estados Unidos Barack Obama dizia palavras que não eram dele para alertar sobre os perigos trazidos pela tecnologia. O clipe, que logo nos momentos iniciais afirmava ser uma farsa, foi feito por uma única pessoa usando o FakeApp. O programa levou 56 horas para processar os materiais originais.
A tecnologia deepfake não é capaz de criar rostos em 3D
Vídeos reais mostram pessoas movendo o rosto em três dimensões, mas os algoritmos deepfake ainda não são capazes de fabricar rostos em 3D. O que eles fazem é gerar uma imagem bidimensional da face e, em seguida, tentam girá-la, redimensioná-la e distorcê-la para ajustá-la à direção para a qual a pessoa deveria estar olhando. Isso explica, por exemplo, por que os rostos de personagens de clipes deepfake costumam ter alguns traços e contornos desalinhados.
É possível identificar deepfakes
Embora sejam sofisticados, os vídeos deepfakes não são perfeitos e podem ser identificados observando alguns aspectos. O primeiro e mais gritante é que, em geral, os personagens de deepfakes piscam muito menos que uma pessoa normal. Isso porque, muitas vezes, as piscadas não são incluídas no conjunto de dados do algoritmo de treinamento.
Outro ponto, já mencionado, é o alinhamento dos traços do rosto, que em geral apresenta uma textura de “cera” nas produções falsas menos convincentes. Além disso, vale ressaltar que vídeos deepfake consistem apenas na troca de rostos, ou seja, se o corpo da pessoa envolvida aparenta ser muito mais magro, mais pesado, mais alto ou mais baixo que na vida real, há uma grande chance de ser fake.
Nesse sentido, entre os indícios de que a produção é falsa está também a ausência de som ou um lip syncing artificial, em que as palavras faladas não correspondem corretamente ao movimento dos lábios, ou os lábios se movem de maneira estranha.
Por último, é importante destacar que os vídeos deepfake não costumam passar muito de um minuto de duração, já que o processamento de alguns segundos leva horas e exige bastante da máquina que opera o software.