Pular para o conteúdo
CIÊNCIA E TECNOLOGIA

Como a evolução da inteligência artificial desafia a compreensão da verdade

02/02/2025
deepfake

estadão

Em 2017, um experimento pioneiro de inteligência artificial (IA) da Universidade de Washington revelou um cenário perturbador: um vídeo falso em que o então presidente americano Barack Obama fala de forma sincronizada com o áudio de um discurso anterior feito por ele. Apenas oito anos depois, o vídeo parece tosco, uma situação que deixa especialistas e autoridades alarmados – tudo ficou mais realista e difícil de detectar. Assim, com a sofisticação e popularização de algoritmos, cresceu também o desafio de compreender o que é verdade.

Os deepfakes – vídeos, imagens e áudios manipulados por meio da IA – se consolidaram como ferramentas centrais de fraudes digitais de todos os tipos. Eles variam de golpes financeiros, que exploram a imagem de celebridades, a manipulações políticas cada vez mais verossímeis. É possível manipular até mesmo conversas em tempo real, um efeito colateral do avanço da IA generativa, algoritmos capazes de produzir conteúdo.

“Existem deepfakes em áudio, que talvez sejam os mais convincentes. Imagens e vídeos também são muito realistas, a ponto de inúmeros casos de fraudes financeiras terem ocorrido nos últimos meses. Produzir ou manipular desinformação é tão simples quanto alguns cliques do mouse, já que a IA generativa reduz os custos e a necessidade de habilidades técnicas”, explica Ben Colman, cofundador da startup de detecção de deepfakes Reality Defender.

“Dois anos atrás, praticamente não tínhamos geração de vídeo de qualidade. Hoje, já produzimos vídeos de 5 a 10 segundos, e nos próximos anos essa tecnologia deve avançar consideravelmente”, destaca o professor Anderson Rocha, coordenador do Recod.ai, laboratório de IA da Universidade Estadual de Campinas (Unicamp). Ele cita alguns fatores para o salto: os modelos de difusão e transformer (arquiteturas mais complexas capazes de gerar imagens e textos de maior qualidade); a ferramenta VALL-E da Microsoft (capaz de replicar vozes a partir de poucos segundos de áudio); e o Runway (capaz de integrar vídeo, áudio e texto).

Com tudo isso, as barreiras para criação de conteúdo manipulado desapareceram quase completamente. “Antigamente, uma falsificação exigia certos conhecimentos avançados em editores de imagem, como Photoshop. Com as ferramentas de IA generativa, qualquer pessoa pode criar conteúdo”, diz Rocha. O caso da imagem do Papa Francisco de “casacão rapper” já se tornou um clássico dos potenciais perigos da tecnologia.

Plataformas como Meta, Google e Microsoft democratizaram ainda mais esse acesso com a integração de ferramentas de geração de imagens, como o Gemini e o Image Creator – pouco ajuda o fato de que esses serviços mantêm políticas de uso contra o uso fraudulento de IA. Com menos restrições que seus pares, o Grok, de Elon Musk, é capaz de gerar imagens de cunho político, normalmente barradas em outras plataformas. Um estudo da organização Newsguard mostra que o aplicativo produziu conteúdos com potencial de impulsionar falsas narrativas em 80% dos casos testados.

“Você pode entrar no WhatsApp e pedir uma imagem para a Meta AI. É possível gerar imagens em 30 segundos, e com uma qualidade que dificilmente uma pessoa consegue distinguir a imagem fake de uma real”, resume Fernando Osório, professor da Universidade de São Paulo em São Carlos. Ele lembra de um exemplo que circulou recentemente nos apps da Meta: uma imagem que mostrava o letreiro de Hollywood em chamas durante os incêndios na Califórnia.

Se os erros nas mãos, cabelos ou nos cenários eram uma forma simples de identificar as criações sintéticas, esse desafio se tornou ainda mais complexo. “Já chegamos a um ponto onde é praticamente impossível identificar o falso manualmente”, diz Colman.

Osório resume como esse tipo de avanço ocorre: “Cada vez que uma falha é detectada na produção de imagem, surge uma nova versão para corrigir. E isso não acaba nunca”.

Em meio a tanta coisa falsa o que sobra de real? “A voz é falsa, a imagem é falsa, e a interação torna isso muito verídico. Provar que eu sou eu, por vídeo, talvez já não seja mais suficiente”, diz Osório.

Sombra nas eleições

Nas eleições municipais brasileiras de 2024, a primeira após a popularização da IA generativa, os deepfakes fizeram uma grande sombra sobre o processo, mas não chegaram ao nível apocalíptico esperado. O DFRLab, laboratório digital da think tank Atlantic Council, identificou 78 usos da tecnologia para disseminar desinformação no contexto eleitoral brasileiro, segundo a pesquisadora associada da instituição, Beatriz Farrugia.

Os formatos de desinformação variaram amplamente, incluindo vídeos e áudios artificiais para minar a credibilidade de candidatos, matérias jornalísticas falsas – “vários candidatos diferentes usaram um vídeo do William Bonner promovendo sua candidatura”, diz Beatriz – e até deep nudes, conteúdos pornográficos falsos focados em candidatas mulheres, revelando um aspecto particularmente misógino da tecnologia.

A desinformação política apresenta semelhanças com as farsas utilizadas em golpes financeiros, com a utilização de nomes e figuras midiáticas, como observa Farrugia – algo particularmente relevante no Brasil. “Os casos dos deepfakes financeiros também usam vídeos de jornalistas, personalidades e políticos, editados em outro contexto para promover aquilo que você quer. É um formato narrativo que eu já vinha percebendo em golpes e que foi utilizado no contexto eleitoral”.

Fora do Brasil, o cenário internacional também revela um uso crescente da tecnologia para fins políticos, com partidos de extrema direita na Alemanha, França e Itália adotando em escala imagens e vídeos gerados pela tecnologia, utilizados para disseminar conteúdo anti-imigração nas redes sociais, frequentemente sem a identificação de que se trata de material sintético.

Em 2024, a agência de checagens Newsguard identificou mais de 1.000 sites no mundo dedicados exclusivamente ao compartilhamento de notícias falsas geradas por inteligência artificial, um salto impressionante em comparação aos 50 sites registrados no ano anterior. Esse dado evidencia como o jornalismo está sendo impactado pela escalada da desinformação.

Desinformação em escala

Uma escalada ainda maior da ameaça dos deepfakes pode estar no horizonte: a ascensão de agentes de IA, sistemas integrados que automatizam tarefas com capacidade de tomar decisões de forma autônoma, sem interferência humana. Embora ainda não estejam amplamente disponíveis, automações sofisticadas como essa podem criar grandes fábricas de mentira digital: produção, publicação, distribuição e manutenção de imagens e notícias falsas em diferentes cantos da internet, de redes sociais a fóruns, passando por apps de mensagens e sites e blogs. Tudo com poucos simples comandos de texto por parte de qualquer pessoa.

Atualmente, a produção de desinformação já combina diversas tecnologias, desde a geração de textos e comentários com modelos de linguagem até a criação de perfis com avatares sintéticos gerados por redes adversariais (GANs), sites que simulam veículos jornalísticos e vídeos deepfake. Mas tudo isso ainda exige uma grande dose de envolvimento humano na operação, uma dinâmica que pode ser alterada pelos agentes.

“Com o avanço acelerado da IA generativa, o que hoje imaginamos para daqui a 12 meses pode acontecer muito antes”, explica Colman. “Deepfakes em tempo real, que enganam as pessoas fazendo com que acreditem estar interagindo com alguém real, podem ser criados com softwares de código aberto – um processo que se tornou relativamente acessível. Com a chegada dos agentes de IA, existe o risco real de que essa produção seja escalada e automatizada”, alerta.

Os experimentos de agentes divulgados nos últimos meses pela OpenAI, Google e Anthropic mostram um cenário no qual as máquinas navegam com facilidade pelo computador, como se fossem humanos.

Crise de credibilidade

A professora e pesquisadora da Universidade Federal de Pelotas (UFPel), Raquel Recuero, adverte para a possibilidade de uma crise de credibilidade ainda maior pela qual já passamos atualmente. “Com a popularização dessas práticas, as pessoas podem passar a usar o “foi feito por IA” para desconfiar de coisas verdadeiras e mesmo desacreditar conteúdos que são importantes para a sociedade”, explica.

Para Heloisa Massaro, diretora do InternetLab, a proliferação desse conteúdo fortalece o sentimento de desconfiança. “Conforme o tema fica cada vez mais popular, o ceticismo das pessoas em torno de áudios, vídeos e fotos também cresce. As pessoas deixam de acreditar no que é verdadeiro e usam parâmetros próprios, muitas vezes influenciados por canais partidários e indivíduos extremistas.”

As próprias redes sociais podem representar um obstáculo significativo no combate à desinformação. Em janeiro, a Meta encerrou seu programa de checagem de fatos, e mudanças nas APIs do X e da Meta tornaram mais difícil acompanhar a disseminação desses conteúdos, como alerta Heloisa. “As big techs estavam sob uma pressão de leis. Só que agora a gente está vendo um movimento inverso”, lembra Osório.

Heloisa sugere mecanismos de combate mais focados na produção dos conteúdos do que na circulação, como regulações que exijam marcas d’água nos conteúdos gerados por IA. “Se você exige que todo o conteúdo criado por essas empresas carregue esse tipo de marca, isso facilita muito para que seja devidamente identificado um conteúdo que foi criado por inteligência artificial”.

A medida, já adotada pelos principais aplicativos de geração de imagens e vídeos, é unanimidade entre os pesquisadores, com o complemento de outros protocolos, que incluem o uso da própria inteligência artificial. O dono da Reality Defender afirma que por meio de uma IA treinada com material verdadeiro e sintético, é possível detectar mesmo deepfakes inéditos, sem marcas d’água ou autenticação prévia. “Para empresas e instituições, a detecção de deepfakes é absolutamente essencial”, afirma.

“O futuro aponta para um conjunto de medidas que sejam utilizadas em conjunto, como a criação de marcas d’águas, legislação, a utilização de ferramentas sofisticadas de detecção baseada em inteligência artificial”, afirma o professor Anderson.

Ainda assim, há brechas no sistema: “Existem várias ferramentas que já estão disponíveis e que não geram marca d’água”, alerta Osório. “No momento que você desregulamenta tudo isso, fica a questão: como evitar?”

“O acesso à informação de qualidade e factual é fundamental para uma sociedade democrática”, reforça Recuero. “É preciso que nós, enquanto sociedade, discutamos esses problemas e pensemos em que tipo de sociedade queremos ser e como essas ferramentas podem ser aliados e não riscos”, conclui.

(Imagem: Freepick)

Leia outras notícias no HojePR.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *