Deepfakes e fake news: guia para distinguir notícias verdadeiras de conteúdos falsos
Cada vez mais acessíveis, as apps e os serviços de inteligência artificial generativa têm feito disparar o fenómeno das notícias e dos vídeos falsos, destinados a denegrir, mudar opiniões, burlar ou ganhar dinheiro com a monetização de conteúdos. Como reconhecer a verdade e a mentira?

O chamado teste do pato apela a uma aparente lógica formal. Se parece um pato, nada como um pato e grasna como um pato, provavelmente, é um pato. Mas, graças às ferramentas de inteligência artificial generativa, o pato que vemos numa imagem pode muito bem ter começado por ser um ganso ou outra ave à escolha. Parece um legítimo pato, e até pode nadar e grasnar como tal, mas não o é realmente.
Muito confuso? Imagine que o jornalista que se habituou a ver do outro lado do ecrã, em vez de transmitir as normais notícias do telejornal, difunde uma mensagem falsa que condiciona a perceção da opinião pública. Ou que o leva a investir em esquemas financeiros obscuros. Podem parecer cenários pouco prováveis, mas qualquer deles já sucedeu.
Estas fraudes têm disparado com a proliferação de apps ou serviços baseados em inteligência artificial generativa, que permitem modificar digitalmente fotografias e vídeos. Algumas falsificações são grosseiras e óbvias, outras envolvem grafismo e construção gramatical muito convincentes, o que as torna bastante perigosas. Mas, apesar de algumas falsificações serem credíveis, por vezes, aceitamos aquilo que confirma os nossos preconceitos ou desejos. Nunca o sentido crítico e o jornalismo de verificação de factos foram tão necessários.
Deepfake e fake news: qual a diferença?
No Brasil, durante a campanha eleitoral de 2022, um vídeo do Jornal Nacional, da rede Globo, foi adulterado para fazer crer que a pivô Renata Vasconcellos anunciava que os resultados das sondagens posicionavam o ainda presidente, Jair Bolsonaro, muito à frente do candidato Lula da Silva. Não só a voz da jornalista foi clonada, como as imagens sofreram uma intervenção fraudulenta, com a introdução de legendas propagandísticas e de gráficos que atribuíam 44% das intenções de voto a Bolsonaro e 32% a Lula. A sondagem do instituto brasileiro Inteligência em Pesquisa e Consultoria Estratégia (IPEC) de agosto de 2022 indicava estes valores, mas ao contrário, com Lula à frente. O falso vídeo foi partilhado maciçamente no WhatsApp, no Twitter e no YouTube.
No Brasil, durante as eleições presidenciais de 2022, um vídeo do Jornal Nacional, da Globo, foi adulterado e divulgado nas redes sociais, para transmitir a ideia de que Jair Bolsonaro ia à frente nas sondagens.
Em Portugal, o jornalista Pedro Andersson, conhecido graças ao programa de investimentos Contas-Poupança, da SIC, foi também vítima da "indústria fake". Imagens da sua participação no programa Casa Feliz, do mesmo canal televisivo, foram usadas para criar notícias que referiam ter Pedro Andersson aconselhado uma plataforma de investimento em criptomoedas, onde, com um capital modesto, se poderia chegar a opulentas fortunas. Tratava-se, evidentemente, de uma burla.
Em Portugal, alguns frames (imagens estáticas) da participação de Pedro Andersson no programa Casa Feliz, da SIC, foram usados para construir notícias falsas em que o jornalista aparecia a aconselhar o investimento num esquema obscuro de criptomoedas.
O caso brasileiro corresponde a um deepfake, técnica que consiste em manipular vídeos para obter ganhos. E estes ganhos podem consistir em burlas, danos à imagem de uma pessoa ou entidade, manipulação de opiniões e crenças ou "apenas" a criação de uma notícia bombástica, que gere muito tráfego e que possa ser monetizada com anúncios publicitários. A situação portuguesa, embora tecnicamente não seja considerada deepfake, por não envolver vídeo, não deixa de ser uma falsificação, uma fake news, que tem os mesmos objetivos.
Divulgar fotos nas redes sociais aumenta risco de fraude
Sobrepor e fundir elementos de uma imagem numa outra é o que propõem as apps de inteligência artificial generativa. Permitem, na prática, inserir um rosto sobre um dado conteúdo, clonar vozes, e pôr uma pessoa a dizer aquilo que nunca disse ou diria.
O recurso à imagem de pessoas famosas não se justifica apenas com o seu poder de influência ou com a vontade de atingir a sua honorabilidade, mas também por terem mais fotos e vídeos online. Ou seja, quanto mais variações das expressões faciais estiverem disponíveis para combinar, mais realistas poderão ser as falsificações.
Dito isto, muitos de nós, comuns mortais, também mantemos um grande volume de imagens nas redes sociais. A alguém que nos queira atingir, basta aceder a esse acervo de conteúdos, descarregar uma app gratuita – opções não faltam – e produzir um vídeo manipulado. Tutoriais tão-pouco faltam. Depois, é só disseminar e esperar que o dano ocorra. Portanto, pense duas vezes antes de partilhar imagens suas ou da sua família.
Por enquanto, os vídeos assim gerados têm inúmeras lacunas. Mas os especialistas alertam que, à medida que se tornarem mais sofisticadas, estas ferramentas podem ser usadas para iludir sistemas de reconhecimento facial, autorizar transações financeiras ou aceder a informação sensível (por exemplo, industrial). Apesar disso, há algo que não pode ser ignorado. Os vídeos falsos são divulgados sobretudo nas redes sociais, visualizados em dispositivos móveis, com ecrãs reduzidos, que mascaram muitos defeitos, e onde, em média, o tempo despendido numa análise crítica é diminuto. Assim, quem desliza rápida e distraidamente no seu feed de notícias pode assumi-los como verdadeiros.
Antes de partilhar estes conteúdos, verifique a sua origem, mesmo que tenham sido enviados por familiares ou amigos. Vêm de uma plataforma fidedigna? Fazem propostas boas demais para serem verdade, como enriquecer rapidamente? Procure a notícia ou o vídeo no site de jornais de referência.
Também pode pesquisar uma imagem concreta, para averiguar se foi, no todo ou em parte, usada noutro contexto. Pode recorrer ao Google Images, ferramenta online que busca dentro de uma base de dados gigante. O reconhecimento facial, por exemplo, é muito eficaz.
Dicas para reconhecer uma foto falsificada
Alguns elementos podem ser cruciais para identificar uma imagem adulterada.
Reflexos e sombras: procure incoerências
Os reflexos em óculos e nos olhos, assim como as sombras de pessoas ou objetos, são pontos fracos destes algoritmos. Podem ficar com uma posição ilógica, quando são combinados elementos de várias fotos.
Mãos e orelhas: veja a proporção e o formato
Mãos e orelhas são difíceis de recriar de forma realista por estes sistemas. A proporção e o formato podem surgir errados. Por vezes, nem o número de dedos coincide...
Mãos, braços e pernas: analise a posição
A combinação de porções de várias imagens pode levar a posições pouco naturais de mãos, braços e pernas, ou até do pescoço.
Profundidade de campo: verifique a focagem
Nas fotos com planos fechados, veja se pessoas ou objetos próximos estão no mesmo campo de focagem. Não podem existir dois objetos a distâncias idênticas, e um estar focado e o outro não.
Como identificar um vídeo manipulado
Os vídeos gerados por inteligência artificial ainda têm inúmeras falhas. Basta estar atento a alguns sinais para reconhecer a maioria das falsificações.
Pessoa muito estática
A composição típica dos vídeos deepfake corresponde a um indivíduo a olhar de frente para a câmara, com o corpo muito estático e poucos movimentos de cabeça.
Atenção aos olhos e aos lábios
Além de frequentes problemas de sincronização entre os lábios e a voz, estes algoritmos evidenciam uma desarmonia na posição da boca e dos olhos enquanto as pessoas falam.
Pele do rosto com tonalidade diferente do resto do corpo
No corta-e-cola das imagens, o rosto, o pescoço e outras partes do corpo podem assumir tonalidades diferentes ou até uma textura que não é compatível com a idade da pessoa.
Discurso monocórdico e sem pausas
Quando as falas são manipuladas, por vezes, tornam-se monocórdicas. A ausência de pausas para respirar entre frases contribui para um resultado pouco realista.
Iluminação do ambiente pouco natural
É frequente os sistemas de inteligência artificial falharem na representação realista da iluminação. Se a pessoa usar óculos, veja ainda se os reflexos acompanham os movimentos da cabeça.
Barba ou bigode com aparência artificial
Os algoritmos conseguem adicionar pelos faciais, mas nunca de forma realmente natural. Analisar a barba ou o bigode é outro truque para detetar falsificações.
O conteúdo deste artigo pode ser reproduzido para fins não-comerciais com o consentimento expresso da DECO PROTeste, com indicação da fonte e ligação para esta página. Ver Termos e Condições. |