Há uma corrida armamentista crescente entre “imagens deepfake” de Inteligência Artificial (IA) e os métodos usados para detectá-las. O mais recente avanço no lado da detecção vem da astronomia. Os métodos intrincados usados para dissecar e entender a luz em imagens astronômicas podem ser aplicados em deepfakes.
A palavra “deepfakes” é uma junção de “deep learning” e “fakes”. Imagens deepfakes são chamadas assim porque são feitas com um certo tipo de IA chamado “deep learning“, que por si só é um subconjunto do machine learning.
A IA de deep learning pode imitar algo muito bem depois de ter mostrado muitos exemplos do que está sendo solicitado a falsificar. Quando se trata de imagens, deepfakes geralmente envolvem a substituição do rosto existente em uma imagem pelo rosto de uma segunda pessoa para fazer parecer que outra pessoa está em um determinado lugar, na companhia de certas pessoas ou envolvida em certas atividades.
Deepfakes estão ficando cada vez melhores, assim como outras formas de IA. Mas, como se vê, uma nova ferramenta para descobrir deepfakes já existe na astronomia. Astronomia é tudo sobre luz, e a ciência de extrair detalhes minuciosos na luz de objetos extremamente distantes e intrigantes está se desenvolvendo tão rapidamente quanto a IA.
Em um novo artigo na Nature, a jornalista científica Sarah Wild analisou como os pesquisadores estão usando métodos astronômicos para descobrir deepfakes.
Adejumoke Owolabi é uma estudante da Universidade de Hull, no Reino Unido, que estuda ciência de dados e visão computacional. Sua tese de mestrado focou em como a luz refletida nos globos oculares deve ser consistente, embora não idêntica, entre a esquerda e a direita. Owolabi usou um conjunto de dados de alta qualidade de rostos humanos do Flickr e, em seguida, usou um gerador de imagens para criar rostos falsos. Ela então comparou os dois usando dois sistemas de medição astronômicos diferentes chamados sistema CAS e índice de Gini para comparar a luz refletida nos globos oculares e determinar quais eram deepfakes.
CAS significa concentração, assimetria e suavidade, e os astrônomos o usam há décadas para estudar e quantificar a luz de estrelas extragalácticas. Também é usado para quantificar a luz de galáxias inteiras e chegou à biologia e outras áreas onde as imagens precisam ser cuidadosamente examinadas. O famoso astrofísico Christopher J. Conselice foi um dos principais proponentes do uso do CAS na astronomia.
O índice de Gini, ou coeficiente de Gini, também é usado para estudar galáxias. Ele recebeu esse nome em homenagem ao estatístico italiano Corrado Gini, que o desenvolveu em 1912 para medir a desigualdade de renda. Os astrônomos o usam para medir como a luz é espalhada por uma galáxia e se ela é uniforme ou concentrada. É uma ferramenta que ajuda os astrônomos a determinar a morfologia e a classificação de uma galáxia.
Em sua pesquisa, Owolabi conseguiu determinar com sucesso quais imagens eram falsas 70% das vezes.

Para seu artigo, Wild falou com Kevin Pimbblet, diretor do Centre of Excellence for Data Science, Artificial Intelligence and Modelling da University of Hull, no Reino Unido. Pimblett apresentou a pesquisa no UK Royal Astronomical Society’s National Astronomy Meeting em 15 de julho.
“Não é uma bala de prata, porque temos falsos positivos e falsos negativos”, disse Pimbblet. “Mas esta pesquisa fornece um método potencial, um caminho importante a seguir, talvez para adicionar à bateria de testes que se pode aplicar para tentar descobrir se uma imagem é real ou falsa.”
Este é um desenvolvimento promissor. Sociedades democráticas abertas são propensas a ataques de desinformação de inimigos de fora e de dentro. Figuras públicas são propensas a ataques semelhantes. Perturbadoramente, a maioria dos deepfakes são pornográficos e podem retratar figuras públicas em situações privadas e às vezes degradantes. Qualquer coisa que possa ajudar a combatê-lo e fortalecer a sociedade civil é uma ferramenta bem-vinda.
Mas como sabemos pela história, as corridas armamentistas não têm ponto final. Elas continuam e continuam em uma série crescente de contramedidas. Veja como os EUA e a URSS continuaram superando um ao outro durante sua corrida armamentista nuclear, à medida que os tamanhos das ogivas atingiam níveis absurdos de poder destrutivo. Então, na medida em que esse trabalho se mostra promissor, os fornecedores de deepfakes aprenderão com ele e melhorarão seus métodos de deepfake de IA.
Wild também falou com Brant Robertson em seu artigo. Robertson é um astrofísico na Universidade da Califórnia, Santa Cruz, que estuda astrofísica e astronomia, incluindo big data e aprendizado de máquina. “No entanto, se você puder calcular uma métrica que quantifique o quão realista uma imagem deepfake pode parecer, você também pode treinar o modelo de IA para produzir deepfakes ainda melhores otimizando essa métrica”, disse ele, confirmando o que muitos podem prever.
Esta não é a primeira vez que métodos astronômicos se cruzam com questões terrestres. Quando o Telescópio Espacial Hubble foi desenvolvido, ele continha um poderoso CCD (dispositivo de carga acoplada). Essa tecnologia chegou a um sistema de biópsia de mamografia digital. O sistema permitiu que os médicos tirassem melhores imagens do tecido mamário e identificassem tecidos suspeitos sem uma biópsia física. Agora, os CCDs estão no coração de todas as nossas câmeras digitais, incluindo em nossos telefones celulares.
Será que nossos navegadores de internet um dia conterão um detector de deepfake baseado em Gini e CAS? Como isso funcionaria? Atores hostis desencadeariam ataques a esses detectores e então inundariam nossa mídia com imagens de deepfake em uma tentativa de enfraquecer nossas sociedades democráticas? É a natureza de uma corrida armamentista.
Também está em nossa natureza usar o engano para influenciar eventos. A história mostra que governantes com intenções malévolas podem enganar mais facilmente populações que estão sob o domínio de emoções poderosas. Deepfakes de IA são apenas a mais nova ferramenta à disposição deles.Todos nós sabemos que a IA tem desvantagens, e os deepfakes são uma delas. Embora sua legalidade seja confusa, como acontece com muitas novas tecnologias, estamos começando a ver esforços para combatê-los. O governo dos Estados Unidos reconhece o problema, e várias leis foram propostas para lidar com ele.
O “DEEPFAKES Accountability Act” foi introduzido na Câmara dos Representantes dos EUA em setembro de 2023. O “Protecting Consumers from Deceptive AI Act” é outra proposta relacionada. Ambos estão se debatendo no mundo às vezes obscuro dos subcomitês por enquanto, mas podem romper a superfície e se tornar lei eventualmente. Outros países e a UE estão lutando com o mesmo problema.
Mas na ausência de uma estrutura legal abrangente que trate de deepfakes de IA, e mesmo depois que uma for estabelecida, a detecção ainda é fundamental.
A astronomia e a astrofísica podem ser aliadas improváveis no combate a eles.