As deepfakes ainda são um problema pequeno, mas não é por isso que o Facebook está poupando esforços em pesquisas sobre essa tecnologia. A mais recente novidade é uma colaboração entre a empresa e a Universidade Estadual de Michigan (MSU), dos Estados Unidos, que visa criar um método que usa engenharia reversa para analisar as imagens geradas por inteligência artificial e revelar características de identificação do modelo de aprendizado de máquina que o criou.
Estudos anteriores nesta área já foram capazes de determinar qual modelo de inteligência artificial conhecido gerou determinado deepfake, contudo, este trabalho, que é liderado pelo professor Vishal Asnani da MSU, vai além ao indicar as características arquitetônicas de modelos ainda desconhecidos. Estes traços, que são chamados de hiperparâmetros, devem ser ajustados em cada modelo de aprendizado de máquina.
Este trabalho pode ser bastante útil, já que pode auxiliar o Facebook no rastreamento de malfeitores que espalham deepfakes tanto no Facebook quanto no Instagram, um tipo de conteúdo que pode conter desinformação ou fraudes que visem atacar contra a dignidade ou a reputação de alguém. No momento, o projeto ainda é bastante embrionário e está em fase de pesquisa, bem longe de estar pronto para ser implantado.
Como fazer o rastreamento?
Esses modelos acabam deixando uma espécie de impressão digital na imagem final, que pode ser usada para identificar a origem do material. Essa identificação é importante porque o software que produz os deepfakes é altamente personalizável, o que permite que potenciais criminosos possam encobrir seus rastros se os investigadores estiverem no seu encalço.
“Vamos supor que um mau ator está gerando muitos deepfakes diferentes e os carrega em diferentes plataformas para diferentes usuários”, disse o líder de pesquisa do Facebook, Tal Hassner, ao The Verge. “Se este é um novo modelo de IA que ninguém viu antes, então há muito pouco que poderíamos ter dito sobre ele no passado”, prosseguiu.
“Agora, podemos dizer: ‘Olha, a imagem que foi carregada aqui, a foto que foi carregada ali, todas vieram do mesmo modelo. ’ E se pudéssemos apreender o computador que foi usado para gerar o conteúdo, poderíamos dizer: ‘Este é o culpado’ “.
A lógica do projeto é semelhante a técnicas forenses que são usadas para identificar qual modelo de câmera foi utilizado para tirar uma foto, já que faz uma varredura por padrões, padrões na imagem resultante. “Mas nem todo mundo pode criar sua própria câmera”, diz ele. “Considerando que qualquer pessoa com uma quantidade razoável de experiência e computador padrão pode programar seu próprio modelo que gera deepfakes”.
Total de 359 visualizações