Com imagens de origem suficientes, não é tão difícil de fazer Jordan Peele no presidente Obama, Jimmy Fallon em John Oliverou Jon Snow como porta-voz dos fãs decepcionados de Game of Thrones. No início, capturar deepfakes não era muito difícil – até os melhores tinham brindes visuais como desfoque, distorção e diferenças faciais estranhas que os faziam parecer "desligados".
É um jogo de gato e rato e parece que, assim que aprendemos um método para detectar os deepfakes, a próxima geração corrige a falha. Para combater isso, existem soluções confiáveis para descobrir quais vídeos estão tentando nos enganar?
Pistas visuais
Artefatos não são apenas coisas que Indiana Jones coloca em museus – elas também são pequenas aberrações deixadas para trás depois que uma imagem ou vídeo foi manipulada. No início dos deepfakes, eles podem ser capturados com o olho humano e os deepfakes ruins ainda podem ter alguns sinais de alerta, como embaçar as bordas, um rosto com excesso de suavidade, sobrancelhas duplas, falhas ou uma sensação geralmente "não natural" de como o rosto se encaixa .
Na maioria das vezes, porém, as técnicas foram aprimoradas até o ponto em que esses artefatos são visíveis apenas para outros algoritmos que vasculham os dados do vídeo e examinam coisas no nível de pixel. Alguns deles podem ser bem criativos, como uma técnica que verifica se a direção do nariz corresponde à direção do rosto. A diferença é sutil demais para os humanos perceberem, mas as máquinas acabam sendo ótimas nisso.
Pistas biométricas
Por um tempo, pareceu que a chave para desmascarar os deepfakes era a falta de padrões naturais de piscar, graças à relativa escassez de imagens de origem "de olhos fechados". Porém, não demorou muito para a próxima geração da tecnologia deepfake incorporar um piscar melhor, reduzindo rapidamente a eficácia dessa técnica.
Outros indicadores biométricos ainda não foram completamente decifrados, como peculiaridades individuais que os algoritmos não podem facilmente automatizar em um deepfake porque exigem alguma compreensão contextual da linguagem usada. Pequenos hábitos, como piscar rapidamente quando você está surpreso ou levantar as sobrancelhas quando você faz uma pergunta, podem ser usados e usados com muita força, mas não necessariamente nos momentos certos, pois eles ainda não podem (ainda) descobrir automaticamente quando implantar esses movimentos.
A IA capaz de ler batimentos cardíacos usando imagens de vídeo tem muitos aplicativos além da detecção do deepfake, mas procurar movimentos periódicos e mudanças de cor que sinalizem a freqüência cardíaca pode ajudar a identificar impostores gerados por IA. A oferta mais óbvia é quando um deepfake não tem batimentos cardíacos, mas os deepfakes geralmente têm pulsos. Mesmo assim, irregularidades (como diferentes partes do rosto que exibem diferentes batimentos cardíacos) ainda podem ajudar a identificar uma falha profunda.
Projetos de IA
Muitos grandes nomes estão muito interessados em resolver o problema do deepfake. Facebook, Google, MIT, Oxford, Berkeley e muitas outras startups e pesquisadores estão enfrentando esse problema treinando inteligência artificial para detectar vídeos falsificados usando os métodos listados acima, entre outros.
Uma coisa que ambos Facebook e Google está trabalhando na criação de um conjunto de dados de vídeos de alta qualidade de atores fazendo as coisas, que eles usam para criar deepfakes. A IA treinada nisso pode descobrir quais são os sinais reveladores de deepfakes e ser encarregada de detectá-los.
Obviamente, isso só funciona enquanto os pesquisadores continuarem a gerar deepfakes usando a tecnologia mais atualizada, o que significa que sempre haverá um pouco de atraso entre os mais novos truques do deepfake que estão sendo descobertos e esses algoritmos capazes de detectá-los. Com alguma sorte, porém, os experimentos usando ratos reais para identificar falhas profundas vai dar certo e nos dar uma vantagem.
Autenticação
As tecnologias de detecção não são a resposta completa para os deepfakes, pois provavelmente nunca terão uma taxa de sucesso de 100%. Os deepfakes que tiveram tempo e dinheiro investidos neles provavelmente poderiam passar por muitos testes de detecção e métodos atuais de IA. E vamos lembrar como a Internet funciona: mesmo que essas falsificações sejam detectadas, elas provavelmente serão recirculadas e acreditadas por alguns subconjuntos de pessoas.
É por isso que também é importante ter alguma forma de mecanismo de verificação – alguma prova de qual vídeo é o original ou algo que pode indicar se um vídeo foi modificado. É disso que as empresas gostam Factom, Ambervideoe Axioma estão codificando dados sobre vídeos em cadeias de bloqueio imutáveis.
A idéia básica por trás de muitos desses projetos é que os dados contidos em um arquivo de vídeo ou gerados por uma determinada câmera podem ser usados para gerar uma assinatura exclusiva que será alterada se o vídeo for violado. Eventualmente, os vídeos enviados para as mídias sociais podem vir com uma opção para gerar um código de autenticação que o remetente original pode registrar em uma blockchain para provar que eles são os proprietários originais do vídeo.
Essas soluções têm seu próprio conjunto de problemas, é claro, como codificações de vídeo alterando os dados no arquivo e alterando a assinatura sem que o conteúdo do vídeo realmente seja alterado ou edição de vídeo legítima que atrapalhe a assinatura. Porém, em situações de alto risco, como transações comerciais em que as imagens são usadas para verificar a entrega ou obter suporte do investidor, ter uma camada de autenticação como essa pode ajudar a evitar fraudes relacionadas ao deepfake.
Os deepfakes são mais perigosos que o Photoshop?
Nesse ponto, todos assumimos que as imagens podem não ser reais, porque estamos plenamente conscientes de que a tecnologia existe para fazer quase tudo parecer real em uma imagem parada. Eventualmente, podemos começar a abordar vídeos com o mesmo tipo de ceticismo, pois fingi-los se torna tão fácil e convincente quanto o Photoshop atualmente faz a edição de imagens. Mesmo com conhecimento geral, é fácil imaginar muitos incidentes da vida real começando com um deepfake oportuno e de alta qualidade em um futuro não muito distante.
Créditos de imagem: Google / FaceForensics, Facebook AI, Ambervideo
Este artigo é útil?