Falsos discursos da rainha inglesa Elizabeth II e de funcionários do Estado, mensagens de serviço fabricadas, filmes pornográficos usando imagens de estrelas de Hollywood – essas são algumas das aplicações da técnica de processamento de imagens comumente conhecida como Deepfake. Também é usado para lançar ataques relacionados à compra de vales-presente – houve um aumento de 820% no número desses ataques desde o início da pandemia de coronavírus.
Os especialistas da Eset alertam que os vídeos criados atualmente são difíceis de distinguir dos originais, e os cibercriminosos certamente usarão técnicas aprimoradas para atacar empresas e indivíduos.
O que é deepfake?
Deepfake é um método de processamento de imagem que usa inteligência artificial e aprendizado de máquina para sobrepor imagens em movimento e estáticas sobre as imagens ou vídeos de origem. Como resultado, por exemplo, filmes podem ser criados com a participação de qualquer pessoa que não tenha nada a ver com a gravação, e os espectadores não poderão distinguir a gravação original de uma falsa.
Os materiais criados com o uso desta tecnologia podem ser de vários tipos. Também positivo, por exemplo divertido ou educativo – na forma de um encontro “ao vivo” e conversas com Salvador Dali como parte de uma exposição multimídia. No entanto, também podem assumir uma forma negativa, incluindo desinformação (criação de notícias falsas), ou mesmo descrédito, cujo objetivo é ridicularizar ou atacar figuras públicas, instituições e até estados.
Recentemente, as técnicas de deepfake ganharam reconhecimento entre os criadores da série “Mandalorian”. Um dos internautas em seu canal no YouTube publicou cenas da série que ele aperfeiçoou, mostrando o rejuvenescido Mark Hamill no papel de Luke Skywalker, que teve uma resposta positiva dos criadores da série e dos fãs do universo. Infelizmente, grande parte da atividade que usa materiais deepfake não é tão positiva. A tecnologia atual e as possibilidades da inteligência artificial possibilitam a criação de filmes com tanta credibilidade que se tornarão a próxima arma para os cibercriminosos.
Nos últimos anos, a tecnologia deepfake se desenvolveu a tal ponto que agora é cada vez mais difícil dizer se é um vídeo fabricado ou uma gravação real de pessoas reais. Exemplos incluem o filme com a mensagem de Elizabeth II ou o material apresentando o discurso de Barack Obama, que foi rapidamente publicado em diversos sites. O vídeo com uma declaração do ex-presidente dos Estados Unidos era sobre as ameaças representadas pela desinformação e notícias falsas publicadas na internet. No material publicado pelo canal BuzzFeedVideos, a voz do 44º presidente dos Estados Unidos foi o diretor e ator americano Jordan Peele. Atualmente, no entanto, a inteligência artificial é capaz de gerar uma voz com base nas declarações de arquivo da pessoa que aparecerá no filme falso.
– Essa tecnologia avançada pode se tornar uma ferramenta perigosa nas mãos de cibercriminosos e fraudadores da Internet no futuro. A publicação de vídeos de supostos discursos de políticos importantes pode causar danos reais no nível político internacional. Esses filmes deepfake podem contribuir para conflitos e escândalos diplomáticos e, assim, influenciar a opinião e o comportamento do público. Vídeos de deepfake publicados durante as campanhas eleitorais podem, por sua vez, se traduzir em resultados eleitorais – disse Kamil Sadkowski, especialista sênior em segurança cibernética da Eset.
Filmes pornográficos de celebridades falsos
O material pornográfico sempre gerou mais tráfego no espaço virtual. Não é de admirar que a tecnologia deepfake tenha chegado a essa esfera de atividade da Internet tão rapidamente. De acordo com um relatório da empresa holandesa de segurança cibernética Deeptrace, até 96% dos vídeos fabricados com o uso da tecnologia deepfake são conteúdo pornográfico. Na maioria das vezes, as imagens de estrelas de cinema, esportistas e até representantes do governo são usadas para produzir esse tipo de material.
Boletim WirtualneMedia.pl em sua caixa de entrada de e-mail
Atrizes americanas populares como Scarlet Johansson, Gal Gadot, Natalie Dormer e Jennifer Lawrence estão entre as vítimas de filmes pornográficos fabricados nos últimos anos.
Embora muitos sites, como o Reddit, estejam tentando eliminar esse tipo de conteúdo e desde 2018 o site remove todos os novos vídeos e fotos, ainda existem imagens falsas que são muito difíceis de remover da zona virtual.
– Embora tais fotos sejam falsificadas e distantes da realidade, ainda podem ser usadas, por exemplo, para chantagem ou agressão a outra pessoa – diz Sadkowski.
Cibercriminosos usam deepfake
A tecnologia que permite criar uma imagem maliciosa, gravação de áudio ou filme cujos personagens são confusamente semelhantes a outras pessoas é uma chance para um novo nível de ameaças dos cibercriminosos. Especialmente tendo em vista o fato de que nas mídias sociais eles podem extrair recursos virtualmente ilimitados de material de origem para criar deepfakes.
O software de aprendizado de máquina pode pesquisar no Facebook ou no Instagram, por exemplo, e capturar fotos ou vídeos interessantes de possíveis “atores”. Com base nisso, pode criar uma voz, imagem e filme muito claros com a participação de uma determinada pessoa, mas com uma comunicação falsa especialmente elaborada, imitando, por exemplo, estar em sérios apuros – como vítima de sequestro ou acidente. Na etapa seguinte, é gerado um falso pedido de ajuda, por exemplo, financeiro, dirigido aos seus familiares, ou seja, às vítimas do atentado.
No caso de ataques a empresas, a tecnologia deepfake permite a criação de chamadas telefônicas falsas muito realistas nas quais o supervisor pede, por exemplo, para fazer uma transferência. Dessa forma, em 2019, os criminosos extorquiram 243 mil. dólares de uma das empresas britânicas de energia.
Outro tipo é o ataque de bots especiais usando cartões-presente. Na prática, parece que um bot que se faz passar pelo chefe instrui o funcionário a pedir determinados cartões-presente. Durante a conferência Black Hat USA 2021, o Dr. Matthew Canham, professor de cibersegurança do Institute of Simulation and Training, University of Central Florida, apresentou um estudo no qual afirmou que houve um aumento de 820% nesta prática desde a pandemia de Covid -19 pandemia.
-Com o desenvolvimento e uso cada vez mais comum da tecnologia deepfake, a eficácia de ataques desse tipo pode aumentar drasticamente. Os exemplos até agora mostram que o deepfake entrou no arsenal dos cibercriminosos e será difícil se proteger contra ele. No entanto, existem formas de tentar se proteger desse tipo de ataque – acrescenta Sadkowski.
Como se proteger do deepfake?
A Eset recomenda tomar algumas medidas proativas para evitar fraudes de deepfake:
1. Crie uma palavra ou slogan secreto com seus entes queridos, como familiares ou colegas, que provará que a situação no filme ou na gravação é real. Isso permitirá que você verifique rapidamente o estado real de emergência e evite, por exemplo, extorquir dinheiro.
2. Acordar com parentes ou colegas um catálogo de atividades que nunca serão solicitadas através de uma mensagem, por exemplo, nas redes sociais ou SMS. É imperativo que todos os envolvidos sejam informados de toda a extensão desses efeitos indesejáveis.
3. Implementação de canais de autenticação multifator para verificar cada solicitação. Se a comunicação começar com uma mensagem de texto, a opção mais segura é confirmar a informação entrando em contato com o destinatário da mensagem em forma de conversa através de um canal de comunicação seguro e previamente acordado.
4. Melhoria contínua das competências no domínio da segurança, por exemplo, na forma de formação de pessoal em matéria de segurança e cibercrime. Aumentar a conscientização sobre o que é deepfake e como combater essa ameaça.
5. Apoio e desenvolvimento de sistemas de segurança em ambientes TIC.