Como identificar um vídeo com "Falsificação profunda"

Índice:

Como identificar um vídeo com "Falsificação profunda"
Como identificar um vídeo com "Falsificação profunda"

Vídeo: Como identificar um vídeo com "Falsificação profunda"

Vídeo: Como identificar um vídeo com
Vídeo: What is Windows SysInternals | How to use Windows SysInternals tools | what is sysinternals - YouTube 2024, Maio
Anonim
Recentemente, o Reddit vem fazendo notícias novamente com um subreddit em que as pessoas usam uma ferramenta de aprendizado de máquina chamada “Deep Fake” para substituir automaticamente o rosto de uma pessoa por outra em um vídeo. Obviamente, uma vez que esta é a internet, as pessoas estão usando para duas coisas: falso pornô de celebridades e inserindo Nicolas Cage em filmes aleatórios.
Recentemente, o Reddit vem fazendo notícias novamente com um subreddit em que as pessoas usam uma ferramenta de aprendizado de máquina chamada “Deep Fake” para substituir automaticamente o rosto de uma pessoa por outra em um vídeo. Obviamente, uma vez que esta é a internet, as pessoas estão usando para duas coisas: falso pornô de celebridades e inserindo Nicolas Cage em filmes aleatórios.

Embora a troca do rosto de alguém em uma fotografia sempre tenha sido relativamente fácil, trocar o rosto de alguém em um vídeo costumava ser demorado e difícil. Até agora, os estúdios de efeitos visuais acabam de ser feitos principalmente para filmes de grande orçamento de Hollywood, em que o rosto de um ator é trocado por um dublê. Mas agora, com o Deep Fake, qualquer pessoa com um computador pode fazer isso de maneira rápida e automática.

Antes de prosseguir, você precisa saber como é um Deep Fake. Confira abaixo o vídeo do SFW que é uma compilação de diferentes trocas de celebridades, envolvendo principalmente Nic Cage.

O software Deep Fake funciona usando aprendizado de máquina. É primeiro treinado com um alvo. Imagens distorcidas do alvo são executadas através do algoritmo e aprende como corrigi-las para se assemelhar à face do alvo inalterada. Quando o algoritmo é alimentado com imagens de uma pessoa diferente, ele supõe que elas são imagens distorcidas do alvo e tenta corrigi-las. Para obter vídeo, o software Deep Fake opera em cada quadro individualmente.

A razão pela qual os Deep Fakes envolveram os atores em grande parte é que há muitas filmagens disponíveis de diferentes ângulos, o que torna o treinamento mais eficaz (Nicolas Cage tem 91 créditos de atuação no IMDB). No entanto, dada a quantidade de fotos e pessoas de vídeo publicadas on-line e que você realmente precisa de apenas 500 imagens para treinar o algoritmo, não há motivos para que as pessoas comuns também não sejam segmentadas, embora provavelmente com um pouco menos de sucesso.

Como identificar um falso profundo

No momento, os Deep Fakes são muito fáceis de detectar, mas ficará mais difícil à medida que a tecnologia melhorar. Aqui estão alguns dos brindes.

Faces estranhas. Em muitos Deep Fakes, os rostos parecem esquisitos. Os recursos não se alinham perfeitamente e tudo parece um pouco ceroso, como na imagem abaixo. Se tudo parece normal, mas o rosto parece estranho, é provavelmente um Deep Fake.

Image
Image

Cintilação. Uma característica comum dos vídeos ruins do Deep Fake é o rosto parecer trêmulo e os recursos originais aparecerem ocasionalmente. Normalmente é mais óbvio nas bordas do rosto ou quando algo passa na frente dele. Se estranhas cintilações acontecerem, você está procurando um Deep Fake.

Corpos Diferentes. Deep Fakes são apenas trocas de rosto. A maioria das pessoas tenta obter uma boa correspondência corporal, mas nem sempre é possível. Se a pessoa parece ser visivelmente mais pesada, mais leve, mais alta, mais baixa ou tem tatuagens que não tem na vida real (ou que não tem tatuagens na vida real), há uma boa chance de ser falsa. Você pode ver um exemplo muito óbvio abaixo, em que o rosto de Patrick Stewart foi trocado por J.K. Simmons em uma cena do filme Whiplash. Simmons é significativamente menor que Stewart, então parece estranho.

Image
Image

Clipes curtos. No momento, mesmo quando o software Deep Fake funciona perfeitamente e cria uma troca de rosto quase indistinguível, ele só pode realmente fazê-lo por um curto período de tempo. Em pouco tempo, um dos problemas acima começará a acontecer. É por isso que a maioria dos clipes do Deep Fake que as pessoas compartilham têm apenas alguns segundos de duração, o restante da gravação é inutilizável. Se você vê um clipe muito curto de uma celebridade fazendo algo, e não há uma boa razão para que seja tão curta, é um indício de que é um Deep Fake.

Sem som ou sincronização de lábios ruins. O software Deep Fake ajusta apenas os recursos faciais; não faz magicamente uma pessoa soar como outra. Se não há som com o clipe, e não há motivo para que não seja som, é outra pista de que você está procurando um Deep Fake. Da mesma forma, mesmo se houver som, se as palavras faladas não corresponderem corretamente aos lábios em movimento (ou se os lábios parecerem estranhos enquanto a pessoa fala como no clipe abaixo), você pode ter um Fake Profundo.

Clipes Inacreditáveis. Este tipo de coisa é óbvio, mas, se você tiver um clipe realmente inacreditável, há uma boa chance de que você não acredite nisso. Nicolas Cage nunca atuou como Loki em um filme da Marvel. Isso seria legal, no entanto.

Fontes duvidosas. Como com fotos falsas, onde o vídeo supostamente vem é muitas vezes uma grande pista quanto à sua autenticidade. Se o New York Times está publicando uma matéria sobre isso, é muito mais provável que seja algo que você descubra em um canto aleatório do Reddit.

Por enquanto, Deep Fakes são mais uma curiosidade horrível do que um grande problema. Os resultados são fáceis de identificar e, embora seja impossível tolerar o que está sendo feito, ninguém está tentando transmitir o Google Deep Fakes como um vídeo genuíno.

À medida que a tecnologia melhora, no entanto, eles provavelmente serão um problema muito maior. Por exemplo, imagens falsas e convincentes de Kim Jong Un declarando guerra aos EUA podem causar um grande pânico.

Recomendado: