Deep Fakes: A Ameaça Silenciosa Que a Inteligência Artificial Revelou!

Deep Fakes: A Ameaça Silenciosa Que a Inteligência Artificial Revelou!

Em 2020, houve um caso de custódia dos filhos, onde a mãe apresentou como prova uma gravação de áudio onde o pai da criança falava muitas coisas violentas ao telefone.

Foi apresentado como prova legítima de que aquele pai não estava apto a cuidar do filho. Mas depois de algumas analises forenses digitais, ficou claro que a mãe havia usado um tutorial online e algum software barato para alterar o arquivo de áudio e adicionar palavras falsas violentas.

A medida que as tecnologias de deep fakes melhoram, elas permitem que as pessoas criem evidências falsas extremamente convincentes, e isso é preocupante. Mas pior que isso, permitem que as pessoas descartem evidencias reais, e nos leva ao ponto de não poder confiar em nada.

A maioria dos juízes e jurados não estão preparados para isso, a maioria nunca pensaria em questionar uma evidência como essa que soam como verídicas e na verdade são totalmente falsas.

A cada dia que passa esse tipo de tecnologia está se tornando muito acessível e fácil de usar.

Imagine que você faz parte de um júri, e mesmo que não haja nenhuma evidência manipulada na sua frente, haverá sempre uma voz irritante, no fundo da sua mente que diz "será que essas evidências também são falsas?" 🤔

A evidência visual não será mais tão solida como antes, imagens de segurança, imagens de câmeras corporais ou até mesmo um áudio retirado de uma conversa de um candidato presidencial. Tudo isso era solido em determinado momento, e agora, tudo deve ser questionado.

👾 Cyber Crime

E é claro que os deep fakes estão sendo muito usados para cometer o bom e velho crime cibernético.

Elon Musk foi recentemente falsificado para divulgar um novo golpe de cripto moedas, um site que prometia "ajudar pessoas comuns a terem sua tão sonhada independência financeira."

Era um deep fake muito mal feito, mas isso não impediu que diversas pessoas caíssem no golpe. O que eu quero dizer é ainda está muito no início, essas tecnologias ainda vão melhorar muito tornando esses golpes muito mais persuasivos.

Segundo uma afirmativa, 96% da produção de deep fakes é usada para produção de conteúdos pornograficos. Quase todos usam mulheres que não consentiram com isso. Há menos de dois anos, o Telegram teve problemas, porque foi descoberto que eles tinham grupos privados na plataforma que usavam deep fakes para "retirar" a roupa de mais de 100 mil mulheres.

Costumavam ser apenas rostos de celebridades, porque pode-se encontrar milhares de imagens na internet em alta qualidade o que facilita o treinamento dessas IA's que produzem esses deep fakes.

A tecnologia se desenvolveu de tal forma que uma pessoa comum com acesso a algumas fotos disponíveis em suas redes sociais, poderia facilmente, de repente ter seus rostos falsificados e inseridos no corpo de uma estrela porno.

✍️ Solução

Ok, mas o que tem sido feito sobre isso? O que pode ser feito para contornar essa situação?

Lembremo-nos que quando surge uma nova tecnologia, ela normalmente evolui rapidamente, muito mais rápido que os legisladores que precisam entende-la para regula-la, atualmente estamos na fase em que esses legisladores estão tentando entender como essas tecnologias funcionam.

Esperamos que o congresso consiga recuperar o atraso.

A China, é na verdade, o primeiro país a regulamentar o que chamam de "tecnologia de síntese profunda" exigindo que todo conteúdo deepfake seja claramente marcado como conteúdo modificado.

Felizmente, em um estado de vigilância total é muito mais fácil de regular esse tipo de coisa. Eles estão fazendo com que deep fakes sejam rotuladas como deep fakes.

Há também empresas de tecnologia como o YouTube que disseram que retirarão qualquer video que inclua uso enganosos de mídias manipuladas, ou seja, deep fakes que podem representar sérios riscos de danos.

Na minha opinião, seria interessante combater software com software. Se pudéssemos treinar um software para detectar as peculiaridades dos deep fakes, como um piscar não natural, ou algumas das outras coisas estranhas e sutis que não ficam perfeitas, que o olho humano não consegue captar, teríamos uma maneira forte de verificar o que é uma filmagem real e o que está distorcido.

Portanto, os deepfakes estão aqui e aparentemente vieram para ficar. Estamos entrando em um novo capítulo sobre como os humanos consomem e se relacionam com a informação.

É um capitulo muito significativo para mim, tão quanto outros capítulos, como quando aprendemos a capturar a luz e registra-la em câmeras fotográficas.

Isso mudou o mundo!

Fotografias poderiam ser usadas em tribunais como prova, na ciência para capturar e compreender o mundo que nos rodeia, no jornalismo, permitiu nos mostrar, e não apenas contar.

E quando fizemos essas imagens se moverem, pudemos capturar mais verdades, mais provas, mais evidencias. E então poderíamos nos conectar e espalhar essas imagens por toda parte.

Verdades e evidências percorreram a internet mundial. Está evolução da imagem em movimento e das suas utilizações no mundo conectado está prestes a tomar um rumo inesperado, deixando de ser a base da evidência rumo ao território nebuloso do engano e da confusão.

Teremos que navegar neste capitulo com muito cuidado, teremos que nos esforçar ainda mais para saber de onde vieram nossas imagens, quem as fez e com que propósito, e teremos, mais do que nunca, resistir ao impulso de acreditar em tudo que vemos por mais real que pareça.

👉 Se você chegou até aqui, muito obrigado pelo seu tempo, e se puder, assine nossa newsletter para não perder os proximos artigos. 😉



Entre para ver ou adicionar um comentário

Outros artigos de Mizael Xavier

Outras pessoas também visualizaram

Conferir tópicos