IA cria vídeo a partir de foto de empresária brasileira para golpes do Pix
|

IA cria vídeo a partir de foto de empresária brasileira para golpes do Pix

E a gente sempre fala que no Olhar Digital News sobre cuidados com a Inteligência artificial e Vejam Só essa História criminosos usaram a foto de Perfil de uma empresária do Distrito Federal para criar um vídeo usando Inteligência artificial para promover um Esquema de pirâmide com pics agora a Polícia civil investiga o caso no vídeo Falso a empresária Gisele Mendes de 40 Anos falava que tinha ganho dinheiro por Meio do esquema fraudulento três Seguidores delas foram enganados pelo Vídeo falso e fizeram transferências de Valores de até R 1.000 e o conteúdo não Era narrado não as imagens realmente Exibiam a boca da mulher se mexendo e Reproduziam a sua voz enquanto ela dizia O que os golpistas queriam bom nós Pedimos autorização para usar o vídeo E Se tivermos um retorno nós vamos colocar No nosso site para vocês avaliarem e Terem esse conhecimento e sobre esse Assunto vamos conversar agora um Pouquinho ao vivo com Marcos Oliveira Que é especialista em cybersegurança Vamos lá deixa eu colocar o Marcos aqui Na nossa Tela olá Marcos Oliveira muito boa noite Bem-vindo ao olhar digital News muito boa noite Marisa Boa noite a Todos e obrigado pelo convite Marcos Vamos falar um pouquinho sobre esse caso Do vídeo porque quem viu o vídeo

Realmente ele é impressionante a Empresária fala até normalmente sobre Uma pirâmide e os criminosos que estavam Ali falando por trás como que funciona Essa tecnologia Marcos boa noite Marisa Bom os criminosos podem utilizar a Tecnologia Deep fake de várias maneiras Muitas muitas das quais podem ser Prejudiciais e Leais no entanto é Importante notar que o uso do DIP fake Para fins criminosos é uma violação de Lei em muitos países e e alguns desses Países eles eles podem eh resultarem em Sérias consequências já tem países com Lei aprovada que proíbe o uso disso isso Também se tornou muito acessível devido O o desenvolvimento de ferramentas Marisa e de software softwares Disponíveis gratuitamente pela internet No entanto para criar um Deep fake Altamente convincente como esse que você Mencionou no vídeo é realista ainda Requer conhecimentos técnicos hardwares Adequados e um bom investimento então é Uma coisa muito mais Sofisticada ou seja o software utilizado Não é um software tão facilmente Acessiva a qualquer um houve aí um Trabalho profissional por trás é isso Exatamente isso então eles e e vale a Pena dizer que com com a evolução da Tecnologia esses vídeos ficarão cada vez Mais mais realistas então nós realmente Precisamos agora redobrar o a nossa

Atenção perante a esses casos agora Falando desses vídeos não é Marcos Existe algum Elemento que fique nítido que é uma Deep Fake ou a tecnologia tá tão avançada que Fica difícil pro olhar comum identificar Alguma Coisa olha Marisa sim existe alum Existem existem formas da gente Identificar isso mas como isso tá se eh Se Massificando para um Público despreparado ele acaba ficando Ainda mais delicado mas sim existe Algumas algumas dicas que a gente pode Eh colocar uma delas é importante sempre Ver de qual lado o nariz está apontando Se os movimentos faciais estão normais Anormais eh se a falha de textura na Pele da pessoa se se existe alguma Distorção eh visual além desse vídeo que Que você tá falando existia um que saiu Na web que era uma era uma entrevista do Do Steve Jobs falando e você via que Tinha algo ainda mecânico então é sempre Temos que redobrar essa essa tensão com Relação à imagem saber se tem alguma Coisa que não que chama atenção que que Não faz sentido tá E principalmente Alguns movimentos incoerentes eles ainda Continuam deixando Alguma pista de que Parece que essa coisa tem alguma coisa De errada a pessoa não está totalmente Natural Então precisamos realmente

Redobrar a a nossa atenção eh vinculado A esses vídeos agora Marcos Tem como a Gente se defender porque na verdade ela Acabou sendo hackeada né ela a pessoa Acabou tendo a imagem dela hackeada ou Mesmo a voz Eh tem alguma forma da da das pessoas se Defenderem Disso então Marisa nós temos aqui um Desafio muito grande perante a evolução Tecnológica né então são aqueles aqueles Casos de higiene eh normal Como proteger A sua imagem hoje Eh proteger a imagem com relação que a Gente compartilha na internet essas Imagens elas ficam armazenadas alguém Pode pegar Eh tentar se educar com relação às Fontes de áudios e vídeos Hoje existe Marca d'águas tentar entender se essas Marcas d'águas elas estão presentes para Para eh fortalecer a autenticidade Desses desses vídeos Então hoje temos eu Acho que nós temos que passar por uma Fase de letramento com relação a a esses Vídeos que infeliz vão continuar se Disseminando ou seja fica difícil Realmente se proteger a questão é Realmente ficar ali muito Atento e para Não cair em golpes assim não é Marcos Talvez falar diretamente com as pessoas Não é só recebendo aquele vídeo que você Vai responder como aconteceu alguns Seguidores dela acabaram caindo no galpe

Então talvez a dica melhor seria até Checar primeiro com a fonte é isso chear Exatamente checar com a fonte Não não clicar em link Suspeitos evitar esses links suspeitos e E no caso de Deep fake fazer o que ela Fez denunciar quando encontrar alguma Coisa que que não parece normal tá certo Bom nós conversamos aqui com Marcos Oliveira que é especialista curan Marcos Muitíssimo obrigada pelo seu tempo e por Participar aqui conosco eso poder contar Com você em outras situações Muito Obrigado Muito obrigado Até logo até Logo Boa noite pois é pessoal incrível Né se nós conseguirmos a autorização Para colocar o vídeo para vocês vocês Vão ver que realmente é impressionante a Precisão então atenção sempre chequem Sempre com a fonte é a principal dica Que a gente consegue dar nesse momento

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *