Site icon MatoGrossoAoVivo

Golpe da voz: Criminosos enganam vítimas por celular usando Inteligência Artificial

(Last Updated On: 22 de maio de 2023)

Neste post, vamos explicar como funciona esse golpe e como se proteger dele.

Você já ouviu falar do golpe da voz clonada por inteligência artificial? É uma nova modalidade de crime que usa programas de computador para imitar a voz de alguém e enganar as vítimas.

O que é o golpe da voz clonada por inteligência artificial?

O golpe da voz clonada por inteligência artificial é uma forma de estelionato que usa softwares capazes de reproduzir a voz de uma pessoa com base em áudios reais. Os criminosos usam esses programas para gerar frases falsas que são enviadas por telefone ou aplicativos de mensagens para as vítimas, se passando por familiares, amigos ou conhecidos.

O objetivo do golpe é convencer as vítimas a transferir dinheiro ou fornecer dados pessoais ou bancários, alegando alguma situação de emergência ou necessidade. Por exemplo, o golpista pode se fazer passar por um filho que perdeu o celular e precisa de um empréstimo, ou por um neto que foi preso e precisa pagar a fiança.

Como os golpistas conseguem clonar a voz?

Os golpistas conseguem clonar a voz usando ferramentas de inteligência artificial que são alimentadas por áudios reais da pessoa que eles querem imitar. Esses áudios podem ser obtidos de diversas fontes, como redes sociais, vídeos na internet, ligações gravadas ou até mesmo conversas anteriores com a vítima.

Os softwares de inteligência artificial são capazes de analisar os padrões da voz original, como tom, ritmo, sotaque e entonação, e gerar novas frases com a mesma sonoridade. Alguns desses programas exigem apenas alguns segundos de áudio para criar uma identidade vocal, enquanto outros pedem mais tempo para captar as nuances da fala.

Existem várias ferramentas de inteligência artificial que podem ser usadas para clonar vozes, como ElevenLabs, Murf.ai, Respeecher e Discursar. Algumas delas são gratuitas ou acessíveis pela internet, o que facilita o uso pelos criminosos.

Quem são as vítimas desse golpe?

As vítimas desse golpe são pessoas que podem ser enganadas pela voz clonada e que tenham algum vínculo afetivo ou financeiro com a pessoa imitada. Geralmente, os alvos são idosos, que podem ter menos familiaridade com as novas tecnologias e mais dificuldade em reconhecer uma voz falsa.

Além disso, os golpistas costumam escolher pessoas que tenham vozes muito presentes na internet, como influenciadores digitais, celebridades ou personalidades públicas. Isso porque eles têm mais facilidade em encontrar áudios dessas pessoas para alimentar os softwares de inteligência artificial.

Um exemplo recente desse golpe foi o caso do influenciador Dario Centurione, que publica vídeos com dicas e curiosidades nas redes sociais. O pai dele recebeu uma ligação falsa do filho pedindo dinheiro e transferiu R$ 600 para o golpista. Segundo Dario, o pai não desconfiou porque a voz era muito parecida com a dele.

Como se proteger desse golpe?

Para se proteger desse golpe, é preciso estar atento aos sinais de que se trata de uma voz clonada e não cair na pressão dos criminosos. Algumas dicas são:

– Desconfie de ligações ou mensagens de números desconhecidos ou restritos;
– Não forneça dados pessoais ou bancários por telefone ou aplicativos;
– Não faça transferências ou pagamentos sem confirmar a identidade da pessoa;
– Peça para a pessoa falar algo específico ou fazer uma pergunta que só ela saberia responder;
– Crie uma palavra-chave com seus familiares e amigos para usar em situações suspeitas;
– Entre em contato com a pessoa por outro meio de comunicação para verificar se ela realmente fez o pedido;
– Denuncie o golpe às autoridades competentes.

O golpe da voz clonada por inteligência artificial é uma ameaça real e crescente no Brasil e no mundo. Por isso, é importante se informar sobre esse assunto e tomar cuidado com as comunicações que recebemos. Lembre-se: a prevenção é sempre o melhor remédio.

Sair da versão mobile