Simultaneamente que a tecnologia avança, os ciberdelincuentes aperfeiçoam seus métodos para levar a cabo novas fraudes. Se os deepfakes de vídeo permitiam criar imagens em movimento irreales, mas assombrosamente creíbles, agora as autoridades estão preocupadas por que ocorra algo similar com sistemas de geração de voz .
Muitas companhias, como Microsoft, estão a trabalhar no desenvolvimento de sistemas que imitam a voz humana com uma veracidad surpreendente. Certas ferramentas de inteligência artificial, as mais sofisticadas, só precisam escutar uns segundos a voz real de uma pessoa (tomada de algum conteúdo publicado na rede, por exemplo, um vídeo em alguma rede social) para a clonar.
Suplantación de identidade
Faz umas semanas, The Washington Pós contou uma história que disparou os alarmes: uma senhora de 73 anos tinha recebido um telefonema de um estafador que se fazia passar por seu neto e lhe pedia 3.000 dólares para pagar uma fiança, já que fingia estar numa situação de urgência. Tratava-se de um deepfake de audio: os delinquentes tinham conseguido gerar, através da inteligência artificial, uma voz muito similar à do jovem para enganar a seus avôs.
Por isso, as autoridades recomendam duvidar quando um familiar ou um conhecido peça dinheiro (já seja através do chat de WhatsApp , por correio ou por telefone), bem como tentar lhe contactar pessoalmente para saber se está em apuros ou outra pessoa está suplantando sua identidade.
Riscos potenciais
As próprias empresas que estão a desenvolver as tecnologias de clonagem de voz são conscientes de seus riscos potenciais, como ElevenLabs. O passado 31 de janeiro, esta companhia puntera admitiu que algumas pessoas estavam a utilizar sua tecnologia com objectivos "maliciosos".
Esta ferramenta é capaz de imitar a voz desejada com precisão, incluindo timbre e tom.