Loading...

La nueva estafa que alarma a los expertos: imitan la voz de un familiar con inteligencia artificial

Varios 'softwares' son capaces de clonar el tono de una persona, lo que permite suplantar su identidad

Consumidor Global

Un dispositivo para grabar voz, que después se puede imitar / PEXELS

A la par que la tecnología avanza, los ciberdelincuentes perfeccionan sus métodos para llevar a cabo nuevas estafas. Si los deepfakes de vídeo permitían crear imágenes en movimiento irreales, pero asombrosamente creíbles, ahora las autoridades están preocupadas por que ocurra algo similar con sistemas de generación de voz.

Muchas compañías, como Microsoft, están trabajando en el desarrollo de sistemas que imitan la voz humana con una veracidad sorprendente. Ciertas herramientas de inteligencia artificial, las más sofisticadas, solo necesitan escuchar unos segundos la voz real de una persona (tomada de algún contenido publicado en la red, por ejemplo, un vídeo en alguna red social) para clonarla.

Suplantación de identidad

Hace unas semanas, The Washington Post contó una historia que disparó las alarmas: una señora de 73 años había recibido una llamada de un estafador que se hacía pasar por su nieto y le pedía 3.000 dólares para pagar una fianza, ya que fingía estar en una situación de urgencia. Se trataba de un deepfake de audio: los delincuentes habían conseguido generar, a través de la inteligencia artificial, una voz muy similar a la del joven para engañar a sus abuelos.

Una mujer graba una nota de voz / PEXELS

Por eso, las autoridades recomiendan dudar cuando un familiar o un conocido pida dinero (ya sea a través del chat de WhatsApp, por correo o por teléfono), así como intentar contactarle personalmente para saber si está en apuros u otra persona está suplantando su identidad.

Riesgos potenciales

Las propias empresas que están desarrollando las tecnologías de clonación de voz son conscientes de sus riesgos potenciales, como ElevenLabs. El pasado 31 de enero, esta compañía puntera admitió que algunas personas estaban utilizando su tecnología con objetivos “maliciosos”.

Esta herramienta es capaz de imitar la voz deseada con precisión, incluyendo timbre y tono.