¿Cómo funcionan las extorsiones con IA y voces de familiares en WhatsApp?
Existen estrategias con familiares y amigos para poder evitar este tipo de extorsiones.
Con los más recientes avances tecnológicos y el desarrollo de la inteligencia artificial se han dado paso a una amplia cantidad de beneficios. Sin embargo, también es cierto que, en las manos equivocadas, esto ha dado paso a la creación de distintas modalidades de fraudes y extorsiones en aplicaciones de mensajería como WhatsApp, Telegram, entre otros.
¿Cómo funciona la clonación de voz por IA?
Uno de los tipos de extorsión más peligrosos que se ha reportado en la actualidad es el envío de supuestos mensajes de voz donde se replica o "clona" la voz de una persona con el propósito de engañar al receptor y convencerlo de aportar una cantidad considerable de dinero.
De acuerdo a un estudio de la compañía de ciberseguridad McAfee (recuperada por el Financiero), se analizó la replicación o clonación de voz por medio de inteligencia artificial. Los especialistas dieron a conocer que tan solo una pequeña muestra de voz es suficiente para que dichos programas puedan generar mensajes de voz falsos y enviarlos por aplicaciones de mensajería.
Dichos mensajes suelen tener la clara intención de comunicar: una emergencia, angustia y la necesidad de que se deposite una cantidad importante de dinero a la brevedad. Para influir aún más en la víctima, los extorsionadores se hacen pasar por familiares o amigos.
¿Cómo evitar extorsiones por IA?
Algunos de los principales consejos que se han dado a conocer para evitar ser víctima de este tipo de extorsiones es establecer códigos con familiares y amigos, como palabras clave para pedir ayuda. Del mismo modo, se debe de revisar la fuente, verificar el número de teléfono y las palabras que suele utilizar dicha persona. Solo compartir información con familiares y amigos, a la par de borrar nombres y datos de sitios intermediarios.