¡Alerta! Los estafadores ya pueden usar la IA para engañarte y sacarte el dinero

En esta nueva era digital de la inteligencia artificial (IA) todo está evolucionando muy rápido, permitiendo logros impresionantes como la clonación de voces, creación de música e imágenes de gran calidad, entre otros aspectos. Sin embargo, esta tecnología también ha abierto la puerta a nuevas formas de estafas y suplantación de identidad. Te contamos más sobre este nuevo problema a continuación.
La posibilidad de que los delincuentes clonen tu voz y la utilicen con fines maliciosos ya es una realidad, de hecho es una cuestión alarmante que ya está empezando a dar sus primeros pasos. A esta nueva tendencia entre las estafas se le llama voices hacking, y debes estar alerta por si utilizan la tuya para robar tu dinero.
¿Cómo se clona una voz?
La clonación de voz mediante IA consiste en utilizar algoritmos y aprendizaje automático para replicar la voz de una persona. Con solo unos segundos de grabación, obtenidos de redes sociales, vídeos o incluso llamadas telefónicas, los ciberdelincuentes pueden generar audios que imitan tu voz con sorprendente precisión. Esta técnica, conocida como «voice hacking«, se ha convertido en una herramienta para estafas que buscan engañar a familiares o amigos de la víctima, solicitando dinero o información sensible. Un ejemplo de esto se puede dar cuando estás de viaje, y tus familiares o amigos reciben un audio pidiendo dinero, porque has tenido un problema. Y claro, lo que van a escuchar es precisamente tu voz, por lo que estafar de esta forma puede ser algo no solo ocurrente, sino realmente peligroso para nuestros bolsillos.
¿Qué dice la legislación al respecto?
La Unión Europea ha tomado medidas para regular el uso de la IA. La Ley de Inteligencia Artificial, aprobada en 2024, establece un marco jurídico que clasifica los sistemas de IA según su nivel de riesgo. Las aplicaciones que manipulan el comportamiento humano o explotan vulnerabilidades se consideran de «riesgo inaceptable» y están prohibidas. Además, el Gobierno español ha propuesto una ley que obligará a identificar contenidos generados por IA y establecerá sanciones para su uso indebido. Por lo que este nuevo problema parece tener coto, pero no creo que sea realmente fácil de eliminar.
¿Cómo protegerse de las clonaciones fraudulentas?
Para evitar ser víctima de estas estafas, la Policía Nacional recomienda establecer una palabra o frase de seguridad con familiares y amigos, que permita verificar la autenticidad de una llamada en situaciones sospechosas. Además, es esencial confirmar siempre la identidad del interlocutor, especialmente si se solicitan transferencias de dinero o datos sensibles. Un ejemplo, por ejemplo, es decir, me he tomado una caracola esta mañana para desayunar, y ya todo el mundo sabrá que eres tú.
Mantener los dispositivos actualizados y ser cauteloso al compartir grabaciones de voz en redes sociales también son medidas preventivas importantes. Para quienes publican contenido en línea, como influencers o figuras públicas, el riesgo es mayor debido a la abundancia de material disponible para los delincuentes. Algo que podría solucionarnos la vida es utilizar aplicaciones que puedan proteger nuestros audios, y que eviten que se puedan copiar nuestras voces.