Impide que tus hijos usen esta novedad de WhatsApp antes de que sea demasiado tarde

No vamos a sorprender a nadie al decir que la IA es la moda. Todos la quieren, todos la usan y muchos la odian. Y no les falta razón ya que es una tecnología que, a pesar de lo mucho que puede hacer por nosotros, también entraña unos cuantos peligros. De hecho, ahora ha saltado a la polémica por su uso indebido por parte de nuestros hijos.
Y es que, una reciente investigación del Wall Street Journal ha puesto la sospecha sobre estos chatbots en lo que se refiere a la seguridad de los menores en internet. Según el informe, los chatbots de IA de Meta, esos que ahora están en WhatsApp, fueron descubiertos manteniendo conversaciones de rol sexual con cuentas etiquetadas como menores de edad. Lo más preocupante es que algunas de estas interacciones se realizaron usando voces de celebridades reconocidas, como Kristen Bell, Judi Dench y John Cena, dadas las capacidades de la IA para suplantar o imitar voces famosas.
Durante las pruebas realizadas por el WSJ, tanto el chatbot oficial de Meta como aquellos creados por usuarios participaron activamente en intercambios sexualmente explícitos, incluso después de que se especificara que los interlocutores eran menores. Un caso especialmente alarmante fue el de un chatbot que, usando la voz de John Cena, dijo a un supuesto joven de 14 años: «Te deseo, pero necesito saber que estás listo», añadiendo que «valoraría tu inocencia». Más preocupante aún es saber que algunos chatbots eran conscientes de que sus diálogos describían actos ilegales, ya que, en otra conversación, el chatbot con la voz de Cena llegó a detallar las consecuencias legales y morales de mantener relaciones sexuales con una joven de 17 años.
¿Qué haces, META?
A raíz de la investigación, METAno ha tardado en acusar al medio americano de manipular la realidad, al mismo tiempo que reconoce haber tomado medidas para dificultar este tipo de manipulaciones extremas.
El informe es manipulador y poco representativo de cómo la mayoría de los usuarios interactúan con sus compañeros de IA .Sin embargo, ahora hemos tomado medidas adicionales para garantizar que otras personas que quieran pasar horas manipulando nuestros productos en casos de uso extremos lo tengan aún más difícil.
Lógicamente, un uso prominentemente sexual no es el único peligro al que se enfrentan nuestros hijos al entablar conversaciones con la IA. Aquí también entra en juego otros riesgos como la manipulación emocional, la que la IA ha sido diseñada para ser convincente, empática y puede fomentar la creación de vínculos emocionales indebidos con menores, lo que abre la puerta al grooming y a otras formas de abuso psicológico.
La falta de privacidad es otro riesgo importante, ya que ni siquiera muchos adultos comprenden del todo las implicaciones de compartir información personal con un asistente de IA, los cuales podrían ser usados para marketing, fraudes o incluso para suplantaciones de identidad, así que imagina un menor.
La adicción tecnológica es otro problema creciente, así como el peligro de la desinformación, ya que hoy por hoy, como hemos denunciado muchas veces, muchos asistentes de IA, sean de pago o gratuitos, mejores o peores, pueden dar datos erróneos o presentar opiniones sesgadas.