¿Por qué todos creen a ciegas en la IA, si falla más que una escopeta de feria?
El pasado fin de semana vi en X un meme que me hizo bastante gracia, donde se aludía a la supuesta confianza ciega enChatGPT a la horade resolver cualquier tipo de duda. El resultado, bastante hilarante si lo tomamos en cuenta desde una perspectiva donde parece que todo el mundo antepone la sabiduría de la IA ante la de los propios expertos.
En dicho tuit un usuario le pregunta a ChatGPT si se puede comer un cierto tipo de hongo, a lo que la IA de OpenAI le responde que sí. Como resultado, el hombre aparece hospitalizado y la IA le da la razón al enfermo, alegando que no se puede comer y que si desea saber algo más sobre hongos.
Esto pone de manifiesto la sensación que tenemos muchos de que se confía ciegamente en la inteligencia artificial. La consultamos para decidir qué móvil comprar, cómo invertir nuestro dinero o si la foto que circula por redes es “real” o “generada por IA”. Y lo hacemos con la misma fe con la que antes se acudía al doctor. Solo que este nuevo jugador, vestido de modelo de lenguaje, falla más que una escopeta de feria.
Y lo curioso es que, aun sabiendo que se equivoca, seguimos creyendo en ella como si fuera la fuente absoluta de la verdad.
Los muchos fallos de la IA
Yo mismo he podido constatar como, una semana después del lanzamiento de los nuevos iPhone, la IA me llamaba mentiroso por publicar artículos de productos no lanzados:
Presentas especificaciones de un producto futuro (iPhone 17 Pro Max) como hechos confirmados, lo que roza el contenido engañoso.
Pero, concretamente, el caso de Grok, la inteligencia artificial integrada en X, es un ejemplo perfecto de cómo el público ha delegado su sentido crítico en una máquina diseñada, precisamente, para parecer segura. Los usuarios le preguntan si una imagen es falsa, si un vídeo es real o si un texto tiene fundamento. Grok responde con tono firme, frases bien construidas y una aparente autoridad técnica.
Lo que no dice es que realmente no “sabe” nada. Solo calcula qué palabra tiene más probabilidades de venir después de la anterior. Y eso, cuando hablamos de verificar información, equivale a jugar a la ruleta rusa con la verdad. Los ejemplos recientes son tan elocuentes como preocupantes.

Una imagen falsa de un supuesto ataque a Tel Aviv. Grok primero la validó como auténtica, luego, tras nuevas consultas, se corrigió a medias: “podría ser IA o foto de archivo”. Y un día después recomendaba “consultar fuentes verificadas”. Una versión de los hechos por hora. Lo mismo con un vídeo de un tiburón al que “salvaban” del océano: lo dio por real, pese a que era un montaje de una cuenta de comedia.
Pero el error que más ha resonado fue el de la profesora valenciana que lo puso a prueba con una vieja fotografía de posguerra española. Grok la situó en Estados Unidos, identificó al autor como Walker Evans y hasta detalló el año, 1936, y el nombre de la familia retratada. Todo inventado con convicción milimétrica. Cuando la profesora aportó la fuente original del archivo de la Universidad de Málaga, la máquina rectificó. “Me equivoqué”, dijo, casi como si pidiera disculpas.
¿Lo más gracioso?, que no aprende: horas más tarde, volvió a fallar con la misma imagen.
Y el último caso es bastante más reciente. Un artista creó una imagen falsa de un mercado navideño blindado en Europa que se difundió en redes como si fuera una fotografía real y terminó sirviendo de munición política. Los usuarios la compartieron indignados y, cuando alguien descubrió que era una recreación generada por inteligencia artificial, ya era tarde. Y sí, hubo quien le preguntó a Grok si sa imagen era real, siendo la IA la ecnargada de verificarla, eróneamente, de nuevo.
Y ahí está el quid de la cuestión: no se trata de que la IA mienta (no pude mentir) sino de que no distingue entre lo cierto y lo falso. Todo depende de lo que ha aprendido, o más bien, de lo que ha visto repetido miles de veces en sus bases de datos. En el caso de Grok, su principal fuente de entrenamiento es la propia red X. Es decir, un ecosistema donde la desinformación campa a sus anchas.
Es la propia IA quien te explica como funciona y en base a qué te dice que es real:
Aun así, mucha gente sigue dando por veraces todas las respuestas de la IA, venga de donde venga y diga lo que diga. La clave está en que diga lo que queremos oír (o leer) para decidir qué es verdad y qué no. Y lo hacemos con una mezcla de asombro y resignación, convencidos de que “la máquina sabe más que nosotros”.
Lo irónico es que, mientras nos maravillamos con su supuesta infalibilidad, la IA se equivoca constantemente y con absoluta confianza en sí misma. Son respuestas inventadas pero con una apariencia de verdad tan pulida que desarma cualquier sospecha.
De esta forma, nos hemos acostumbrado a preguntar “¿qué dice la IA?” como si fuera la auténtica poseedora de la verdad más absoluta, cuando en realidad lo que devuelve es un reflejo distorsionado de la información que encuentra en la Red. Al final, todos los modelos de IA (que aún están en pañales) aprenden de nosotros, de nuestra información, pero también de nuestros textos, nuestras opiniones y nuestras ideologías. Si el material de partida está contaminado (que lo esta) el resultado no puede ser fiable.
La IA, en el mejor de los casos, es un asistente brillante con lagunas monumentales, pero parece que no todos están preparados para escuchar esta verdad.