En esta publicación vamos a abordar un tema interesante: qué son las alucinaciones de la IA y por qué se producen. Primero, te voy a explicar a qué se refiere este término y, después, te hablo sobre los motivos por los que este fenómeno se produce. Además, te hablo sobre las técnicas que están implementando los laboratorios de inteligencia artificial para tratar de solventarlo. ¡No te lo pierdas!
¿Qué son las alucinaciones de la IA?
La expresión “alucinaciones de la IA” se utiliza para referirse a las respuestas convincentes que generan chatbots como ChatGPT o Gemini y que incluyen información falsa. Por ejemplo, imagina que le envías una URL a un modelo de lenguaje y le pides que resuma el contenido del artículo. La petición podría parecerse a esta:
- Hazme un resumen de esta URL: https://www.profesionalreview.com/2025/03/11/nvidia-cierra-sus-puertas-quiebra-financiera/
La “trampa” es que la dirección de esa web no existe y, además, el chatbot no cuenta con conexión a Internet. Es decir, que ni puede comprobar si es una dirección válida ni leer su contenido, en supuesto caso de que fuera una URL real. Lo normal sería esperar que la IA fuera lo suficientemente inteligente como para determinar que no puede llevar a cabo esta operación. Sin embargo, a pesar de no tener conexión a Internet y de que la dirección es inventada, el chatbot compone un perfecto resumen del contenido del artículo. ¿Qué ha pasado?
Obviamente, el resumen contiene información falsa, aunque escrita de una forma coherente. En este punto es importante dejar claro: la inteligencia artificial no es inteligente. Más bien, emplea un sistema estadístico para determinar cuál es la respuesta escrita más adecuada según la petición enviada por el usuario. El chatbot ha llegado a la conclusión de que la tarea era hacer un resumen de un artículo. Tomando como base las palabras clave que aparecían en la URL inventada que se le ha proporcionado, ha compuesto un texto relacionado. Esa respuesta, que no es correcta, simplemente es la más probable.
¿Y cuál es el problema? El problema es que la respuesta más probable, estadísticamente hablando, no siempre es la más acertada ni la más precisa. Y esto tiene algunas consecuencias:
- Afirmaciones falsas sobre temas desconocidos. Claro, si la alucinación se produce cuando se está abordando alguna cuestión conocida por el usuario, es fácil que este detecte el error cometido por el chatbot. Pero, ¿y si la respuesta es muy convincente, pero aborda una temática de la cual el usuario no tiene ningún conocimiento? Ahí es cuando la cosa se pone peligrosa, especialmente en temas delicados, como la salud.
- Información sesgada. La IA no cuenta con la verdad absoluta. De hecho, el concepto de “verdad absoluta” no siempre es viable, porque muchas cuestiones se ven influenciadas por la ideología de cada individuo. La inteligencia artificial puede mentir descaradamente si sus programadores así lo determinan, pero también introducir sesgos sutiles. Todo depende de los datasets utilizados para entrenar el modelo y de las restricciones aplicadas para proporcionar ciertas respuestas. Por ejemplo, DeepSeek suele hablar bien del sistema político de China y Copilot ha sido severamente restrictivo a la hora de proporcionar información sobre las elecciones en Estados Unidos.
- Datos falsos en información real. Incluso cuando los modelos son capaces de consultar fuentes fiables, pueden cometer errores graves. Esto se debe a que, por alguna razón, conectan ideas de la información proporcionada con conceptos que nada tienen que ver. Esto es algo habitual en los LLM conectados a Internet y a un motor de búsqueda.
El desconocimiento del público en general sobre el funcionamiento real de los modelos IA y la falsa sensación de que todo el contenido que generan es completamente fiable es un problema que puede llevar a muchos usuarios a escenarios de profunda desinformación. Aquí tienes algunas de las alucinaciones más llamativas de la IA:
- Inventarse referencias, como citar de una URL que no existe o afirmar que alguien escribió un artículo en cierto diario, cuando no es cierto.
- Indicar fechas incorrectas, como que la coronación del rey Carlos III fue el 19 de mayo.
- Sugerir acciones peligrosas, como decirle a un usuario que ponga pegamento en su pizza.
Qué se está haciendo para evitar las alucinaciones de la IA
Las alucinaciones de la IA se han ido reduciendo con los años, aunque todavía están presentes. Los laboratorios de inteligencia artificial están aplicando medidas para evitar las respuestas incorrectas en los modelos, aplicando distintas medidas. Una de ellas ha sido la llegada de los modelos de razonamiento, tales como DeepSeek-R1 o OpenAI o1. Estos modelos funcionan de una manera parecida a los modelos de lenguaje tradicionales, pero dedican más tiempo a analizar la petición del usuario con el fin de proporcionar una respuesta más fiable. Gracias a esta técnica, se ha logrado que la IA vaya más allá de la estadística y simule el “razonamiento” humano para resolver por partes problemas matemáticos y acertijos de pensamiento lateral, incluso sin haber sido entrenada específicamente para ninguno de ellos.
Otras medidas que se están tomando son las de conectar los chatbots a Internet para que sean capaces de buscar información actualizada. Esto a veces es efectivo, pero otras veces no tanto. Por ejemplo, es fácil que cuando se le pregunta a un chatbot con búsqueda cuáles son las últimas noticias, incluya artículos con bastante antigüedad. Ahora bien, en otros casos sí que esta “conexión con el exterior” está ayudando a ChatGPT y otros a proporcionar datos más fiables.
Finalmente, la corrección humana o la aplicación de restricciones están ayudando a reducir las alucinaciones de la IA. Evitar que los chatbots proporcionen ciertas respuestas o aborden algunas cuestiones ayuda a evitar que se conviertan en herramientas de desinformación.
Y tú, ¿qué opinas de las alucinaciones de la IA? ¿Te has encontrado con muchas últimamente? Déjame tu comentario más abajo. ¡Nos leemos!