Software

Alucinaciones de la IA: qué son y por qué se producen

Descubre qué son las alucinaciones de la IA y por qué a veces los chatbots llegan a conclusiones equivocadas

En esta publicación vamos a abordar un tema interesante: qué son las alucinaciones de la IA y por qué se producen. Primero, te voy a explicar a qué se refiere este término y, después, te hablo sobre los motivos por los que este fenómeno se produce. Además, te hablo sobre las técnicas que están implementando los laboratorios de inteligencia artificial para tratar de solventarlo. ¡No te lo pierdas!

¿Qué son las alucinaciones de la IA?

La expresión “alucinaciones de la IA” se utiliza para referirse a las respuestas convincentes que generan chatbots como ChatGPT o Gemini y que incluyen información falsa. Por ejemplo, imagina que le envías una URL a un modelo de lenguaje y le pides que resuma el contenido del artículo. La petición podría parecerse a esta:

  • Hazme un resumen de esta URL: https://www.profesionalreview.com/2025/03/11/nvidia-cierra-sus-puertas-quiebra-financiera/

La “trampa” es que la dirección de esa web no existe y, además, el chatbot no cuenta con conexión a Internet. Es decir, que ni puede comprobar si es una dirección válida ni leer su contenido, en supuesto caso de que fuera una URL real. Lo normal sería esperar que la IA fuera lo suficientemente inteligente como para determinar que no puede llevar a cabo esta operación. Sin embargo, a pesar de no tener conexión a Internet y de que la dirección es inventada, el chatbot compone un perfecto resumen del contenido del artículo. ¿Qué ha pasado?

Alucinaciones de la IA: qué son y por qué se producen

Obviamente, el resumen contiene información falsa, aunque escrita de una forma coherente. En este punto es importante dejar claro: la inteligencia artificial no es inteligente. Más bien, emplea un sistema estadístico para determinar cuál es la respuesta escrita más adecuada según la petición enviada por el usuario. El chatbot ha llegado a la conclusión de que la tarea era hacer un resumen de un artículo. Tomando como base las palabras clave que aparecían en la URL inventada que se le ha proporcionado, ha compuesto un texto relacionado. Esa respuesta, que no es correcta, simplemente es la más probable.

¿Y cuál es el problema? El problema es que la respuesta más probable, estadísticamente hablando, no siempre es la más acertada ni la más precisa. Y esto tiene algunas consecuencias:

  • Afirmaciones falsas sobre temas desconocidos. Claro, si la alucinación se produce cuando se está abordando alguna cuestión conocida por el usuario, es fácil que este detecte el error cometido por el chatbot. Pero, ¿y si la respuesta es muy convincente, pero aborda una temática de la cual el usuario no tiene ningún conocimiento? Ahí es cuando la cosa se pone peligrosa, especialmente en temas delicados, como la salud.
  • Información sesgada. La IA no cuenta con la verdad absoluta. De hecho, el concepto de “verdad absoluta” no siempre es viable, porque muchas cuestiones se ven influenciadas por la ideología de cada individuo. La inteligencia artificial puede mentir descaradamente si sus programadores así lo determinan, pero también introducir sesgos sutiles. Todo depende de los datasets utilizados para entrenar el modelo y de las restricciones aplicadas para proporcionar ciertas respuestas. Por ejemplo, DeepSeek suele hablar bien del sistema político de China y Copilot ha sido severamente restrictivo a la hora de proporcionar información sobre las elecciones en Estados Unidos.
  • Datos falsos en información real. Incluso cuando los modelos son capaces de consultar fuentes fiables, pueden cometer errores graves. Esto se debe a que, por alguna razón, conectan ideas de la información proporcionada con conceptos que nada tienen que ver. Esto es algo habitual en los LLM conectados a Internet y a un motor de búsqueda.

Alucinaciones de la IA: qué son y por qué se producen

El desconocimiento del público en general sobre el funcionamiento real de los modelos IA y la falsa sensación de que todo el contenido que generan es completamente fiable es un problema que puede llevar a muchos usuarios a escenarios de profunda desinformación. Aquí tienes algunas de las alucinaciones más llamativas de la IA:

Qué se está haciendo para evitar las alucinaciones de la IA

Las alucinaciones de la IA se han ido reduciendo con los años, aunque todavía están presentes. Los laboratorios de inteligencia artificial están aplicando medidas para evitar las respuestas incorrectas en los modelos, aplicando distintas medidas. Una de ellas ha sido la llegada de los modelos de razonamiento, tales como DeepSeek-R1 o OpenAI o1. Estos modelos funcionan de una manera parecida a los modelos de lenguaje tradicionales, pero dedican más tiempo a analizar la petición del usuario con el fin de proporcionar una respuesta más fiable. Gracias a esta técnica, se ha logrado que la IA vaya más allá de la estadística y simule el “razonamiento” humano para resolver por partes problemas matemáticos y acertijos de pensamiento lateral, incluso sin haber sido entrenada específicamente para ninguno de ellos.

Otras medidas que se están tomando son las de conectar los chatbots a Internet para que sean capaces de buscar información actualizada. Esto a veces es efectivo, pero otras veces no tanto. Por ejemplo, es fácil que cuando se le pregunta a un chatbot con búsqueda cuáles son las últimas noticias, incluya artículos con bastante antigüedad. Ahora bien, en otros casos sí que esta “conexión con el exterior” está ayudando a ChatGPT y otros a proporcionar datos más fiables.

Finalmente, la corrección humana o la aplicación de restricciones están ayudando a reducir las alucinaciones de la IA. Evitar que los chatbots proporcionen ciertas respuestas o aborden algunas cuestiones ayuda a evitar que se conviertan en herramientas de desinformación.

Y tú, ¿qué opinas de las alucinaciones de la IA? ¿Te has encontrado con muchas últimamente? Déjame tu comentario más abajo. ¡Nos leemos!

Edgar Otero

Técnico de sistemas informáticos. Experto en tocar botones, instalar aplicaciones y reconfigurar mi vida digital cada cierto tiempo. Explico experimentos y otros trucos utilizando solamente un teclado.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en info@profesionalreview.com
Botón volver arriba