Mientras tú usas IA para todo, la ciencia ha calculado el coste de sus alucinaciones: dos tercios de la información es falsa o contiene errores

**La Inteligencia Artificial, un amigo de confianza, pero no sin riesgos** La Inteligencia Artificial, también conocida como IA, ha revolucionado la forma en que vivimos y trabajamos. Desde la asistencia en la universidad hasta la búsqueda de información en internet, la IA está presente en todas partes. Sin embargo, confiar ciegamente en sus respuestas puede ser peligroso. **Los riesgos de confiar en la IA** Los modelos de IA con los que interactuamos en nuestro día a día, como ChatGPT o Gemini, nos ayudan a simplificar una gran cantidad de tareas que abarcan diferentes áreas. En unos pocos segundos, tenemos la respuesta a la gran mayoría de dudas que podemos tener y nos proporciona todo lo que necesitamos para tomar cualquier tipo de decisión. Sin embargo, confiar ciegamente en sus respuestas puede ser peligroso. **El estudio de la Facultad de Psicología de la Universidad de Deakin** Recientemente, la Facultad de Psicología de la Universidad de Deakin (Australia) publicó un estudio sobre la fiabilidad de la IA. Según los investigadores, la mayoría de las referencias biográficas que propone al usuario son falsas o inexactas. Esto es alarmante, especialmente cuando se trata de temas científicos que requieren que todos los datos estén respaldados por su correspondiente fuente. **Las alucinaciones de la IA** El problema sobre las alucinaciones de la IA no es nuevo. Con este término, se hace referencia a las afirmaciones que realizan los grandes modelos de IA y que, si no se comprueban o no se tienen los conocimientos adecuados, podrían pasar por válidas. Sin embargo, cuando se hace un trabajo científico que requiere que todos los datos estén respaldados por su correspondiente fuente, esto puede suponer un importante problema. **El estudio con ChatGPT** El estudio se realizó utilizando ChatGPT – 4o y se le solicitó que realizará una serie de trabajos sobre tres trastornos de salud mental: trastorno depresivo mayor, trastorno por atracón y el trastorno dimórfico corporal. La instrucción que tenía la IA era que generara una revisión de 2.000 palabras, aproximadamente, e incluyera 20 citas bibliográficas como mínimo. **Los resultados del estudio** Una vez la IA realizó todo el trabajo, se comprobaron los resultados para asegurar la veracidad de las fuentes. Las consecuencias fueron las siguientes: * Una quinta parte de las citas (35 de 176) eran completamente falsas. * De las 141 que eran verdaderas, la mitad contenían, como mínimo, un error. * Dos tercios del total eran completamente falsas o contenían errores, lo que impedía que se pudieran utilizar en estudios científicos. * La tasa de citas falsas se correspondía con la complejidad del tema. Cuando el trastorno estaba más estudiado, únicamente un 6% de las citas eran falsas. Cuando era más complejo y había menos información, las referencias falsas alcanzaban el 29%. **Conclusión** En próximas investigaciones, el mismo grupo de estudio ha afirmado que trabajará para examinar una gama de modelos más amplia y comparará sus resultados con los de ChatGPT. No obstante, esto supone una importante advertencia a la hora de confiar en ChatGPT como única fuente de análisis cuando realizamos cualquier trabajo con él. Comprobar a posteriori los resultados es clave para asegurar la validez de todos los datos que se han añadido en el estudio. **Preguntas frecuentes** * ¿Qué son las ‘alucinaciones’ de una Inteligencia Artificial? + Es el término que se usa para describir los comportamientos anómalos de los modelos. * ¿Qué modelo de IA se utilizó en este estudio? + Se utilizó ChatGPT – 4o. * ¿Estos resultados se aplican a otras IA como Gemini o Claude? + De momento no, solo se limita a ChatGPT.
Más noticias de Tecnología





