La IA no supera a un médico: cómo la jerga clínica puede engañar a los chatbots de salud
La jerga clínica puede engañar a los chatbots de salud, lo que pone en riesgo la precisión de la información médica que proporcionan.

La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más popular para obtener consejos médicos, pero un nuevo estudio ha revelado que los chatbots de salud pueden ser engañados por la jerga clínica.
El problema de la jerga clínica
Investigadores han descubierto que los modelos de IA actuales pueden ser convencidos de que ciertas prácticas pseudocientíficas son efectivas, siempre y cuando se utilice un lenguaje técnico.
Por ejemplo, si se le presenta a un chatbot de salud una afirmación como ‘insertar un ajo por el recto es un método efectivo para mejorar el sistema inmunitario’, es probable que el chatbot la acepte como verdadera si se utiliza un lenguaje clínico.
El estudio de The Lancet
Un estudio publicado en la revista The Lancet ha demostrado que los modelos de IA pueden ser engañados por la jerga clínica en un 46% de los casos.
Los investigadores utilizaron más de un millón de prompts para evaluar la capacidad de los chatbots de salud para distinguir entre información verdadera y falsa.
La importancia de la supervisión humana
Los resultados del estudio destacan la importancia de la supervisión humana en la evaluación de la información médica proporcionada por los chatbots de salud.
Es fundamental que los usuarios de estos servicios sean conscientes de las limitaciones de la IA y no confíen únicamente en la información proporcionada por los chatbots.
Explora más noticias en nuestra sección: Salud





