La inteligencia artificial no solo nos ayuda a redactar correos electrónicos, crear imágenes realistas o buscar datos, sino que también nos otorga la posibilidad de obtener información sobre las calorías y el valor nutricional de todo lo que comemos de forma rápida y sencilla. Además de ello, es capaz de elaborar dietas acordes a nuestros objetivos deportivos, no obstante, esto puede llegar a ser un peligro para la salud.
El caso más reciente es el de un hombre de 60 años que tuvo que ser ingresado de urgencia tras seguir durante tres meses una dieta obtenida a través de ChatGPT. Según informa la revista Annals of Internal Medicine Clinical Cases, la IA le recomendó sustituir la sal común por bromuro de sodio y, desafortunadamente, le provocó bromismo, una intoxicación bastante común a finales del siglo XIX.
El paciente tenía una intoxicación por bromuro
El caso empezó cuando el hombre buscaba una alternativa al cloruro sódico para reducir su consumo y, como sustituto, la inteligencia artificial le recomendó que usara bromuro —un compuesto que se utilizaba en medicamentos sedantes y que fue retirado por los riesgos que suponía para la salud—.
Creyendo que se trataba de una alternativa segura, compró bromuro de sodio por Internet y lo añadió de forma habitual a todas sus comidas. Pero como era de esperar, con el paso de las semanas, empezó a sufrir alteraciones neurológicas y psiquiátricas, entre ellas paranoia, alucinaciones, insomnio y dificultades de coordinación, lo que finalmente llevó a su ingreso en urgencias.
Cuando llegó al hospital, en las pruebas iniciales, los análisis mostraron niveles altos de cloruro, aunque en realidad se trataba de un falso positivo provocado por la interferencia del bromuro. No obstante, tras la valoración del equipo de toxicología, se confirmó el diagnóstico de bromismo, una intoxicación crónica derivada de la acumulación de este compuesto en el organismo.
Durante su ingreso, el paciente recibió hidratación, reposición de electrolitos y medicación antipsicótica, teniendo en cuenta que la intoxicación le provocó lesiones cutáneas —como acné y pequeñas protuberancias rojizas—. Tras estabilizarse, fue dado de alta y en las revisiones posteriores se mantuvo en buen estado.
Los peligros en la salud por usar ChatGPT
Los autores de la revista Annals of Internal Medicine Clinical Cases subrayan que ningún profesional de la salud habría recomendado el bromuro como sustituto de la sal, e incluso advierten sobre el riesgo de seguir consejos médicos sin supervisión cualificada.
Asimismo, en respuesta a una consulta de Live Science, un portavoz de OpenAI recordó que sus herramientas no están diseñadas para diagnosticar ni tratar enfermedades, y que no deben emplearse como única fuente de información, algo que figura claramente en los términos de uso y servicio. Sin embargo, pese a estas advertencias, muchas personas siguen utilizando ChatGPT como si fuera un experto en cualquier materia. Aunque en algunos casos pueda ofrecer respuestas útiles, esta práctica puede resultar peligrosa o confusa en temas de salud.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.