Confió en ChatGPT para mejorar su dieta y terminó hospitalizado por intoxicación

Confió en ChatGPT para mejorar su dieta y terminó hospitalizado por intoxicación

Foto: Unsplash

Un hombre de 60 años fue hospitalizado de urgencia tras sufrir una grave intoxicación provocada por seguir una recomendación de ChatGPT. Según los reportes médicos, el paciente estaba buscando alternativas a la sal común para mejorar su dieta, pero terminó consumiendo bromuro de sodio, una sustancia retirada del mercado por sus efectos nocivos. El caso fue documentado en la revista médica Annals of Internal Medicine Clinical Cases.

 

La consulta del hombre era para reducir el consumo de cloruro sódico, pero al recibir la sugerencia de reemplazarlo por bromuro de sodio, decidió comprar el compuesto por internet e incluirlo en su dieta diaria durante tres meses, sin consultar a ningún especialista. Esta decisión lo llevó a desarrollar una intoxicación conocida como bromismo, una condición poco frecuente en la actualidad.

 

El bromuro de sodio era utilizado como ingrediente en medicamentos sedantes, pero su uso fue descontinuado tras múltiples casos de intoxicación. Según los autores del informe médico, ningún profesional habría recomendado este sustituto, lo que evidencia los riesgos de seguir pautas sanitarias de herramientas no supervisadas.

 

Semanas después de iniciar el consumo, el paciente comenzó a experimentar síntomas neurológicos y siquiátricos, como paranoia, alucinaciones, insomnio y dificultades motrices, así como lesiones cutáneasacné y protuberancias rojizas.

 

Debido a la intervención oportuna del servicio de toxicología se logró identificar la intoxicación y aplicar el tratamiento adecuado, que incluía hidrataciónreposición de electrolitos y medicación antisicótica. Tras estabilizarse, el hombre recibió el alta médica y continúa bajo seguimiento ambulatorio.

 

Los especialistas que analizaron el caso subrayaron que la recomendación de sustituir la sal por bromuro carece de fundamento científico. En el artículo se afirma que “jamás un profesional médico habría recomendado el bromuro como sustituto de la sal”, lo que pone en evidencia los límites del uso de inteligencia artificial en temas de salud.

 

Por su parte, OpenAI, la empresa responsable de ChatGPT, reiteró que sus herramientas no están diseñadas para diagnóstico ni tratamiento médico. Asimismo, voceros de la compañía señalaron a Live Science que la IA “no debe emplearse como única fuente de información para cuestiones de salud”, advertencia que viene explícita en sus términos y condiciones de uso.

Notas Relacionadas