Social

Hombre confía en ChatGPT para mejorar su salud y termina en el hospital por intoxicación grave

De acuerdo a un estudio realizado en Revitamed, el 70% de los pacientes reconoce haber buscado información previa en Google, ChatGPT u otras herramientas digitales antes de acudir a un médico.

Chat GPT y salud
Chat GPT y salud Pixabay

Un hombre de 60 años terminó hospitalizado tras seguir recomendaciones de salud proporcionadas por ChatGPT, la herramienta de inteligencia artificial de OpenAI. Este caso, documentado en la revista Annals of Internal Medicine Clinical Cases, resalta los peligros de depender de tecnologías no supervisadas para decisiones de salud.

PUBLICIDAD

El afectado buscaba alternativas a la sal común para reducir su consumo de cloruro sódico. En su búsqueda, utilizó ChatGPT, que le sugirió reemplazar la sal con bromuro de sodio, un compuesto cuya ingesta puede provocar una grave intoxicación conocida como bromismo. Sin consultar a un profesional, el hombre decidió seguir el consejo y consumió bromuro de sodio durante tres meses, lo que le ocasionó síntomas severos que requirieron atención médica urgente.

El uso del bromuro de sodio, que en el pasado se utilizó como ingrediente en medicamentos sedantes, ha sido desaconsejado por su asociación con casos de intoxicación. A pesar de esto, el hombre adquirió el compuesto por internet y lo incorporó a su dieta diaria. Después de algunas semanas, comenzó a experimentar síntomas neurológicos y psiquiátricos, como paranoia, alucinaciones, insomnio y problemas motrices. Su estado se agravó con la aparición de lesiones cutáneas y acné.

Recomendaciones profesionales

Cada vez con más frecuencia, los pacientes llegan al consultorio diciendo: “Doctor, eso no es lo que me dijo ChatGPT”. Esta frase recurrente preocupa al Dr. Osmar Del Toro, quien incluso advierte que el autodiagnóstico vía IA ya ha provocado consecuencias graves en la práctica clínica.

De acuerdo a un estudio realizado en Revitamed, el 70% de los pacientes reconoce haber buscado información previa en Google, ChatGPT u otras herramientas digitales antes de acudir a un médico. Cuatro de cada diez consultaron específicamente con IA, a menudo compartiendo exámenes o solicitando planes de tratamiento. Al menos la mitad de esos casos generó conflictos con el diagnóstico, cuestionamientos o comparaciones.

Como es el caso de una paciente, diagnosticada erróneame con “lumbago” por una IA, ella perdió tiempo valioso y terminó requiriendo cirugía urgente por una hernia discal lumbar complicada. Otro caso, es el de una joven con condromalacia rotuliana que siguió un plan de ejercicios sugerido por IA, empeoró en pocos días al no considerar variables fundamentales como su edad, peso o la lesión específica.

Este caso real subraya la advertencia del Dr. Del Toro: la IA no reemplaza el juicio clínico profesional. “La IA es una herramienta. No un reemplazo. Mucho menos un diagnóstico definitivo. Cuando sugiere un tratamiento sin conocer al paciente, no está ayudando: está arriesgando”, dijo.

A pesar de las dificultades para acceder a especialistas, Del Toro sostiene que la solución no reside en atajos digitales, sino en fortalecer el vínculo paciente-profesional, fomentar educación y humanizar la atención.

PUBLICIDAD

Tags


Lo Último