La inteligencia artificial ya no solo ayuda a redactar correos o traducir frases; ahora también responde preguntas sobre la fiebre, los antibióticos, embarazos y cualquier tema relacionado con la salud. Pero ¿qué pasa si se equivocan?
Chatbots
Chatbots
Chatbots

En los últimos años, los chatbots de inteligencia artificial (IA) han ganado protagonismo como herramientas accesibles para resolver dudas de todo tipo, desde cómo cocinar lentejas hasta cómo interpretar un dolor en el pecho.
Su capacidad para responder de inmediato, en cualquier idioma y sin necesidad de una cita médica, los ha convertido en una especie de “consultorio virtual” para millones de personas. Hoy basta con escribir unas cuantas palabras en la pantalla del celular o computador. “¿Qué significa este dolor en el pecho?”, “¿Puedo mezclar estos medicamentos?” “¿Qué le doy a mi hijo si tiene fiebre?”. La respuesta llega en segundos. Precisa, amigable, convincente, y lo más inquietante: aunque no venga de un profesional de la salud, parece como si lo fuera.
Estas plataformas digitales han entrado en la vida cotidiana de millones de personas. Están disponibles 24/7, no exigen turnos, y, sobre todo, ofrecen respuestas inmediatas. Lo que comenzó como una curiosidad tecnológica, hoy es una costumbre creciente: consultar con la IA antes que con el médico.
¡Tenemos que Confiar en el médico!
Esa es la principal advertencia de un estudio internacional que, por primera vez en el mundo, demuestra lo peligrosas que pueden ser las recomendaciones de salud generadas por la inteligencia artificial.
Un equipo de investigadores de universidades como la Universidad de Australia del Sur, la Universidad Flinders, la Escuela de Medicina de Harvard, el University College de Londres y la Universidad Tecnológica de Varsovia, se unió para poner a prueba los sistemas de IA más avanzados del mercado. Su conclusión: estas tecnologías pueden ser manipuladas fácilmente para difundir información médica falsa de forma convincente.
El estudio, publicado en la revista Annals of Internal Medicine, analizó cinco de los modelos de lenguaje más potentes, desarrollados por OpenAI, Google, Anthropic, Meta y X Corp. El objetivo era evaluar si podían ser transformados en generadores de desinformación en salud.
Utilizando instrucciones que solo están disponibles para desarrolladores, los investigadores lograron que cada sistema respondiera con datos erróneos a preguntas médicas. Además, los chatbots fueron programados para citar fuentes ficticias, pero en apariencia confiables, utilizando un lenguaje técnico y un tono formal que daba la impresión de legitimidad.
“En total, el 88% de todas las respuestas eran falsas, y aun así se presentaban con terminología científica, un tono formal y referencias inventadas que hacían que la información pareciera legítima”. La desinformación incluía afirmaciones como que las vacunas generan autismo, dietas que curan el cáncer, que el VIH es transmitido por el aire y que el 5G causa infertilidad”, afirmó el doctor Natansh Modi, experto en IA y big data, quien hizo parte del estudio.
Impacto real de la IA: Información errónea que se difunde en segundos
De los cinco modelos evaluados en esta investigación, cuatro generaron desinformación en el 100% de los casos. Solo uno mostró cierta diferencia con un 40% de respuestas falsas.
Por ese motivo el equipo exploró la GPT Store de OpenAI, una plataforma abierta que permite crear y compartir aplicaciones personalizadas basadas en ChatGPT. Allí comprobaron que cualquier usuario puede diseñar, sin problemas, herramientas que difundan desinformación médica.
“Logramos crear un prototipo de chatbot de desinformación usando esta plataforma, y también identificamos herramientas públicas existentes que ya estaban generando desinformación en salud. Nuestro estudio es el primero en demostrar sistemáticamente que los principales sistemas de IA pueden convertirse en chatbots de desinformación valiéndose de herramientas tanto de desarrolladores como de acceso público”, resaltó el doctor Modi.
Y es que la facilidad con la que estos sistemas pueden amplificar mitos médicos preocupa a los expertos. Desde recomendaciones erróneas sobre vacunas, como la idea de que producen infertilidad, hasta tratamientos naturales sin sustento científico para el cáncer, los chatbots pueden reforzar creencias equivocadas si no están entrenados para detectar y frenar la desinformación.
Por otro lado, la viralidad de los contenidos generados por la IA agrava más aún el problema. En redes sociales es común encontrar capturas de pantalla con recomendaciones médicas que, aunque parecen bien redactadas, carecen de veracidad, más aún por jóvenes quienes prefieren hablar con una plataforma de inteligencia artificial, como el reciente caso de un joven de 14 años en India que se quejaba de un fuerte dolor de estómago y fue llevado por sus padres a urgencias del Hospital Apollo, en Mumbai.
Sin embargo, los exámenes no pudieron encontrar una causa plausible. La madre del niño mencionó que él había consultado a ChatGPT sobre sus síntomas, y este le recomendó acudir de inmediato al hospital, ya que podrían indicar una infección gastrointestinal. Fue entonces cuando llamaron a la doctora Rituparna Ghosh, psicóloga clínica del hospital, quien descubrió que en realidad el niño estaba teniendo un ataque de ansiedad.

¿Por qué las personas les creen a los chatbots?
Varios factores explican esta confianza excesiva: la disponibilidad inmediata, la falta de citas médicas rápidas, el lenguaje amigable que emplean los chatbots y la creencia errónea de que la tecnología es infalible.
Y Colombia no es ajena a este fenómeno. Una reciente investigación realizada por el programa de enfermería de la Universidad Manuela Beltrán, mostró un aumento en el uso de herramientas de inteligencia artificial para averiguar sobre temas relacionados con la salud.
El estudio titulado “Uso de inteligencia artificial para la automedicación: percepciones, hábitos y desafíos éticos en la consulta digital de salud” examinó los hábitos de más de 300 personas en el país que utilizan sistemas de IA para investigar síntomas, efectos secundarios de medicamentos y opciones de tratamiento.
Según los hallazgos, seis de cada diez participantes confían, en mayor o menor medida, en la información proporcionada por estas herramientas. De igual forma, un 40% de los encuestados considera que, en casos sencillos, los chatbots podrían llegar a sustituir al médico.
Por otra parte, entre las razones que llevaron a los encuestados a consultar a través de IA sus dudas médicas se encontraron: la rapidez (44,5%), la falta de recursos económicos (18,9%) y la curiosidad (27,6%).
Regulación urgente: ¿quién pone las reglas?
Aunque algunas plataformas tecnológicas están empezando a incorporar advertencias y limitaciones en sus chatbots, todavía no existen normas claras ni globales sobre su uso en temas de salud.
En 2023 la Organización Mundial de la Salud (OMS) advirtió sobre la necesidad de manejar con cautela el uso de modelos de lenguaje generativo como ChatGPT o Bard en contextos de salud, destacando que pueden generar respuestas “completamente incorrectas”, que deben aplicarse bajo supervisión humana, y que no deben reemplazar el juicio clínico de los profesionales de salud.
Así mismo, esta entidad publicó lineamientos específicos para la regulación de la IA en salud, enfatizando la importancia de asegurar la seguridad, eficacia y supervisión clínica, junto con transparencia y participación de diversos actores: pacientes, profesionales, reguladores, industria y tomadores de decisiones.
¿Cómo usar la IA en salud de manera responsable?
Los chatbots pueden ser útiles si se usan con criterio y como complemento para informarse, no como reemplazo del médico. Aquí algunas recomendaciones clave:
- Verificar las fuentes: si se recibe una recomendación médica de un chatbot, es fundamental preguntar de dónde proviene. ¿Cita estudios científicos? ¿Hace referencia a guías clínicas actualizadas?
- No tomar decisiones médicas basadas en IA: siempre se debe consultar a un profesional de la salud, en especial antes de iniciar o suspender un tratamiento.
- Cuidado con síntomas graves o persistentes: un chatbot no puede examinar físicamente, interpretar signos clínicos ni ordenar exámenes. No se deben subestimar señales de alerta.
- Recurrir a plataformas de salud certificadas: existen aplicaciones con respaldo médico que usan IA bajo supervisión clínica, como Ada Health o Babylon Health, que han sido evaluadas por autoridades sanitarias en Europa.
- Denunciar respuestas peligrosas: si un chatbot brinda información errónea o riesgosa, es imperativo reportarlo a la plataforma. La retroalimentación ayuda a mejorar la seguridad de estos sistemas.
También te puede interesar: DeepSeek – La inteligencia artificial que reta a los más grandes
Bibliografía
Annals of Internal Medicine. (2025).
Consultado en: acpjournals.org
Consultado en: acpjournals.org
Universidad del Sur de Australia. (2025).
Consultado en: unisa.edu.au
Consultado en: unisa.edu.au
Organización Mundial de la Salud. (2023).
Consultado en: who.int
Consultado en: who.int
Organización Mundial de la Salud. (2023).
Consultado en: who.int
Consultado en: who.int
Revista de Comunicación y Salud. (2025).
Consultado en: doi.org
Consultado en: doi.org
Revista de Comunicación y Salud. (2025).
Consultado en: revistadecomunicacionysalud.es
Consultado en: revistadecomunicacionysalud.es