Tecnología

Hace 3 meses

Inteligencia artificial: ChatGPT proporciona citas ficticias sobre información médica

Investigaciones encontraron que al hacer preguntas médicas, el software puede crear falsificaciones engañosas de referencias científicas.

Foto: Bacaria.



La inteligencia artificial está revolucionando a grandes pasos la humanidad, es el caso de plataformas como ChatGPT, que ha significado una herramienta útil para agilizar algunos procesos, sin embargo, mucho se ha hablado de su aparente deficiencia al momento de dar respuestas sobre tratamientos médicos.

Investigadores de la Universidad de Long Island plantearon 39 consultas a la versión gratuita del chatbot relacionadas con medicamentos, las que eran preguntas reales del servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad. Las respuestas del software fueron comparadas con las respuestas escritas y revisadas por farmacéuticos capacitados.

ChatGPT dio respuestas precisas a solo 10 de las preguntas, las otras 29 tuvieron respuestas incompletas o inexactas, o no respondían a las preguntas. Cuando los investigadores preguntaron al software sobre referencias científicas para respaldar sus respuestas, sorprendió que solo podía proporcionar ocho de las preguntas que formulaban, incluso, descubrieron que ChatGPT fabricaba referencias.

Aunque las referencias parecían legítimas, cuando los científicos intentaron encontrar dichos artículos se dieron cuenta que el software les había proporcionado citas ficticias. 

Sara Grossman, profesora asociada de práctica farmacéutica en Long Island, explicó que, si un profesional de salud siguiera la guía ofrecida por ChatGPT, podría tener un impacto profundo en la atención del paciente.

PREOCUPACIÓN

Sin embargo, este no es el primer estudio que detecta citas ficticias en ChatGPT, otras investigaciones encontraron que al hacerse preguntas médicas el software puede crear falsificaciones engañosas de referencias científicas, incluso enumerando los nombres de autores reales con publicaciones previas en revistas científicas.

Un portavoz de OpenAI, organización que desarrolla ChatGPT, aconsejo a los usuarios a no confiar en las respuestas como sustituto del asesoramiento o tratamiento médico profesional. Añadió que los modelos de OpenAI no están ajustados para proporcionar información médica, además, los modelos nunca deben usarse para brindar servicios de diagnóstico o tratamiento para afecciones médicas graves.

 


También te puede interesar:

DENGUE