El equipo de investigación de este estudio, presentó a 392 personas mayores de 18 años diez preguntas y respuestas sobre pacientes, la mitad de las cuales fueron generadas por un profesional sanitario humano y la otra mitad por ChatGPT.

Utilizando una escala de 5 puntos para valorar su confianza en las respuestas de ChatGPT, desde completamente indigno de confianza hasta completamente digno de confianza, se pidió a los participantes que identificaran la fuente de cada respuesta.

De este modo, se descubrió que la capacidad de las personas para distinguir entre las respuestas generadas por chatbot y las generadas por humanos es limitada. De media, los participantes identificaron correctamente las respuestas del chatbot el 65,5% de las veces y las del sanitario el 65,1%, con rangos del 49 al 85,7% para las distintas preguntas.

Independientemente de las categorías demográficas de los encuestados, los resultados se mantuvieron constantes, concluyendo que los participantes confiaban ligeramente en las respuestas de los chatbots en general (puntuación media de 3,4), y que la confianza era menor cuando la complejidad de la tarea en cuestión estaba relacionada con la salud.

En cuanto a las cuestiones logísticas (por ejemplo, programar citas, preguntas sobre seguros), estas obtuvieron la mayor confianza (3,94 de media), seguidas de la atención preventiva (por ejemplo, vacunas, pruebas de detección del cáncer, 3,52 de media). Las puntuaciones de confianza más bajas (2,90 y 2,89, respectivamente), se la llevaron los consejos sobre diagnóstico y tratamiento.

Además, el estudio subraya la posibilidad de que los chatbots ayuden en la comunicación entre pacientes y profesionales sanitarios, sobre todo en tareas administrativas y en la gestión de enfermedades crónicas comunes.

Sin embargo, como señalan los investigadores, sería necesario seguir investigando si los chatbots asumen funciones más clínicas. Por esta razón, los sanitarios deben ser cautos y ejercer un juicio crítico a la hora de seleccionar el asesoramiento generado por chatbots, debido a las limitaciones y posibles sesgos de los modelos de IA.