Es menos probable que los pacientes sigan los consejos de los médicos de IA que conocen sus nombres



Los ingenieros siempre se esfuerzan por hacer que nuestras interacciones con la inteligencia artificial más humano, pero un nuevo estudio sugiere que un toque personal no siempre es bienvenido.

Investigadores de Penn State y la Universidad de California en Santa Bárbara encontraron que es menos probable que las personas sigan los consejos de un médico de IA que conoce su nombre y su historial médico.

Su estudio de dos fases asignó aleatoriamente a los participantes a chatbots que se identificaron como IA, humanos o humanos asistidos por IA.

La primera parte del estudio se enmarcó como una visita a un nuevo médico en una plataforma de salud electrónica.

[[Leer más: Este tipo condujo un vehículo eléctrico desde los Países Bajos a Nueva Zelanda: estos son sus 3 mejores consejos para viajes por carretera]

Primero se pidió a los 295 participantes que completaran un formulario de salud. Luego leyeron la siguiente descripción del médico que estaban a punto de conocer:

Doctor humanoEl Dr. Alex recibió un título médico de la Facultad de Medicina de la Universidad de Pittsburgh en 2005 y está certificado por la junta en medicina pulmonar (pulmón). Su área de atención incluye tos, enfermedad pulmonar obstructiva y problemas respiratorios. El Dr. Alex dice: «Me esfuerzo por brindar un diagnóstico y tratamiento precisos a los pacientes».
Médico de IAAI Dr. Alex es un algoritmo de inteligencia artificial basado en aprendizaje profundo para la detección de influenza, enfermedades pulmonares y problemas respiratorios. El algoritmo fue desarrollado por varios grupos de investigación de la Facultad de Medicina de la Universidad de Pittsburgh con un enorme conjunto de datos del mundo real. En la práctica, AI Dr. Alex ha logrado una alta precisión en el diagnóstico y el tratamiento.
Médico humano asistido por IAEl Dr. Alex es un especialista pulmonar certificado por la junta que recibió un título médico de la Facultad de Medicina de la Universidad de Pittsburgh en 2005.
El sistema médico de inteligencia artificial que ayuda al Dr. Alex se basa en algoritmos de aprendizaje profundo para la detección de influenza, enfermedades pulmonares y problemas respiratorios.

Luego, el médico ingresó al chat y comenzó la interacción.

Cada chatbot fue programado para hacer ocho preguntas sobre los síntomas y comportamientos de COVID-19. Finalmente, ofrecieron diagnósticos y recomendaciones basados ​​en el Autoevaluación de coronavirus de los CDC.

Aproximadamente 10 días después, los participantes fueron invitados a una segunda sesión. A cada uno de ellos se le asignó un chatbot con la misma identidad que en la primera parte del estudio. Pero esta vez, a algunos se les asignó un bot que se refería a detalles de su interacción anterior, mientras que a otros se les asignó un bot que no hacía referencia a su información personal.

Después de la charla, los participantes recibieron un cuestionario para evaluar al médico y su interacción. Luego se les dijo que todos los médicos eran bots, independientemente de su identidad declarada.

Diagnóstico de IA

El estudio encontró que los pacientes eran menos propensos a seguir los consejos de los médicos de IA que se referían a información personal, y era más probable que consideraran que el chatbot era intrusivo. Sin embargo, se observó el patrón inverso en las vistas de chatbots que se presentaron como humanos.

Por el papel de estudio:

De acuerdo con la teoría de la mente del valle inquietante, podría ser que la individuación se considere exclusiva de la interacción humano-humano. La individuación de la IA probablemente se vea como una simulación, es decir, un intento falso de cariño y cercanía. Por otro lado, cuando un médico humano no se individualiza y pregunta repetidamente el nombre de los pacientes, su historial médico y su comportamiento, las personas tienden a percibir una mayor intrusión, lo que conduce a un menor cumplimiento por parte del paciente.

Los hallazgos sobre los médicos humanos, sin embargo, vienen con una advertencia: el 78% de los participantes de este grupo pensaron que habían interactuado con un médico de IA. Los investigadores sospechan que esto se debió a las respuestas mecánicas de los chatbots y a la falta de presencia humana en la interfaz, como una foto de perfil.

En última instancia, el equipo espera que la investigación conduzca a mejoras en la forma en que se diseñan los chatbots médicos. También podría ofrecer sugerencias sobre cómo los médicos humanos deben interactuar con los pacientes en línea.

Puedes leer el documento de estudio aquí.

¡Saludos humanoides! ¿Sabías que tenemos un boletín informativo sobre IA? Puedes suscribirte aquí mismo.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad