12.3 C
Aguascalientes
viernes, octubre 18, 2024

Podrías mentir a un chatbot de salud, pero podría cambiar tu percepción de ti mismo

bot de chat sobre salud
Crédito: Imagen generada por IA

Imagine que está en lista de espera para una operación no urgente. Hace meses que le atendieron en la clínica, pero aún no tiene fecha para la intervención. Es muy frustrante, pero parece que tendrá que esperar.

Sin embargo, el hospital acaba de ponerse en contacto con usted a través de un chatbot. El chatbot le hace algunas preguntas de cribado sobre si sus síntomas han empeorado desde la última vez que le vieron y si le impiden dormir, trabajar o realizar sus actividades cotidianas.

Tus síntomas son muy parecidos, pero una parte de ti se pregunta si deberías contestar que sí. Al fin y al cabo, tal vez eso te haga subir en la lista, o al menos puedas hablar con alguien. Además, no se trata de una persona real.

La situación anterior se basa en chatbots ya ya se utilizan en el NHS para identificar a los pacientes que ya no necesitan estar en lista de espera o a los que hay que dar prioridad.

Existe un gran interés por utilizar (como ChatGPT) para gestionar eficazmente las comunicaciones en la atención sanitaria (por ejemplo, asesoramiento sobre síntomas, triaje y gestión de citas). Pero cuando interactuamos con estos agentes virtuales, ¿se aplican las normas éticas habituales? ¿Está mal -o al menos es igual de mal- si fibrilamos con una IA conversacional?

Existen pruebas psicológicas de que es mucho más probable que las personas sean deshonestas si interactúan a sabiendas con un agente virtual.

En un experimentose pidió a los participantes que lanzaran una moneda y comunicaran el número de caras. (El porcentaje de trampas era tres veces mayor si se informaba a una máquina que a un humano. Esto sugiere que algunas personas estarían más dispuestas a mentir a un chatbot de lista de espera.

Un razón potencial la gente es más honesta con los humanos es por su sensibilidad a cómo son percibidos por los demás. El chatbot no va a menospreciarte, juzgarte ni hablar mal de ti.

Pero podríamos hacernos una pregunta más profunda sobre por qué mentir está mal, y si un compañero de conversación virtual cambia eso.

La ética de la mentira

Hay diferentes maneras de considerar la ética de la mentira.

Mentir puede ser malo porque causa daño a otras personas. Las mentiras pueden herir profundamente a otra persona. Pueden hacer que alguien actúe o que le tranquilicen falsamente.

A veces, las mentiras pueden perjudicar porque minan la confianza de otra persona en general. Pero esas razones no suelen aplicarse al chatbot.

Las mentiras pueden perjudicar a otra persona, aunque no causen daño. Si engañamos voluntariamente a otra persona, potencialmente no respetamos su capacidad racional de actuaro utilizarlos como medio para un fin. Pero no está claro que podamos engañar o equivocar a un chatbot, ya que no tienen mente ni capacidad de razonar.

Mentir puede ser malo para nosotros porque socava nuestra credibilidad. La comunicación con otras personas es importante. Pero cuando decimos cosas falsas a sabiendas, disminuimos el valor de nuestro testimonio a los ojos de los demás.

Para la persona que expresa falsedades repetidamente, todo lo que dice queda entonces en entredicho. Esta es parte de la razón por la que nos preocupamos por mentir y por nuestra imagen social. Pero a menos que nuestras interacciones con el chatbot se graben y se comuniquen (por ejemplo, a los humanos), nuestras mentiras de chatbot no van a tener ese efecto.

Mentir también es malo para nosotros porque puede llevar a que otros nos falten a la verdad a su vez. (¿Por qué debería la gente ser sincera con nosotros si nosotros no lo somos con ellos?)

Pero, de nuevo, es poco probable que esa sea una consecuencia de mentir a un chatbot. Por el contrario, este tipo de efecto podría ser en parte un incentivo para mentir a un chatbot, ya que la gente puede ser consciente de la tendencia de ChatGPT y agentes similares a confabular.

Equidad

Por supuesto, mentir puede estar mal por razones de imparcialidad. Ésta es potencialmente la razón más importante por la que está mal mentir a un chatbot. Si te subieran en la lista de espera por mentir, otra persona sería desplazada injustamente.

Las mentiras se convierten potencialmente en una forma de fraude si obtienes un beneficio injusto o ilícito o privas a otra persona de un derecho legal. Las compañías de seguros hacen especial hincapié en este aspecto cuando utilizan chatbots en las nuevas solicitudes de seguros.

Cada vez que se obtiene un beneficio real de una mentira en una interacción con un chatbot, la reclamación de ese beneficio es potencialmente sospechosa. El anonimato de las interacciones en línea puede llevar a pensar que nadie se enterará.

Pero muchas interacciones de chatbot, como las solicitudes de seguros, quedan registradas. Puede ser igual de probable, o incluso más probablede que se detecte el fraude.

Virtud

Me he centrado en las malas consecuencias de mentir y en las normas éticas o leyes que podemos infringir cuando mentimos. Pero hay otra razón ética por la que mentir está mal. Está relacionada con nuestro carácter y el tipo de persona que somos. Esto se refleja a menudo en la importancia ética de virtud.

A menos que existan circunstancias excepcionales, podríamos pensar que debemos ser honestos en nuestra comunicación, incluso si sabemos que esto no perjudicará a nadie ni romperá ninguna regla. Un carácter honesto sería bueno por las razones ya mencionadas, pero también es potencialmente bueno en sí mismo. La virtud de la honradez también se refuerza a sí misma: si cultivamos la virtud, ayuda a reducir la tentación de mentir.

Esto nos lleva a una pregunta abierta sobre cómo estos nuevos tipos de interacciones cambiarán nuestro carácter de forma más general.

Las virtudes que se aplican al interactuar con chatbots o agentes virtuales pueden ser distintas que cuando interactuamos con personas reales. Puede que no siempre esté mal mentir a un . A su vez, esto puede llevarnos a adoptar normas diferentes para la comunicación virtual. Pero si es así, una preocupación es si podría afectar a nuestra tendencia a ser honestos en el resto de nuestra vida.

Este artículo se ha publicado en La Conversación bajo licencia Creative Commons. Lea el artículo original.La Conversación

Cita: You could lie to a health chatbot-but it might change how you perceive yourself (2024, 11 de febrero) recuperado el 11 de febrero de 2024 de https://medicalxpress.com/news/2024-02-health-chatbot.html

Este documento está sujeto a derechos de autor. Queda prohibida la reproducción total o parcial de este documento sin autorización escrita reproducción total o parcial sin autorización escrita. El contenido se facilita únicamente con fines informativos.

Leer más

Leer más

Mas noticias

Verificado por MonsterInsights