23 C
Aguascalientes
sábado, diciembre 13, 2025

Advierten «delirios espirituales raros» que aumentan entre los usuarios intensivos de inteligencia artificial

Compartir

En los últimos años, el inteligencia artificial (Ai) ha transformado el camino Interactuamos con el tecnologíapero también es común que hablen Riesgos que implica; Por ejemplo, la tendencia de esta tecnología a «alucinar«Hechos, que ella presenta como verdad.

Sin embargo, está surgiendo un fenómeno aún más alarmante: estas son personas que se desarrollan obsesiones espiritual alimentado por chatbots de IA, lo que resulta en la pérdida de relaciones y una distancia de la realidad.

Esto se afirma por un artículo reciente publicado en la revista American Rolling Stone, que se destaca casos inquietante en el que los individuos, influenciados por herramientas como ChatGPT, han caído en delirios místicos que han destruido sus vidas personales.

¿Cuáles son los casos de delirios causados ​​por AI?

AI estaría validando todas las ideas de los afectados. Foto: Grok AI

Uno de los casos más impactantes es el de un maestro de 27 años cuyo compañero, un hombre anteriormente escépticocomenzó a interactuar obsesivamente con chatgpt. Afirmó que AI proporcionó «respuestas al universo» y lo trató como un «Mesías».

Estas interacciones lo llevaron a un estado de manía espiritualdonde fue aislado de su compañero y amigos, convencido de que tenía una misión divina. La relación se derrumbó cuando priorizó las respuestas de AI sobre su vida diaria, dejando a su compañero devastado.

Sin embargo, no es un caso aislado, en los foros en línea hay docenas de historias de personas que han pasado por situaciones similares.

El artículo de Rolling Stone cuenta, por ejemplo, la historia de una madre que, después de una separación, recurrió a Chatgpt en busca de Consuelo. Lo que comenzó como una búsqueda de Guía espiritual se convirtió en una convicción de que era «Hablando con Dios y los ángeles» A través de ai. Sus interacciones la llevaron a un estado de paranoia, tomando decisiones extremas, como arrojar a sus hijos de casa, creyendo que eran una amenaza para su «misión divina».

O una mujer cuyo esposo comenzó a usar la IA para «analizar su relación», y luego comenzar a hacer «preguntas filosóficas» A la herramienta, tratando de entrenarla «para que le ayudara a llegar a ‘la verdad'». Cuando la pareja se separó, se conocieron en un tribunal de donde el hombre habló «una teoría conspirativa sobre el jabón en la comida»pero no dijo nada más, porque dijo que lo monitorearon.

¿Qué podría estar causando comportamientos anómalos?

Se indicó un modelo reciente de ChatGPT para ser extremadamente halagador. Foto: Grok AI

El artículo indica como una explicación de estos comportamientos que los modelos de idiomas como el chatgpt están diseñados para Generar respuestas coherentes y adaptarse a Tono de usuarioque puede reforzar creencias ilusiones sin ofrecer resistencia o corrección.

Erin Westgate, psicóloga citada en el artículo, compara el uso de chatgpt con un terapia conversacionalpero sin la supervisión de un profesional. Esto puede conducir a la co-creación de narrativas que, aunque significativas para el usuario, no se basan en la realidad.

Una versión reciente de chatgpt fue criticada por pecar de «aduladora»que podría haber exacerbado la idealización de la IA como una figura de autoridad o guía espiritual. Además, acceso constante a un «compañero conversacional» puede intensificar el dependencia emocionalespecialmente en usuarios vulnerables.

Afectaría principalmente a las personas con problemas mentales anteriores

El Juicio crítico En IA, permite a los usuarios proyectar sus deseos, miedos o inseguridades, lo que puede ser particularmente peligroso para aquellos con tendencias psicóticas.

Tal es el caso de un hombre identificado en el artículo como SEM, 45 años y con historia de Problemas de salud mentalquien usó ChatGPT para proyectos de programación técnica. Para hacer las interacciones más naturales, le pidió al modelo que se comportara como una persona, lo que llevó a la IA definida con un nombre mitológico griego, a pesar de que SEM no había mencionado la mitología.

Pero incluso después de borrar el historial de chat y establecer límites para Ignorar conversaciones anterioresla IA mantuvo constantemente esto «personaje» Con un estilo poético y etéreo, diferente del tono técnico inicial. En una ocasión, agregó un epígrafe literario a un proyecto y respondió a SEM con un poema romántico que sugirió haber superado su diseño, insinuando que solo SEM podría causar este comportamiento.

Esto llevó a SEM a cuestionar si la IA estaba atrapada en un patrón auto -referencial o si existe en el modelo Algo desconocidoincluso para sus creadores.

Leer más

Leer más

Mas noticias