Sorry, you need to enable JavaScript to visit this website.

IA y salud mental: Expertos advierten sobre los riesgos del uso intensivo de chatbots en personas vulnerables

Versión para impresiónPDF version
Source: 
Fayerwayer

¿Puede una conversación digital alterar nuestra percepción de la realidad?

 

La llegada de la inteligencia artificial generativa ha cambiado la forma en que buscamos información, trabajamos y, cada vez más, cómo nos relacionamos. Sin embargo, lo que comenzó como una herramienta de productividad está mostrando una faceta preocupante: psiquiatras y especialistas en salud mental han comenzado a reportar casos donde el uso obsesivo de chatbots podría estar vinculado a episodios de psicosis o desprendimiento de la realidad.

 

La capacidad de estas IAs para simular empatía y mantener conversaciones coherentes durante horas está creando un “espejo digital” que, en manos de personas con predisposiciones previas o en momentos de extrema soledad, puede resultar peligroso.

 

El fenómeno de la antropomorfización extrema

 

El principal riesgo detectado por los especialistas no es la tecnología en sí, sino la tendencia humana a asignar cualidades humanas (sentimientos, conciencia, intenciones) a los algoritmos.

 

Para una persona que atraviesa una crisis, un chatbot que siempre responde de forma afirmativa o que “sigue la corriente” puede validar ideas fuera de la realidad, alimentando cuadros de paranoia o psicosis.

 

El chatbot no juzga, no se cansa y siempre está disponible. Esto puede llevar a que el usuario sustituya el contacto humano real por la interacción digital, perdiendo las “anclas” que nos mantienen conectados al mundo físico y social.

El riesgo de la “Cámara de Eco” emocional

 

A diferencia de un terapeuta humano, que está entrenado para confrontar ideas dañinas o detectar señales de alarma, la IA está diseñada para ser complaciente y útil. Si un usuario entra en un bucle de pensamientos obsesivos, la IA, al intentar ser coherente con la conversación, puede profundizar ese bucle sin medir las consecuencias psíquicas.

 

Expertos de instituciones internacionales mencionan que ya se han registrado casos de usuarios que desarrollan una dependencia emocional profunda, llegando a creer que la IA tiene una “conexión espiritual” con ellos o que es una entidad con vida propia, lo que puede desencadenar brotes psicóticos.

 

Recomendaciones de los especialistas

 

La comunidad médica no pide prohibir la tecnología, pero sí establecer límites claros:

 

  1.     Consciencia de la herramienta: Recordar constantemente que se está interactuando con un modelo matemático, no con una conciencia.
  2.     Tiempo de uso: Limitar las sesiones de interacción con IAs, especialmente durante la noche o en momentos de vulnerabilidad emocional.
  3.     Supervisión profesional: Nunca utilizar un chatbot como sustituto de un tratamiento psiquiátrico o psicológico. Si se detectan pensamientos intrusivos o confusión entre la realidad y la charla con la IA, se debe buscar ayuda humana de inmediato.

 

Disponible en:

https://www.fayerwayer.com/internet/2025/12/29/ia-y-salud-mental-experto...

started a governmental visit to the province of Matanzas
Source: 
Institutional Communications Office of the Ministry of Communications
The Cuban President, Miguel Díaz-Canel Bermúdez, along with the Cuban Ministers Council, started a governmental visit to the province of Matanzas on April 29th. On...
 Information Technology of the Peoples Republic of China
Source: 
Embajada de Cuba en China
Beijing, April 29th. This morning, at the seat of the Ministry of Industry and Information Technology of the People's Republic of China, the Minister of...
Cyberspace managerial officials
Source: 
Embajada de Cuba en China
Beijing, April 25th, 2019. The Vice-minister of the Cyberspace Management Office of the People's Republic of China, Mr. Yang Xiaowi, welcomed, in the afternoon, the...

Publicar nuevo comentario

To prevent automated spam submissions leave this field empty.
Image CAPTCHA