Sorry, you need to enable JavaScript to visit this website.

IA y salud mental: Expertos advierten sobre los riesgos del uso intensivo de chatbots en personas vulnerables

Versión para impresiónPDF version
Source: 
Fayerwayer

¿Puede una conversación digital alterar nuestra percepción de la realidad?

 

La llegada de la inteligencia artificial generativa ha cambiado la forma en que buscamos información, trabajamos y, cada vez más, cómo nos relacionamos. Sin embargo, lo que comenzó como una herramienta de productividad está mostrando una faceta preocupante: psiquiatras y especialistas en salud mental han comenzado a reportar casos donde el uso obsesivo de chatbots podría estar vinculado a episodios de psicosis o desprendimiento de la realidad.

 

La capacidad de estas IAs para simular empatía y mantener conversaciones coherentes durante horas está creando un “espejo digital” que, en manos de personas con predisposiciones previas o en momentos de extrema soledad, puede resultar peligroso.

 

El fenómeno de la antropomorfización extrema

 

El principal riesgo detectado por los especialistas no es la tecnología en sí, sino la tendencia humana a asignar cualidades humanas (sentimientos, conciencia, intenciones) a los algoritmos.

 

Para una persona que atraviesa una crisis, un chatbot que siempre responde de forma afirmativa o que “sigue la corriente” puede validar ideas fuera de la realidad, alimentando cuadros de paranoia o psicosis.

 

El chatbot no juzga, no se cansa y siempre está disponible. Esto puede llevar a que el usuario sustituya el contacto humano real por la interacción digital, perdiendo las “anclas” que nos mantienen conectados al mundo físico y social.

El riesgo de la “Cámara de Eco” emocional

 

A diferencia de un terapeuta humano, que está entrenado para confrontar ideas dañinas o detectar señales de alarma, la IA está diseñada para ser complaciente y útil. Si un usuario entra en un bucle de pensamientos obsesivos, la IA, al intentar ser coherente con la conversación, puede profundizar ese bucle sin medir las consecuencias psíquicas.

 

Expertos de instituciones internacionales mencionan que ya se han registrado casos de usuarios que desarrollan una dependencia emocional profunda, llegando a creer que la IA tiene una “conexión espiritual” con ellos o que es una entidad con vida propia, lo que puede desencadenar brotes psicóticos.

 

Recomendaciones de los especialistas

 

La comunidad médica no pide prohibir la tecnología, pero sí establecer límites claros:

 

  1.     Consciencia de la herramienta: Recordar constantemente que se está interactuando con un modelo matemático, no con una conciencia.
  2.     Tiempo de uso: Limitar las sesiones de interacción con IAs, especialmente durante la noche o en momentos de vulnerabilidad emocional.
  3.     Supervisión profesional: Nunca utilizar un chatbot como sustituto de un tratamiento psiquiátrico o psicológico. Si se detectan pensamientos intrusivos o confusión entre la realidad y la charla con la IA, se debe buscar ayuda humana de inmediato.

 

Disponible en:

https://www.fayerwayer.com/internet/2025/12/29/ia-y-salud-mental-experto...

Source: 
Dirección de Comunicación Institucional
On Sunday, September 25, the Code of Families, approved by the National Assembly of the People's Power last July, will be submitted to a popular...
Source: 
Source Radio Agramonte
The entities of the communications sector in Camagüey are getting ready to begin the process of accountability before the National Assembly of the People's Power...
Source: 
Institutional Communication Offices of Mincom and LACETEL
The Telecommunications Research and Development Institute (LACETEL), with the collaboration of the Information Technology and Communications Business Group (GEIC), on July 1st, launched the Call...

Publicar nuevo comentario

To prevent automated spam submissions leave this field empty.
Image CAPTCHA