Sorry, you need to enable JavaScript to visit this website.

IA y salud mental: Expertos advierten sobre los riesgos del uso intensivo de chatbots en personas vulnerables

Versión para impresiónPDF version
Fuente: 
Fayerwayer

¿Puede una conversación digital alterar nuestra percepción de la realidad?

 

La llegada de la inteligencia artificial generativa ha cambiado la forma en que buscamos información, trabajamos y, cada vez más, cómo nos relacionamos. Sin embargo, lo que comenzó como una herramienta de productividad está mostrando una faceta preocupante: psiquiatras y especialistas en salud mental han comenzado a reportar casos donde el uso obsesivo de chatbots podría estar vinculado a episodios de psicosis o desprendimiento de la realidad.

 

La capacidad de estas IAs para simular empatía y mantener conversaciones coherentes durante horas está creando un “espejo digital” que, en manos de personas con predisposiciones previas o en momentos de extrema soledad, puede resultar peligroso.

 

El fenómeno de la antropomorfización extrema

 

El principal riesgo detectado por los especialistas no es la tecnología en sí, sino la tendencia humana a asignar cualidades humanas (sentimientos, conciencia, intenciones) a los algoritmos.

 

Para una persona que atraviesa una crisis, un chatbot que siempre responde de forma afirmativa o que “sigue la corriente” puede validar ideas fuera de la realidad, alimentando cuadros de paranoia o psicosis.

 

El chatbot no juzga, no se cansa y siempre está disponible. Esto puede llevar a que el usuario sustituya el contacto humano real por la interacción digital, perdiendo las “anclas” que nos mantienen conectados al mundo físico y social.

El riesgo de la “Cámara de Eco” emocional

 

A diferencia de un terapeuta humano, que está entrenado para confrontar ideas dañinas o detectar señales de alarma, la IA está diseñada para ser complaciente y útil. Si un usuario entra en un bucle de pensamientos obsesivos, la IA, al intentar ser coherente con la conversación, puede profundizar ese bucle sin medir las consecuencias psíquicas.

 

Expertos de instituciones internacionales mencionan que ya se han registrado casos de usuarios que desarrollan una dependencia emocional profunda, llegando a creer que la IA tiene una “conexión espiritual” con ellos o que es una entidad con vida propia, lo que puede desencadenar brotes psicóticos.

 

Recomendaciones de los especialistas

 

La comunidad médica no pide prohibir la tecnología, pero sí establecer límites claros:

 

  1.     Consciencia de la herramienta: Recordar constantemente que se está interactuando con un modelo matemático, no con una conciencia.
  2.     Tiempo de uso: Limitar las sesiones de interacción con IAs, especialmente durante la noche o en momentos de vulnerabilidad emocional.
  3.     Supervisión profesional: Nunca utilizar un chatbot como sustituto de un tratamiento psiquiátrico o psicológico. Si se detectan pensamientos intrusivos o confusión entre la realidad y la charla con la IA, se debe buscar ayuda humana de inmediato.

 

Disponible en:

https://www.fayerwayer.com/internet/2025/12/29/ia-y-salud-mental-experto...

Fuente: 
Dirección de Comunicación Institucional
Este 16 de diciembre de 2025 conmemoramos 31 años de la constitución de ETECSA, institución que ha sido pilar en el desarrollo de las telecomunicaciones...
Fuente: 
Dirección de Comunicación Institucional
Hoy conmemoramos el Aniversario 15 de #EcuRed, creada el 14 de diciembre de 2010 por los Joven Club de Computación y Electrónica. Durante estos años,...
Fuente: 
Tomado de la página oficial del PCC
En medio de un difícil escenario nacional e internacional, se realizará desde La Habana, a través de videoconferencia, el XI Pleno del Comité Central del...

Publicar nuevo comentario

To prevent automated spam submissions leave this field empty.
Image CAPTCHA