Sorry, you need to enable JavaScript to visit this website.

IA y salud mental: Expertos advierten sobre los riesgos del uso intensivo de chatbots en personas vulnerables

Versión para impresiónPDF version
Fuente: 
Fayerwayer

¿Puede una conversación digital alterar nuestra percepción de la realidad?

 

La llegada de la inteligencia artificial generativa ha cambiado la forma en que buscamos información, trabajamos y, cada vez más, cómo nos relacionamos. Sin embargo, lo que comenzó como una herramienta de productividad está mostrando una faceta preocupante: psiquiatras y especialistas en salud mental han comenzado a reportar casos donde el uso obsesivo de chatbots podría estar vinculado a episodios de psicosis o desprendimiento de la realidad.

 

La capacidad de estas IAs para simular empatía y mantener conversaciones coherentes durante horas está creando un “espejo digital” que, en manos de personas con predisposiciones previas o en momentos de extrema soledad, puede resultar peligroso.

 

El fenómeno de la antropomorfización extrema

 

El principal riesgo detectado por los especialistas no es la tecnología en sí, sino la tendencia humana a asignar cualidades humanas (sentimientos, conciencia, intenciones) a los algoritmos.

 

Para una persona que atraviesa una crisis, un chatbot que siempre responde de forma afirmativa o que “sigue la corriente” puede validar ideas fuera de la realidad, alimentando cuadros de paranoia o psicosis.

 

El chatbot no juzga, no se cansa y siempre está disponible. Esto puede llevar a que el usuario sustituya el contacto humano real por la interacción digital, perdiendo las “anclas” que nos mantienen conectados al mundo físico y social.

El riesgo de la “Cámara de Eco” emocional

 

A diferencia de un terapeuta humano, que está entrenado para confrontar ideas dañinas o detectar señales de alarma, la IA está diseñada para ser complaciente y útil. Si un usuario entra en un bucle de pensamientos obsesivos, la IA, al intentar ser coherente con la conversación, puede profundizar ese bucle sin medir las consecuencias psíquicas.

 

Expertos de instituciones internacionales mencionan que ya se han registrado casos de usuarios que desarrollan una dependencia emocional profunda, llegando a creer que la IA tiene una “conexión espiritual” con ellos o que es una entidad con vida propia, lo que puede desencadenar brotes psicóticos.

 

Recomendaciones de los especialistas

 

La comunidad médica no pide prohibir la tecnología, pero sí establecer límites claros:

 

  1.     Consciencia de la herramienta: Recordar constantemente que se está interactuando con un modelo matemático, no con una conciencia.
  2.     Tiempo de uso: Limitar las sesiones de interacción con IAs, especialmente durante la noche o en momentos de vulnerabilidad emocional.
  3.     Supervisión profesional: Nunca utilizar un chatbot como sustituto de un tratamiento psiquiátrico o psicológico. Si se detectan pensamientos intrusivos o confusión entre la realidad y la charla con la IA, se debe buscar ayuda humana de inmediato.

 

Disponible en:

https://www.fayerwayer.com/internet/2025/12/29/ia-y-salud-mental-experto...

Ciberseguridad: fundamental para preservar la paz
Fuente: 
Tomado de Cubasí
La ciberseguridad es parte de la seguridad nacional de un estado, y es una voluntad política de Cuba llevar estos dos principios de forma paralela...
Ministro de Comunicaciones, el Foro Internacional por la Utilización de las Tecnologías de la Información y las Comunicaciones con Fines Pacíficos
Fuente: 
Dirección de Comunicación Institucional del Mincom
El ministro de Comunicaciones de Cuba, Jorge Luis Perdomo Di-Lella expresó en la clausura del Foro Internacional por la Utilización de las Tecnologías de la...
Relación de dispositivos RLAN para personas naturales
Fuente: 
Dirección de Comunicación Institucional del Mincom
Manténgase actualizado, a través del sitio web institucional del Ministerio de Comunicaciones http://www.mincom.gob.cu sobre la Relación de algunos de los dispositivos para redes inalámbricas de...

Publicar nuevo comentario

To prevent automated spam submissions leave this field empty.
Image CAPTCHA