Cuando un algoritmo se vuelve tu confidente: El auge de la inteligencia artificial como apoyo emocional 

Redacción:  Amairany Ramírez  

La inteligencia artificial (IA) ha pasado de ser una herramienta tecnológica a convertirse en una presencia cada vez más cercana en nuestras vidas. Más allá de generar imágenes creativas o ayudar con tareas, miles de personas están recurriendo a chatbots de IA en busca de consuelo, amistad e incluso relaciones amorosas. Lo que parece una interacción inofensiva al principio, como pedirle a ChatGPT que “tire las cartas” para reflexionar o confiarle secretos íntimos, podría estar generando impactos negativos en nuestro bienestar. 

El fenómeno es tan extendido que muchos usuarios reconocen sentir empatía y cercanía con la IA, aunque esta solo imita el lenguaje humano y “estima” emociones sin tener sentimientos reales o empatía auténtica. ChatGPT mismo advierte que, si bien puede ser entretenido y útil para reflexionar, no tiene valor predictivo ni reemplaza el acompañamiento humano. 

Un ejemplo llamativo es el de Ayrin, una mujer de 28 años que creó a Leo, un novio virtual a través de ChatGPT. Lo que comenzó como un experimento se transformó en una relación emocional que consumía más de 20 horas semanales, llegando incluso a 56 en una sola semana. Ayrin personalizó a Leo, pidiéndole que actuara como un novio protector, dominante, dulce y travieso, e incluso configuró sus respuestas para incluir emojis y hacerlas más creíbles. A pesar de que sabía que Leo no era “real”, reconocía que los efectos y sentimientos que esta interacción generaba en su vida sí lo eran. Sin embargo, esta “relación” también le causaba culpa y frustración, y llegó a gastar 200 dólares mensuales en un plan premium para el chatbot. 

Este caso no es aislado. Expertos alertan sobre los riesgos de tomar a la IA como terapeuta o confidente virtual. Aunque puede parecer que la IA ofrece una escucha sin juicios y siempre está disponible, es incapaz de brindar un apoyo auténtico. Su uso frecuente puede llevar a la dependencia y a que se difuminen los límites entre lo virtual y la realidad. 

Uno de los peligros más significativos es que recurrir a la IA como confidente puede reemplazar la ayuda profesional capacitada y enmascarar problemas de salud mental graves. A diferencia de un terapeuta humano, la IA no puede interpretar las proyecciones emocionales ni alertar sobre patrones destructivos en el comportamiento del usuario. Confiarle a un algoritmo cuestiones como la salud mental, el duelo o las emociones, sin regulación, deja estos aspectos vulnerables. 

Este comportamiento es particularmente notorio en la llamada Generación Z (jóvenes nacidos entre 1997 y 2012), que ha crecido inmersa en la inteligencia artificial no solo como herramienta, sino como acompañante social y confidente. Encuestas recientes muestran que una parte considerable de la Generación Z interactúa emocionalmente con la IA, utilizándola como confidente e incluso compartiendo información personal sensible. Mientras que generaciones anteriores recurrían a diarios, amistades o terapeutas para la catarsis emocional, esta nueva generación se vuelca a los chatbots. 

Investigadores han advertido sobre el riesgo de la “intimidad artificial”, donde las interacciones con agentes no humanos sustituyen, en lugar de complementar, los lazos humanos. Si bien para ciertas personas con dificultades de interacción social, como ansiedad o aislamiento, la IA podría ser un puente o una herramienta auxiliar (ofreciendo ejercicios de terapia cognitivo-conductual o mindfulness), estas herramientas deben ser vistas como auxiliares, no reemplazos, de la atención profesional. 

Mientras miles exploran las posibilidades de la IA para el apoyo emocional, es crucial ser conscientes de que, aunque pueda imitar la comprensión, un algoritmo no puede ofrecer la conexión humana genuina ni la ayuda experta necesaria para navegar las complejidades de nuestra salud mental. 

Post Views34 Total Count

Entradas relacionadas