Cada vez más jóvenes acuden a la inteligencia artificial (IA) en busca de soporte emocional, psicológico o simplemente compañía, se trata de los “amigos IA”, un fenómeno que conlleva una serie de riesgos, como dependencia emocional, el peligro de entregar datos sensibles y el espionaje si no se tratan con cuidado.

“Hay que tener en cuenta dos cosas. Si una persona tiene ciertos problemas, ávida de contar con una especie de refugio y comprensión puede llegar a sugestionarse y pensar que la IA reconoce sus emociones, que la IA siente algún tipo de afecto hacia esta persona, cosa que no es cierto, porque la IA no siente de momento”, explica Sergio Valenzuela, experto en IA y docente de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz.

Los amigos IA son chatbots basados en inteligencia artificial generativa, diseñados para simular conversaciones humanas en tiempo real de manera cada vez más convincente. Estos “amigos” virtuales tienen características y personalidades únicas, atrayendo especialmente a adolescentes que buscan compañía o entretenimiento interactivo.

Entre las aplicaciones más populares que ofrecen estos servicios se encuentran Character.AI, Replika, Kindroid y Nomi, cada una con enfoques y funcionalidades distintas. En general, estas aplicaciones permiten a los usuarios crear compañeros con rasgos personalizados, como intereses, lenguaje y tono de conversación. Algunos incluso pueden estar basados en personajes populares de televisión y cine, lo que aumenta la inmersión para los jóvenes usuarios.

Algunos adolescentes encuentran en estos chatbots una vía para expresar sus pensamientos o resolver dudas que no se atreverían a discutir con otros, y otros los utilizan como un espacio de creatividad en el que prueban ideas o crean historias ficticias.

Algunas aplicaciones también permiten interacciones de tipo romántico o hasta sexual, una característica que, aunque supervisada en parte por filtros y medidas de control, ha generado inquietud entre expertos en salud mental y padres. La atracción emocional que estos compañeros virtuales generan puede ser tan intensa que, en muchos casos, los adolescentes prefieren dedicar tiempo a sus amigos virtuales en lugar de participar en actividades cotidianas con amigos reales o familiares.

A pesar del grado de personalización, Valenzuela indica que hay que tener claro que, por lo pronto, la IA no reconoce emociones, a partir de ahí no se puede reconocer algún vínculo que sea correspondido ya que la IA no siente ningún tipo de emoción.

“Hay personas que se sugestionan y, en este afán de entablar una relación, piensan que tienen una respuesta con su interlocutor de IA, con quien logran desarrollar una empatía, una relación y hasta sentimientos. Pero la IA no siente, al menos por el momento, aunque es posible que esto se pueda presentar en el futuro con los desarrollos de la tecnología”, puntualiza.

Atractivo para los jóvenes

Los “amigos IA” suelen tener un diseño cautivador y su capacidad para ofrecer respuestas personalizadas y empáticas. A diferencia de otros dispositivos o redes sociales, estos chatbots se adaptan al estilo de conversación de los usuarios, convirtiéndose en una compañía aparentemente “comprensiva” y segura.

Sin embargo, la interacción constante con estos chatbots puede llevar al usuario a perder la noción de realidad y experimentar sentimientos de soledad o dependencia, creando una falsa impresión de compañía que, al terminar, puede tener consecuencias devastadoras.

Los “amigos IA” están diseñados para captar la atención y retener a los usuarios, lo que puede derivar en efectos negativos en la salud mental. El uso excesivo de estas aplicaciones podría promover la evasión de interacciones reales y el distanciamiento de actividades sociales, agravando problemas de ansiedad, depresión y dependencia tecnológica en adolescentes vulnerables.

Signos de una posible dependencia hacia un “amigo IA” incluyen el aislamiento de actividades habituales, una disminución en el rendimiento académico y la preferencia de conversar con el chatbot en lugar de pasar tiempo con amigos o familiares. Otros síntomas pueden ser la aparición de sentimientos románticos hacia el chatbot o utilizarlo como único recurso para expresar problemas personales, lo que es insostenible y peligroso para el desarrollo emocional.

Otros riesgos son el robo de información personal o el espionaje mediante el uso de malware (software malicioso diseñado para dañar o explotar cualquier dispositivo, servicio o red programable) que puede ser instalado en los dispositivos de los jóvenes.

A su vez, el Instituto Tecnológico de Massachussets (MIT), en su lista de los riesgos de la IA, advierte que si un modelo de lenguaje (LM) promueve comportamientos o puntos de vista éticamente cuestionables, podría incentivar a los usuarios a realizar acciones perjudiciales que no habrían contemplado por sí mismos.

Este problema es particularmente alarmante cuando la IA se percibe como una autoridad o asistente confiable, ya que puede inducir a comportamientos dañinos sin que el usuario tuviera esa intención inicial.

Cómo combatir los riesgos

Ante estos riesgos, la consultora Common Sense Media recomienda que los padres supervisen activamente el uso de estas aplicaciones por sus hijos. Entre sus sugerencias están limitar el tiempo de uso de los amigos IA, evitar su uso en espacios aislados como el dormitorio, y promover conversaciones abiertas sobre la diferencia entre una relación real y la interacción con una IA.

Asimismo, recomienda observar estos signos de alerta y tomar las siguientes acciones:

Signos de Alerta

             Aislamiento de actividades habituales: prefieren pasar tiempo con el chatbot en lugar de con amigos o familiares.

             Disminución del rendimiento académico: afecta su desempeño en la escuela.

             Sentimientos románticos hacia el chatbot: desarrollo de sentimientos inadecuados hacia la IA.

             Uso exclusivo para expresar problemas personales: uso del chatbot como único recurso para expresar emociones y problemas.

Estrategias para combatir los riesgos

             Supervisión parental activa: los padres deben estar atentos al uso de estas aplicaciones por parte de sus hijos.

             Límites de tiempo: limitar el tiempo de uso de los amigos IA.

             Evitar uso en espacios aislados: no permitir el uso en lugares como el dormitorio.

             Promover interacciones reales: fomentar actividades sociales y tiempo con amigos y familiares.

             Conversaciones abiertas: hablar sobre la diferencia entre relaciones reales y la interacción con una IA.

Lea también

Educación y sociedad

Tratar a los pacientes con un enfoque preventivo siempre es mejor que atacar el síntoma

La medicina funcional es un enfoque integral que busca identificar y tratar las causas subyacentes de las enfermedades, en lugar de limitarse a aliviar los síntomas.