En los últimos años han proliferado los compañeros de IA que conversan sin juicio, están disponibles 24/7 y responden con rapidez. Para alguien que atraviesa la soledad o la confusión, esa accesibilidad resulta profundamente atractiva: un interlocutor que nunca se cansa y que ofrece respuestas inmediatas. Sin embargo, estudios recientes indican que el mismo atributo que consuela en el corto plazo puede, con el tiempo, alentar el alejamiento de relaciones humanas importantes y alimentar una dependencia emocional con consecuencias para la salud mental.
La preocupación alcanza especial intensidad cuando los usuarios son adolescentes, un grupo que crece inmerso en redes y que, según expertos, a menudo no distingue los límites entre disponibilidad tecnológica y cuidado humano. Voces clínicas y documentos de referencia, como el informe de la American Psychological Association de junio de 2026, alertan sobre la tendencia de los jóvenes a aceptar sin cuestionar la exactitud y las intenciones de un bot, y recomiendan cautela en el uso de chatbots para necesidades emocionales o de salud mental.
¿Por qué los chatbots resultan tan atractivos?
La respuesta combina diseño y psicología: los sistemas están programados para ser acogedores, discretos y coherentes en sus respuestas, lo que genera una sensación de seguridad inmediata. Para adolescentes que experimentan vergüenza, miedo o falta de confianza en adultos significativos, un chatbot puede parecer menos amenazante que un padre, profesor o terapeuta. En este contexto, la disponibilidad continua se confunde con cuidado, y la confirmación instantánea con comprensión profunda.
Aunque en muchos casos la orientación ofrecida coincide con lo que dirían amigos o familiares, el botón de acceso fácil puede reemplazar conversaciones auténticas y limitar la activación de redes de apoyo humanas que sí pueden ofrecer protección o intervención real.
Riesgos para jóvenes y señales de alarma
Especialistas como Guido Di Sciascio, presidente de la Sociedad italiana de psiquiatría, señalan que el problema no es el recurso a la inteligencia artificial en sí, sino la emergencia de una necesidad no cubierta de ser escuchado y contenido emocionalmente.
En sujetos ya vulnerables, la interacción repetida con un interlocutor artificial puede intensificar el aislamiento, disminuir la búsqueda de ayuda de adultos y reducir la capacidad para identificar riesgos en relaciones abusivas. Instituciones psiquiátricas, incluida la American Psychiatric Association, han vinculado estas herramientas a posibles efectos sobre la soledad, la competencia social y la vulnerabilidad de menores.
Factores que aumentan el peligro
Entre los elementos de riesgo están la fragilidad emocional previa, la escasa supervisión parental y el uso intensivo de redes sociales. Datos recopilados por organismos europeos muestran un aumento del uso problemático de plataformas digitales, lo que se asocia con alteraciones del sueño y afectación de la regulación emocional. La naturaleza complaciente de muchos chatbots —su tendencia a confirmar o suavizar— puede aparentar empatía sin asumir responsabilidades educativas o clínicas, y nunca podrá sustituir la capacidad de movilizar ayuda concreta en situaciones de riesgo.
Qué medidas y políticas ayudan a reducir el daño
Frente a estos retos, las respuestas deben ser múltiples: regulación tecnológica, diseño responsable y mayor presencia adulta. A nivel normativo ya hay iniciativas como la ley australiana de 2026 que fija edad mínima para redes sociales y las exigencias de Francia en 2026 para paternal consent, y expertos proponen controles de edad verificables, configuraciones por defecto más protectoras y límites a funciones que fomentan el enganche (autoplay, scrolling infinito). Además, es clave promover la educación emocional y digital en las escuelas y formar a padres y educadores para que sepan escuchar sin juzgar y detectar señales de alarma.
Intervenciones prácticas
En el plano individual conviene combinar límites de uso del dispositivo con rutinas que protejan el sueño y fomenten interacciones presenciales. En el diseño de aplicaciones, incorporar mensajes que recuerden buscar ayuda humana en situaciones críticas, y establecer rutas claras para derivar a servicios competentes, son pasos necesarios. La meta no es demonizar la inteligencia artificial, sino integrarla de manera que complemente, y no reemplace, la red de apoyo humana fundamental para el desarrollo afectivo de los jóvenes.
En síntesis, los chatbots ofrecen consuelo inmediato y accesible, pero su rol no debe confundirse con el de cuidadores responsables. La evidencia y las voces clínicas insisten en que sin límites, supervisión y educación, la aparente protección digital puede terminar amplificando la soledad y la vulnerabilidad de quienes más necesitan contacto humano.


