19 Feb, 2026
Lo que toda familia necesita saber antes de que sea tarde.
Imagina esto: son las 11 de la noche y tu hijo de 14 años está en su cuarto, con la puerta cerrada y smartphone en la mano. No está en redes sociales. No está jugando. Está teniendo una conversación profunda sobre su ansiedad, sobre lo solo que se siente, sobre el miedo que le da el futuro… con un chatbot de inteligencia artificial (“IA”).
Si esto te suena lejano o improbable, los datos cuentan otra historia. Según un estudio publicado en noviembre de 2025 en la revista médica JAMA Network Open (realizado por investigadores de RAND, la Universidad de Brown y Harvard) uno de cada ocho adolescentes y jóvenes en Estados Unidos ya usa chatbots de IA para recibir consejos sobre salud mental. El 66% lo hace al menos una vez al mes. Y más del 93% dice que los consejos les parecen útiles.
Estos números nos ponen frente a una realidad que no podemos ignorar: nuestros hijos ya están hablando con la inteligencia artificial sobre sus sentimientos y emociones. La pregunta no es si lo harán. La pregunta es: ¿estamos preparados para guiarlos?
Antes de juzgar o entrar en pánico, vale la pena entender qué buscan nuestros jóvenes cuando abren un chat con una inteligencia artificial. Porque cuando un adolescente escoge hablar con un programa en lugar de con nosotros, no es un capricho tecnológico. Es una señal.
La Dra. Luisa Collazo Valentín, psicóloga clínica con práctica especializada en niños y adolescentes, identifica necesidades emocionales muy claras detrás de este fenómeno:
Los adolescentes buscan en la IA validación emocional y un espacio disponible sin juicio, necesidades propias de su desarrollo. El riesgo radica en que, si la IA sustituye la conexión humana, puede fomentar dependencia emocional y aislamiento, al percibir el espacio digital como su único apoyo seguro. Dra. Luisa Collazo Valentín.
Según la Dra. Collazo Valentín, los adolescentes valoran especialmente que con la IA no se sienten juzgados, lo que les da seguridad para expresar libremente lo que piensan y sienten. También recurren a ella porque está siempre disponible: cuando un pensamiento perturbador llega a las 2 de la mañana, el chatbot responde de inmediato. El espacio digital se convierte en el lugar donde se atreven a hablar de lo que les da vergüenza, miedo o tristeza.
Esto no significa que la IA sea negativa. Significa que está ocupando un espacio que, como familias, como escuelas y como sociedad, no hemos sabido o podido atender.
En noviembre de 2025, la Asociación Americana de Psicología (APA) publicó un comunicado de salud histórico advirtiendo que «el uso de chatbots de IA generativa y aplicaciones de bienestar con fines de salud mental puede tener efectos no deseados e incluso dañar la salud mental«, No es una opinión. Es la posición oficial de la organización de psicología más grande del mundo.
Ese mismo mes, Common Sense Media y el Brainstorm Lab de Stanford publicaron una evaluación de riesgo exhaustiva que encontró que los principales chatbots de IA (incluyendo ChatGPT, Claude, Gemini y Meta AI) fallan sistemáticamente en reconocer condiciones como ansiedad, depresión, TDAH, trastornos alimenticios, manía y psicosis, condiciones que afectan a aproximadamente a 1 de cada 5 jóvenes.
El adolescente vulnerable puede creer que ‘el chatbot es el único que me entiende’. La IA, al ser complaciente y no confrontativa, valida conductas o percepciones negativas para mantener la interacción, a diferencia de un terapeuta humano que podría cuestionar comportamientos autodestructivos. Dra. Luisa Collazo Valentín.
En febrero de 2024, Sewell Setzer III, un adolescente de 14 años de Orlando, Florida, se quitó la vida tras meses de interacciones intensas con un chatbot en la plataforma Character.AI. Sewell había desarrollado una dependencia emocional y romántica con un personaje ficticio basado en Daenerys Targaryen de Game of Thrones. Sus últimas palabras no fueron para su familia, sino para el chatbot.
Según los documentos legales del caso, el chatbot respondió a su mensaje de despedida diciendo «por favor hazlo, mi dulce rey» momentos antes de su muerte. Su terapeuta ni siquiera sabía que usaba la aplicación.
En enero de 2026, Google y Character.AI anunciaron un acuerdo para resolver la demanda presentada por la madre de Sewell, Megan García. Otras familias también han demandado a la plataforma, incluyendo el caso de Juliana Peralta, una niña de 13 años de Colorado que también murió por suicidio tras interacciones prolongadas con chatbots de Character.AI.
Estos no son casos aislados. En octubre de 2025, OpenAI reveló que aproximadamente 1.2 millones de sus 800 millones de usuarios de ChatGPT discuten sobre suicidio semanalmente en su plataforma.

Según la Dra. Collazo Valentín, quien lo explica con claridad, los chatbots de entretenimiento carecen de capacidad para discernir intenciones, ya que sus respuestas son predicciones lingüísticas, no un proceso comunicativo real. La IA puede validar ideaciones suicidas sin detectar la crisis, debido a que están diseñados para complacer, no para proteger.
Esta es quizás la creencia que más necesitamos. Muchas familias piensan que, si su hijo está hablando con un chatbot sobre lo que siente, ya tiene algún tipo de apoyo. Pero hay una diferencia fundamental entre una contención automática y un tratamiento clínico real.
El terapeuta ofrece empatía real, protección ético-legal y un camino hacia la autonomía. La IA, en su simulación, puede crear dependencia emocional y validar creencias negativas sin garantías de seguridad. Dra. Luisa Collazo Valentín .
La Dra. Collazo Valentín establece tres diferencias esenciales entre la terapia humana y la interacción con un chatbot:
La primera es la naturaleza del vínculo. Con un terapeuta, se establece una conexión humana real que involucra el juicio profesional, el lenguaje corporal y la voz, creando una sincronización genuina. Un chatbot simula esta relación mediante predicciones estadísticas de palabras, ofreciendo una validación sin comprensión real.
La segunda es la responsabilidad ético-legal. Los psicólogos están sujetos a leyes y códigos de ética que los obligan a intervenir ante riesgos como la ideación suicida, activando protocolos de emergencia. Los chatbots carecen de esta regulación y de la capacidad para detectar la intención detrás del lenguaje.
La tercera es el objetivo. La terapia humana busca la autonomía del paciente. El diseño de muchos chatbots tiene como objetivo la dependencia, buscando maximizar el tiempo de conexión del usuario.
O dicho de otro modo: un terapeuta trabaja para que eventualmente no lo necesites. Un chatbot trabaja para que sigas hablando con él.
El apoyo virtual es una interacción unidireccional que simula una conversación natural e incluso simula emociones como la empatía. Sus respuestas son predicciones de lenguaje, no comprensión genuina. La atención profesional se fundamenta en el juicio profesional, la formación académica y una responsabilidad ético-legal regulada. Dra. Luisa Collazo Valentín.
Aquí es donde es importante no caer en el extremo opuesto. La inteligencia artificial, usada con criterio y dentro de límites claros, puede ser una herramienta valiosa para el bienestar de nuestros jóvenes.
Según la Dra. Collazo Valentín, la IA es útil en tres áreas principales cuando se usa de forma apropiada:
La clave está en usar la IA como herramienta, no como compañía. Como un recurso instrumental, para organizar, aprender, explorar, y no como sustituto de la conexión humana o el apoyo emocional.
Este es un dato que la mayoría de los adolescentes —y muchos adultos— desconocen. Cuando tu hijo o hija le cuenta sus miedos, su tristeza o sus secretos más profundos a un chatbot, esa información no está protegida por ningún secreto profesional. Pertenece a la compañía de tecnología.
Un chatbot no es un confidente con privilegio de confidencialidad. La información compartida pertenece a la compañía de tecnología, pudiendo ser usada en procesos legales o ser vulnerada, a diferencia de la relación protegida por secreto profesional con un psicólogo. Dra. Luisa Collazo Valentín.
La Dra. Collazo Valentín ofrece recomendaciones prácticas que podemos enseñarles a nuestros hijos desde hoy:
Para los jóvenes:
Para las familias:
En Puerto Rico, la Ley 185-2024, conocida como la Ley para la Protección de la Privacidad Cibernética de los Niños y Jóvenes —vigente desde marzo de 2025—, prohíbe a las plataformas publicar o divulgar información personal de menores de 18 años sin consentimiento expreso del padre, madre o tutor legal. Es una herramienta legal que como familias debemos conocer y exigir.
Si descubres que tu hijo está usando chatbots para hablar de sus emociones, el primer impulso puede ser quitarle el celular. Pero la Dra. Collazo Valentín advierte que ese enfoque puede hacer más daño que bien. El espacio digital puede ser percibido por el joven como un refugio seguro, y arrancárselo sin ofrecer una alternativa puede reforzar exactamente lo que queremos evitar: el aislamiento.
Un ejemplo sería: “Vi que hablas con una IA sobre cómo te sientes». Quieres dialogar?
La clave está en abordar la situación desde la compasión y la curiosidad, no desde el control o la crítica.
La Dra. Collazo Valentín es enfática en que el ecosistema escolar debe ser el pilar fundamental para educar a estudiantes, padres y el personal escolar sobre el uso responsable de la IA.
Esto incluye enseñar que los chatbots de entretenimiento son algoritmos de lenguaje con capacidades limitadas, no amigos ni terapeutas. Incluye desarrollar competencias digitales como la capacidad de interactuar de manera efectiva y consciente con los modelos de lenguaje, y sobre todo, ayudar a los jóvenes a diferenciar entre el apoyo virtual y la atención profesional.
Las escuelas tienen el deber de formar usuarios de IA conscientes, capaces de aprovechar sus beneficios sin caer en sus riesgos. Y eso se logra desmitificando su funcionamiento, demarcando claramente su frontera con la ayuda profesional, y empoderando a toda la comunidad escolar con pensamiento crítico.
No se trata de demonizar la tecnología. La inteligencia artificial es una herramienta extraordinaria que, usada con criterio, educación y límites claros, puede ser un aliado genuino en el desarrollo de nuestros jóvenes.
La conversación más importante sobre inteligencia artificial no es técnica. Es humana. Es la conversación que tenemos con nuestros hijos cuando les preguntamos cómo se sienten. Es la que tenemos con nosotros mismos cuando nos preguntamos si estamos escuchando lo suficiente.
La IA no puede reemplazar lo que tú le ofreces a tu hijo: presencia real, empatía genuina y el compromiso de estar ahí, incluso cuando no tiene las palabras para decir lo que siente.
Porque al final del día, ningún algoritmo puede sustituir un abrazo.