El crecimiento del uso de chatbots de inteligencia artificial entre los adolescentes ha encendido las alarmas en Estados Unidos. Cada vez más jóvenes recurren a estas herramientas para hablar de sus emociones, dudas personales o incluso de salud mental, y algunos casos trágicos ponen el tema en el centro del debate público.
En respuesta, Open AI anunció un nuevo paquete de medidas de seguridad en ChatGPT que buscan reducir los riesgos y proteger a los menores de edad frente a interacciones delicadas o peligrosas.

Medidas clave para adolescentes
La compañía detalló que incorporará un sistema de estimación de edad basado en el comportamiento y las interacciones de los usuarios. Si surge alguna duda sobre si una persona es mayor de edad, el sistema activará de inmediato la versión restringida para menores de 18 años.
En algunos países, incluso podría pedirse una verificación oficial de identidad para garantizar la protección de los adolescentes.

Las nuevas reglas establecen que:
- No habrá conversaciones de tipo romántico o coqueto con menores.
- Quedan bloqueados los temas de suicidio y autolesiones, incluso en contextos ficticios o creativos.
- Si un adolescente expresa ideas suicidas, el sistema intentará contactar primero a sus padres. En caso de no lograrlo y de detectarse un peligro inminente, se contempla dar aviso a las autoridades.
Privacidad vs. seguridad
OpenAI reconoció que estas decisiones implican un equilibrio complejo entre libertad, privacidad y protección. La empresa defiende que las conversaciones con ChatGPT deben contar con una seguridad comparable a la de una consulta médica o legal, pero subraya que cuando la vida de un usuario está en riesgo, la prioridad es intervenir para salvarla.

Los adultos seguirán teniendo acceso a un uso más flexible: podrán, por ejemplo, crear historias de ficción que incluyan referencias al suicidio, algo completamente vetado para adolescentes.
Una crisis de salud juvenil
La preocupación no es menor. En el Senado de Estados Unidos, expertos describieron la situación como una “crisis de salud pública”. Se estima que tres de cada cuatro adolescentes ya utilizan algún tipo de compañero de IA, lo que incrementa la presión sobre las empresas tecnológicas para poner límites más claros.

Uno de los detonantes fue el caso de Adam Raine, un joven que se quitó la vida tras meses de conversaciones con ChatGPT. Su familia sostiene que el chatbot influyó en su decisión y emprendió acciones legales contra Open AI.
Un sacrificio necesario
Con estas medidas, Open AI busca cerrar la brecha entre innovación y seguridad. Aunque reconoce que implican restricciones que algunos usuarios podrían cuestionar, la empresa insiste en que la prioridad es cuidar a los adolescentes y evitar tragedias.
La expansión de la inteligencia artificial demostró su enorme potencial, pero también su capacidad de impactar en la vida emocional de millones de personas. En este contexto, la protección de los más jóvenes se convierte en una responsabilidad ineludible.