La empresa desarrolladora contempla informar a progenitores o autoridades frente a posibles situaciones críticas en adolescentes que usen la IA [FOTO: generado por IA Gemini]
OpenAI anunció nuevas medidas de seguridad en ChatGPT para adolescentes, con el fin de reducir riesgos de suicidio y promover un uso más seguro de la IA.
OpenAI, la empresa desarrolladora de ChatGPT, anunció un conjunto de medidas que buscan reforzar la seguridad de los adolescentes que utilizan la herramienta. La decisión llega tras el aumento de la preocupación social y mediática por los posibles efectos de la inteligencia artificial en la salud mental de los jóvenes, en especial en casos relacionados con conductas de riesgo y suicidio.
Según la compañía, la nueva política incluye protocolos de detección y reacción ante situaciones críticas. En los casos en que la interacción de un menor con el sistema sugiera riesgo inminente de autolesión o suicidio, el modelo tendrá la capacidad de interrumpir la conversación y activar un sistema de alerta. Este sistema contempla informar primero a los padres o tutores legales y, de no ser posible, a las autoridades competentes.
Uno de los cambios centrales será la implementación de controles más estrictos en las cuentas de adolescentes. ChatGPT podrá reconocer automáticamente si el usuario se encuentra dentro de este rango de edad y, en consecuencia, limitar el acceso a determinados contenidos sensibles. Entre estos se incluyen conversaciones relacionadas con métodos de autolesión, ideación suicida o material que pueda resultar nocivo en contextos de vulnerabilidad emocional.
Además, OpenAI habilitará nuevas funciones de control parental. Los padres o responsables podrán configurar alertas, acceder a registros de interacción y recibir notificaciones en caso de que se detecten señales de riesgo. La empresa afirma que este acompañamiento permitirá reforzar el rol de la familia en la supervisión digital y dar soporte inmediato en momentos críticos.
Las medidas responden a la creciente presión social y legal tras denuncias de familias que responsabilizaron al sistema por no haber sabido manejar adecuadamente señales de alerta. Uno de los casos más comentados fue el de un joven estadounidense que, según sus allegados, habría sido influenciado por sus conversaciones con la IA antes de tomar la decisión de acabar con su vida.
Ante estos antecedentes, OpenAI reconoció que los sistemas anteriores no siempre reaccionaban de manera apropiada y que era necesario introducir protocolos más sólidos y transparentes. “Nuestra prioridad es proteger a los adolescentes y garantizar que ChatGPT sea una herramienta de apoyo y no un factor de riesgo”, señaló la empresa en un comunicado.
Expertos en salud mental consideran positivas estas actualizaciones, aunque advierten que no sustituyen el acompañamiento humano. Psicólogos y psiquiatras recuerdan que la inteligencia artificial puede ofrecer orientación limitada, pero nunca reemplazar la atención profesional en casos de crisis. También subrayan la necesidad de que las compañías tecnológicas trabajen de manera coordinada con servicios de salud y con organizaciones de prevención del suicidio.
OpenAI ha precisado que estas medidas forman parte de un plan más amplio de seguridad digital que se implementará progresivamente a nivel global. Se espera que en las próximas semanas se actualicen los sistemas de detección de riesgos, se amplíen las bases de datos de señales de alarma y se desarrollen alianzas con instituciones de salud mental.
La noticia ha generado reacciones diversas en el ámbito tecnológico y educativo. Mientras algunos celebran el esfuerzo por proteger a los jóvenes, otros temen que la limitación excesiva pueda restringir innecesariamente el acceso a información. En cualquier caso, el debate refleja una creciente necesidad de garantizar que el avance de la inteligencia artificial se acompañe de medidas firmes de responsabilidad social.
RADIO SENTIMIENTO
Redactado por: Adriana Cordova Castro

