La compañía de inteligencia artificial OpenAI ha anunciado un significativo reforzamiento de las medidas de seguridad en sus modelos, incluyendo la implementación de controles parentales y sistemas de detección de conversaciones riesgosas para proteger a los usuarios menores de edad.
Estas medidas responden a reportes y denuncias recientes sobre el impacto de las interacciones con IA en la salud mental de adolescentes.
Nuevas capas de protección y supervisión experta
OpenAI ha establecido un Consejo de expertos sobre bienestar e inteligencia artificial y una Red Global de Médicos que trabajarán conjuntamente para diseñar directrices y medidas de protección. Según explicó la compañía en un comunicado oficial, el Consejo estará centrado en descubrir «cómo la IA puede contribuir al bienestar de las personas y ayudarlas a prosperar». La Red Global de Médicos, por su parte, ha ayudado a definir el comportamiento de los modelos de IA «en contextos de salud mental» y trabajará en áreas como trastornos alimentarios, consumo de sustancias y salud adolescente.
Sistema de detección proactiva y notificaciones parentales
La plataforma implementará un nuevo enrutador en tiempo real que elegirá automáticamente el modelo más adecuado según el contexto de la conversación. Si detecta que el diálogo se dirige hacia temas sensibles relacionados con depresión o angustia, cambiará a modelos de pensamiento como GPT-5, que dedican más tiempo a razonar las respuestas. Los padres podrán vincular cuentas, controlar cómo responde el chatbot y recibirán notificaciones si el sistema detecta que el menor «se encuentra en un momento de angustia aguda».
Contexto y antecedentes de las nuevas medidas
Estas actuaciones siguen a la denuncia presentada contra OpenAI por Matt y Maria Raine, padres de Adam Raine, un adolescente de 16 años que se quitó la vida en abril, debido al papel que habría jugado ChatGPT en este suceso. La compañía anunció previamente cambios en sus modelos para identificar mejor situaciones de crisis mental y emocional, con nuevas salvaguardias, bloqueos de contenido más eficaces y agilizando el contacto con servicios de ayuda y familiares. Las nuevas medidas buscan equilibrar el avance tecnológico con la protección del bienestar emocional de los usuarios más vulnerables. Información extraída del medio La Nacion,