24h España.

24h España.

OpenAI implementa herramientas de control parental para vigilar el uso de ChatGPT por parte de los niños.

OpenAI implementa herramientas de control parental para vigilar el uso de ChatGPT por parte de los niños.

En un movimiento reflexivo y necesario, OpenAI ha decidido abordar con mayor seriedad la seguridad de sus modelos, integrando la perspectiva de expertos en salud mental y proponiendo un sistema de controles parentales para supervisar la interacción de los jóvenes con ChatGPT.

La empresa de tecnología ha subrayado su compromiso con el bienestar de los usuarios, estableciendo un Consejo de expertos centrado en la intersección entre la inteligencia artificial y la salud mental. Junto a este consejo, se ha creado una Red Global de Médicos que colaborará para entender cómo la inteligencia artificial puede contribuir a la salud y prosperidad de las personas.

El consejo tiene como objetivo principal desarrollar directrices y medidas que aseguren el uso seguro y beneficioso de la inteligencia artificial, permitiendo a los usuarios explorar cómo esta tecnología puede impactar positivamente en ellos, tal como se indica en un comunicado publicado en el blog oficial de OpenAI.

Por su parte, la Red Global de Médicos se encargará de identificar comportamientos adecuados de los modelos de inteligencia artificial en ámbitos relacionados con la salud mental, y se expandirá para abordar también temas como los trastornos alimentarios, el abuso de sustancias y las problemáticas de la adolescencia.

Una de las innovaciones más significativas será la introducción de un nuevo enrutador en tiempo real, que permitirá a la inteligencia artificial seleccionar el modelo adecuado basado en el contexto de la conversación, adaptándose a las necesidades del usuario, sin importar el modelo inicial que haya elegido. Esto es clave para ofrecer respuestas más relevantes y útiles en situaciones sensibles.

Si la conversación comienza a tocar temas delicados relacionados con la ansiedad o la depresión, el sistema transitará hacia el uso de modelos más reflexivos como GPT-5, los cuales, tras los ensayos realizados, han demostrado estar más capacitados para proporcionar respuestas que fomenten el bienestar del usuario.

A estos avances se suma la implementación de controles parentales que permitirán a los tutores gestionar cómo sus hijos interactúan con el chatbot. Los padres podrán vincular cuentas y establecer normas de comportamiento para las respuestas del modelo, que estarán activadas por defecto para mayor seguridad.

Además, los padres tendrán la posibilidad de administrar funciones que complementan la experiencia con ChatGPT, incluyendo la opción de desactivar la memoria y el historial de conversaciones. En caso de que el chatbot identifique que el usuario menor está experimentando una crisis emocional, se enviará una notificación a los padres para que puedan intervenir.

Recientemente, OpenAI ha realizado ajustes en sus modelos de IA para asegurar una identificación más efectiva de situaciones de crisis mental durante la interacción con ChatGPT, incorporando salvaguardias adicionales y mejorando los mecanismos de contacto con servicios de asistencia y familiares.

Estos cambios vienen tras la tragedia del suicidio de Adam Raine, un adolescente de 16 años, cuyos padres, Matt y Maria Raine, denunciaron a la compañía, enfatizando el papel que ChatGPT desempeñó en este duelo, y presionando para que se implementen medidas más estrictas en la protección de los usuarios más jóvenes.