24h España.

24h España.

ChatGPT innovará al reconocer la edad de los adolescentes y personalizar su interacción.

ChatGPT innovará al reconocer la edad de los adolescentes y personalizar su interacción.

En un importante avance hacia la protección de los jóvenes en el ámbito digital, OpenAI ha anunciado el desarrollo de un sistema innovador para su popular asistente virtual, ChatGPT. Este nuevo enfoque permitirá al chatbot reconocer automáticamente si un usuario es un adolescente o menor de edad, asegurando una experiencia de conversación adecuada a su perfil y restringiendo acceso a contenidos inapropiados.

Dirigida por Sam Altman, la empresa ha subrayado su compromiso con la seguridad de todos los usuarios, especialmente enfocándose en mecanismos que salvaguarden a los adolescentes. Entre estos esfuerzos se encuentran los controles parentales que fueron revelados recientemente, diseñados para empoderar a los padres en la supervisión del uso de ChatGPT por parte de sus hijos.

El sistema en desarrollo tiene como objetivo determinar si el usuario tiene menos de 18 años, adaptando las interacciones de ChatGPT para satisfacer sus necesidades específicas. Así, el chatbot cambiará su forma de comunicación al tratar con un joven de 15 años en comparación con un adulto, proporcionando un entorno más seguro y acorde con su etapa de desarrollo.

OpenAI ha compartido en su blog que, al identificar a un usuario menor de edad, se activará de inmediato una 'experiencia de ChatGPT' que implementa políticas adecuadas a su edad. Esto conlleva la restricción de contenido sexual explícito y, en circunstancias excepcionales de angustia extrema, podría implicar la intervención de las autoridades para priorizar la seguridad del usuario.

Si ChatGPT no puede confirmar la edad del usuario por falta de información, optará por ofrecer la experiencia reservada para menores de 18 años, asegurando así una protección continua. No obstante, los adultos tendrán la posibilidad de verificar su edad para acceder a las funciones destinadas a mayores.

Estas iniciativas se complementan con los controles parentales que permitirán a las familias gestionar la utilización de ChatGPT en casa. A partir de finales de septiembre, los padres podrán vincular sus cuentas con las de sus hijos adolescentes y establecer reglas sobre cómo interactuar con el chatbot.

Los progenitores también tendrán la capacidad de deshabilitar ciertas funciones, como la memoria del sistema y el historial de chat, además de definir tiempos de inactividad. Las familias recibirán notificaciones si se detectan momentos de grave angustia emocional en sus hijos.

Este movimiento hacia una mayor protección se produce en un contexto sensible, ya que OpenAI había comenzado a realizar modificaciones en sus modelos de inteligencia artificial a finales de agosto. Estas adaptaciones buscan mejorar la identificación de crisis emocionales y de salud mental, estableciendo nuevas salvaguardias y facilitando el contacto con servicios de apoyo y familiares en situaciones difíciles.

El contexto de estas mejoras no es casual, dado que se alzan tras un trágico incidente en el que un adolescente de 16 años en EE.UU. perdió la vida en abril, lo que derivó en una demanda contra la empresa. Los padres argumentaron que, aunque ChatGPT había proporcionado recursos para buscar ayuda en múltiples ocasiones, sus salvaguardias fallaron en momentos críticos, lo que llevó a una conversación que culminó en el suicidio del joven.