En un desarrollo prometedor en el campo de la inteligencia artificial, OpenAI ha presentado recientemente mejoras significativas en su modelo ChatGPT, el cual ahora responde de forma más adecuada en interacciones que involucran temas delicados y problemas de salud mental.
La actualización a GPT-5 ha permitido que el modelo sea más eficaz en la identificación de señales que podrían indicar problemas serios, como la psicosis y la manía, así como en el reconocimiento de situaciones menos severas, como delirios aislados. Esto marca un avance importante en la capacidad de la inteligencia artificial para abordar estas cuestiones con mayor sensibilidad.
A pesar de que muchos usuarios confían en ChatGPT como un espacio seguropara compartir sus pensamientos, la compañía ha revelado que las conversaciones sobre problemas de salud mental no son tan frecuentes como se podría pensar, lo que dificulta su detección y análisis.
De acuerdo con los datos ofrecidos por OpenAI, un pequeño porcentaje de usuarios, alrededor del 0,07%, muestra signos de emergencias de salud mental durante una semana. Esto incluye señales relacionadas con psicosis o manía, lo que subraya la necesidad de contar con respuestas más precisas en tales circunstancias.
Tradicionalmente, el chatbot cuenta con una serie de medidas de seguridad que se activan ante señales de riesgo, las cuales incluyen sugerencias para buscar ayuda profesional, bloqueo de contenido dañino y, en algunos casos, omitir responder a ciertas solicitudes. Sin embargo, el sistema a veces falla en su detección, lo que podría llevar a respuestas inapropiadas que exacerban la situación del usuario.
Con la actualización de GPT-5, OpenAI ha logrado reducir la incidencia de tales respuestas problemáticas en un notable 39% en comparación con la versión anterior, GPT-4. Esta mejora resalta el compromiso de la empresa por garantizar que los usuarios tengan una experiencia más segura y positiva.
Además, el modelo actualizado demuestra un índice de cumplimiento con comportamientos deseados que alcanza el 92%, muy por encima del 27% que ofrecía su predecesor. Este avance también se extiende a la efectividad del modelo para responder a intervenciones que abordan pensamientos suicidas o autolesiones, donde se ha visto una reducción del 52% en respuestas no deseadas con respecto a su versión anterior.
GPT-5 ha demostrado ser especialmente confiable en conversaciones extensas, un ámbito donde las medidas de seguridad suelen resultar más desafiantes. En este contexto, la eficacia del modelo supera el 95%, lo que indica un avance significativo en su capacidad de respuesta ante situaciones complejas.
OpenAI también ha abordado la problemática de la dependencia emocional que algunos usuarios pueden desarrollar hacia la inteligencia artificial, un fenómeno que podría apartarles de la realidad y sus responsabilidades. Con la actualización, se espera una reducción del 42% en respuestas que alientan esta dependencia, elevando el cumplimiento del comportamiento deseado al 97% en comparación con el 50% de la versión anterior.
Estos progresos en GPT-5 están alineados con los valores éticos de OpenAI, que promueven la importancia de que el modelo respete las relaciones reales de los usuarios y responda de forma empática y segura a los posibles signos de angustia emocional o mental, así como a posibles riesgos de autolesión o suicidio.
Categoría:
Newsletter
Entérate de las últimas noticias cómodamente desde tu mail.