24h España.

24h España.

OpenAI utiliza un sistema de juego para mejorar la legibilidad de sus modelos de IA.

OpenAI utiliza un sistema de juego para mejorar la legibilidad de sus modelos de IA.

En una nueva y emocionante revelación, OpenAI ha presentado una innovadora forma de entrenar sus modelos de Inteligencia Artificial (IA), basada en un método de juego de comprobación y verificación. Con esta estrategia, logran que el texto generado por los grandes modelos de lenguaje sea mucho más accesible para los humanos y también verificable para modelos más pequeños.

Esta nueva metodología de entrenamiento de IA, conocida como "juegos de comprobación y verificación", permite que los textos resultantes sean más fáciles de comprender e interpretar para las personas. Es un enfoque revolucionario que ha sido detallado por la empresa dirigida por Sam Altman en un comunicado en su página web.

Al optimizar el proceso de resolución de problemas de los modelos de IA más grandes, OpenAI ha encontrado que las soluciones resultantes pueden volverse cada vez más difíciles de entender. Esto no solo dificulta la comprensión humana, sino también la verificación de la exactitud de las respuestas.

Sin embargo, los investigadores de OpenAI han descubierto que al entrenar a los modelos de lenguaje avanzados para que creen textos que puedan ser verificados fácilmente por los modelos más débiles, la IA produce resultados que son más comprensibles para los humanos y más fáciles de evaluar.

Este proceso innovador de OpenAI se basa en una serie de juegos de comprobación y verificación, diseñados para alentar a los agentes de aprendizaje a resolver problemas de decisión de manera verificable. La compañía ha utilizado modelos grandes y pequeños de la familia GPT-4, con una diferencia significativa en su capacidad.

En estos juegos, el comprobador genera soluciones mientras que el verificador las verifica. OpenAI ha destacado que el comprobador es un modelo grande, mientras que el verificador es un modelo de lenguaje más pequeño. Gracias a esta estrategia, OpenAI logra mejorar la legibilidad y la comprensión de los textos generados por sus modelos de IA.

Este método de entrenamiento implica que el modelo fuerte genere múltiples soluciones que el modelo débil pueda corroborar fácilmente. A través de varias rondas de entrenamiento, se enseña al modelo verificador a predecir la exactitud de las soluciones generadas por el modelo comprobador, al mismo tiempo que se entrena al modelo comprobador para desempeñar un papel útil o astuto.

Con este enfoque, OpenAI ha logrado desarrollar un proceso que garantiza que las respuestas generadas por la IA sean correctas y fáciles de entender, tanto para humanos como para otros sistemas de IA. Este método es esencial para mejorar la efectividad y confiabilidad de las aplicaciones de IA en una amplia gama de campos.

Además, esta nueva metodología reduce la dependencia de demostraciones o juicios humanos en lo que respecta a la legibilidad de los resultados de la IA. OpenAI espera que esta estrategia sea adoptada de manera más amplia para desarrollar sistemas de IA cuyos resultados sean fácilmente verificables y transparentes.