24h España.

24h España.

OpenAI elimina las advertencias sobre contenido en ChatGPT que consideraba superfluas.

OpenAI elimina las advertencias sobre contenido en ChatGPT que consideraba superfluas.

En un giro significativo en la gestión de su plataforma, OpenAI ha decidido implementar modificaciones en cómo maneja las solicitudes que los usuarios realizan a su conocido asistente virtual, ChatGPT. Este cambio ha conducido a la eliminación de las advertencias naranjas que antes alertaban sobre posibles violaciones de las políticas del servicio.

La intención de la empresa es optimizar la experiencia del usuario, según ha explicado su responsable de Producto, Nick Turley. En un comunicado publicado en X (anteriormente Twitter), Turley resaltó que han optado por quitar “advertencias innecesarias en la interfaz”, lo que facilitará un uso más fluido y menos restringido de la herramienta.

Turley defendió que los usuarios deberían tener la libertad de utilizar ChatGPT de la manera que consideren oportuna, siempre y cuando actúen dentro de los límites de la ley y no se causen daño a sí mismos o a otros. “Estamos entusiasmados por la eliminación de advertencias que no aportan valor”, compartió en su mensaje.

Entre las advertencias eliminadas se encuentra la conocida caja de alerta naranja, que aparecía junto a algunas de las solicitudes de los usuarios. Esto fue confirmado por Laurentia Romaniuk, miembro del equipo de OpenAI, quien invitó a los usuarios a señalar otros ejemplos de denegaciones que consideren injustificadas.

A pesar de estas eliminaciones, ChatGPT sigue mostrando otras advertencias, incluyendo recuadros rojos y mensajes de rechazo, como “Lo siento, no lo haré”. OpenAI ha subrayado la importancia de que su asistente se adapte al tono y contexto de las solicitudes, lo que indica un esfuerzo por equilibrar la libertad de uso con la responsabilidad ética.

La compañía también ha aclarado recientemente que, aunque no es posible controlar cada solicitud al 100%, se enfocan en gestionar aquellos temas que podrían resultar más polémicos. Por lo tanto, el sistema está diseñado para no generar contenido prohibido ni restringido, como material sexual o información sensible, a menos que se trate de situaciones específicas, como contextos educativos o médicos.

Además, OpenAI afirma que está comprometido con la protección de los grupos vulnerables, prohibiendo la generación de contenido que aliente el odio o el acoso. De este modo, el asistente reafirma su posición ética al rechazar solicitudes que promuevan comportamientos destructivos o ilícitos.