En Madrid, el 26 de enero, se ha dado a conocer que el más reciente modelo de inteligencia artificial de OpenAI, conocido como GPT-5.2, está generando un debate sobre la validez de las fuentes de información a las que recurre al responder consultas de los usuarios.
Este nuevo modelo, que fue lanzado en diciembre, se designa como el más sofisticado de la compañía y se presenta como una opción dentro de ChatGPT para aportar respuestas a diversas preguntas planteadas por los usuarios.
A pesar de las prometedoras mejoras en términos de razonamiento y capacidad de resolución de tareas para sectores empresariales y la investigación científica, han surgido preocupaciones significativas acerca de la posible desinformación que podría derivarse de las fuentes utilizadas para compilar la información.
Una investigación realizada por The Guardian ha revelado que el GPT-5.2 menciona artículos de Grokipedia, la enciclopedia en línea impulsada por la inteligencia artificial de Elon Musk, específicamente al abordar cuestiones menos comunes, como temas sobre Irán o el negacionismo del Holocausto. Estos artículos han sido referenciados en varias ocasiones a lo largo de diferentes preguntas.
Es importante destacar que las referencias a Grokipedia no han aparecido en preguntas relacionadas con temas en los que se ha señalado que la información incorrecta podría estar prevaleciendo, tales como la insurrección, sesgos mediáticos en relación a Donald Trump o epidemias. Sin embargo, temas menos familiares como los conglomerados iraníes o los negacionistas del Holocausto han sido abordados con citas de esta enciclopedia.
Según el análisis de The Guardian, la inclusión de artículos de Grokipedia plantea serias dudas sobre la fiabilidad de la información que ofrece ChatGPT. Esto se debe en parte a la naturaleza de los artículos, que son generados por Grok, la inteligencia artificial de Musk, así como al objetivo de Grokipedia de actuar como una alternativa a Wikipedia, la cual Musk ha criticado públicamente por considerarla sesgada hacia ideas progresistas.
En la actualidad, Grok cuenta con más de 6 millones de artículos redactados por su sistema, aunque se permite la corrección por parte de los usuarios, las cuales son luego revisadas y aprobadas o rechazadas por la inteligencia artificial. Este modelo contrasta con el funcionamiento de Wikipedia, donde los colaboradores generan el contenido y participan activamente en debates sobre las correcciones, especialmente en temas controversiales.
Un portavoz de OpenAI declaró a The Guardian que el modelo en cuestión recurre a una “amplia gama de fuentes y puntos de vista disponibles públicamente”. Además, aclaró que se aplican filtros de seguridad para minimizar el riesgo de que se vinculen respuestas a información potencialmente dañina. También se enfatizó que ChatGPT proporciona citas claras sobre las fuentes empleadas para cada respuesta.
Según el mismo medio, OpenAI también está desarrollando programas destinados a filtrar información de baja credibilidad y a gestionar campañas de influencia inadecuada.
La investigación también detectó que el modelo Claude, de Anthropic, ha hecho alusión a Grokipedia en sus respuestas, abordando temáticas tan variadas como la producción de petróleo y las cervezas escocesas.
Al ser consultada sobre este asunto, Anthropic no ofreció explicaciones, mientras que xAI, responsable de Grok y Grokipedia, se limitó a afirmar que “los medios tradicionales mienten”.
Categoría:
Newsletter
Entérate de las últimas noticias cómodamente desde tu mail.