24h España.

24h España.

Google seguirá desarrollando su IA de búsqueda utilizando contenido en línea, sin importar la decisión de los editores de no colaborar.

Google seguirá desarrollando su IA de búsqueda utilizando contenido en línea, sin importar la decisión de los editores de no colaborar.

En un reciente anuncio, Google ha reafirmado su capacidad para seguir entrenando sus programas de inteligencia artificial dedicada a la búsqueda, como AI Overviews, utilizando contenido disponible en la web, sin importar si los editores han decidido o no colaborar al compartir sus datos.

Las funcionalidades impulsadas por IA, como 'Vista creada con IA' y AI Overviews, permiten que Google sintetice las respuestas a las búsquedas realizadas por los usuarios, mostrando este contenido destacado en la parte superior de la página de resultados. Esto contribuye a que la búsqueda de información relevante sea más ágil y accesible para los usuarios.

A pesar de la opción que tienen los editores para no compartir sus datos en el entrenamiento de la IA, el gigante tecnológico asegura que puede seguir aprovechando la información de los sitios web para mejorar herramientas como AI Overviews, incluso si los editores se optan por no colaborar.

Esta posición fue expuesta por Eli Collins, vicepresidente de Google DeepMind, durante un juicio antimonopolio en Estados Unidos relacionado con las prácticas de su motor de búsqueda. Según recoge Bloomberg, Collins mencionó que Google "tiene la capacidad de entrenar con los datos que los editores habían optado por no entrenar" específicamente para el área de búsqueda.

Collins también aclaró que los mecanismos que los editores utilizan para evitar el uso de sus datos están limitados únicamente a Google DeepMind. Esto implica que otras plataformas y servicios dentro de Google aún pueden utilizar estos datos para capacitar sus modelos de inteligencia artificial.

Un portavoz de Google explicó que, para que los editores puedan evitar que sus datos sean utilizados en la IA de búsqueda, deben realizar una clara especificación de que no desean ser indexados mediante el estándar web 'robots.txt'.

Este estándar permite a los editores web incluir un archivo en sus páginas que indique a los bots e indexadores si tienen permiso para rastrear su contenido. Por tanto, deben implementar 'robots.txt' de manera efectiva para prohibir que la IA utilice sus datos.

Por otro lado, durante el juicio se reveló que Google había eliminado 80.000 millones de los 160.000 millones de tokens utilizados para la búsqueda con IA, tras filtrar los datos de los editores que optaron por no participar en el entrenamiento de su inteligencia artificial, lo que representa una reducción del 50 por ciento en el uso de esos datos.