24h España.

24h España.

Intel avanza en el desarrollo de estaciones de trabajo para inferencias del Proyecto Battlematrix gracias al software LLM Scaler.

Intel avanza en el desarrollo de estaciones de trabajo para inferencias del Proyecto Battlematrix gracias al software LLM Scaler.

En un avance significativo para el mundo de la tecnología, Intel ha revelado una actualización para su innovador Proyecto Battlematrix, centrado en el desarrollo de estaciones de trabajo destinadas a la inferencia. Este proyecto, que fue presentado en la reciente Computex 2025, incluye la primera versión del contenedor LLM Scaler, una herramienta diseñada para facilitar la adopción de las potentes GPU Intel Arc Pro serie B.

El objetivo de Proyecto Battlematrix es claro: permitir que profesionales, artistas e ingenieros puedan trabajar con grandes modelos de lenguaje sin enfrentar los exorbitantes costos de las soluciones de inteligencia artificial privativas, todo ello mientras se prioriza la privacidad de sus datos. Esta iniciativa representa un paso hacia un acceso más democratizado a la tecnología avanzada.

La solución que propone Intel incluye un contenedor optimizado para Linux, que permite el escalamiento de múltiples GPU y la transferencia de datos a través de conexión P2P PCIe. Este enfoque promete no solo agilidad en los procesos, sino también una versión inicial del LLM Scaler, que ya está disponible para aquellos que quieran explorar las capacidades de Proyecto Battlematrix antes de su lanzamiento completo.

Según un comunicado de Intel, el nuevo software mejora el rendimiento general y disminuye la memoria GPU necesaria, introduciendo además varias compatibilidades y soportes adaptados a diversas necesidades. Con herramientas como OneCCL y un gestor de múltiples unidades de procesamiento (XPU), se espera ofrecer a los centros de datos un manejo más eficaz de sus recursos GPU.

Intel tiene previsto lanzar una versión actualizada del LLM Scaler a finales del tercer trimestre de este año, complementándola con un conjunto de funciones completas que se presentarán a finales del 2023. Este movimiento anticipa un futuro prometedor en la integración de soluciones de inteligencia artificial más accesibles y eficientes.