
En una reciente movida estratégica, Intel ha desvelado una actualización importante para sus estaciones de trabajo de inferencia, bajo el proyecto conocido como Battlematrix. Este avance incluye el lanzamiento de la primera versión de LLM Scaler, un contenedor diseñado especialmente para mejorar la experiencia de uso de modelos de lenguaje a gran escala.
El Proyecto Battlematrix, que se dio a conocer durante la Computex 2025 en mayo, está orientado a facilitar el uso de las GPUs Intel Arc Pro de la serie B. La compañía busca así simplificar la integración de un nuevo software optimizado que permita a los usuarios trabajar con inferencias de manera más efectiva.
Este lanzamiento está dirigido a una variedad de profesionales, incluidos artistas e ingenieros, que desean explorar el potencial de los grandes modelos de lenguaje sin enfrentar los costos desmesurados asociados a las soluciones de inteligencia artificial comerciales, además de priorizar la privacidad de sus datos.
Para abordar estas necesidades, Intel ha desarrollado una solución en contenedor que opera en entornos Linux y permite el escalado de múltiples GPUs, así como transferencias de datos P2P a través de PCIe. Este enfoque está alineado con los tiempos establecidos, y la empresa ya ha presentado la versión inicial del LLM Scaler.
Según un comunicado de prensa emitido por la compañía, este software es crítico para que los clientes tengan acceso anticipado a la propuesta Battlematrix. Se espera que este avance mejore significativamente la eficiencia, reduzca los requisitos de memoria de GPU y ofrezca una variedad de soportes y compatibilidades, además de introducir herramientas útiles como OneCCL y un administrador de XPU para gestionar las GPUs en entornos de centros de datos.
Finalmente, Intel ha planeado lanzar una versión más robusta de LLM Scaler antes de que concluya el tercer trimestre del año, con la intención de ofrecer un conjunto completo de funcionalidades para finales de 2023.
Categoría:
Newsletter
Entérate de las últimas noticias cómodamente desde tu mail.