Microsoft ha anunciado el lanzamiento de su último chip, el Maia 200. La compañía lo describe como un producto estrella de silicio diseñado para escalar la inferencia de IA.
El 200 sigue al Maia 100 de la compañía, lanzado en 2023, y está equipado tecnológicamente para ejecutar potentes modelos de IA de manera más rápida y eficiente, dijo la compañía. Maia tiene más de 100 mil millones de transistores y ofrece un rendimiento de más de 10 petaflops con precisión de 4 bits y aproximadamente 5 petaflops con precisión de 8 bits. Esta es una mejora significativa con respecto al modelo anterior.
La inferencia se refiere al proceso computacional que ejecuta un modelo, a diferencia de los cálculos necesarios para entrenar el modelo. A medida que las empresas de IA maduran, los costos de inferencia se convierten en una parte cada vez más importante de los costos operativos generales, lo que genera un renovado interés en cómo optimizar los procesos.
Microsoft quiere que Maia 200 sea parte de esa optimización, permitiendo que las empresas de IA funcionen con menos interrupciones y menos uso de energía. «En la práctica, un solo nodo Maia 200 ejecuta cómodamente nuestros modelos más grandes en la actualidad, con mucho espacio para modelos aún más grandes en el futuro», dijo la compañía.
El nuevo chip de Microsoft también es parte de una tendencia creciente de gigantes tecnológicos que recurren a chips que diseñan internamente como una forma de reducir la dependencia de Nvidia, cuyas GPU de vanguardia se han vuelto cada vez más importantes para el éxito de las empresas de inteligencia artificial. Por ejemplo, Google tiene TPU (unidades de procesamiento tensorial), que no se venden como chips, sino como potencia computacional a la que se puede acceder a través de la nube. Y Amazon Trainium, el chip acelerador de IA patentado por el gigante del comercio electrónico, acaba de lanzar su última versión, Trainium3, en diciembre. En cualquier caso, la TPU le permite descargar algunos de los cálculos asignados a la GPU Nvidia, lo que reduce los costos generales de hardware.
Con Maia, Microsoft está posicionada para competir con estas alternativas. La compañía dijo en un comunicado de prensa el lunes que Maia ofrece tres veces el rendimiento FP4 de los chips Amazon Trainium de tercera generación y el rendimiento FP8 de los TPU de séptima generación de Google.
Microsoft dice que Maia ya está trabajando arduamente en el desarrollo de los modelos de inteligencia artificial de la compañía con su equipo de superinteligencia. También soporta el funcionamiento de Copilot, el chatbot de la empresa. El lunes, la compañía anunció que había invitado a una variedad de partes interesadas, incluidos desarrolladores, académicos y Frontier AI Institute, a utilizar el kit de desarrollo de software Maia 200 en sus cargas de trabajo.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
Source link
