Amazon Web Services ha estado construyendo sus propios chips de entrenamiento de inteligencia artificial durante años y ha anunciado una nueva versión conocida como Trainium3 con algunas especificaciones impresionantes.
Anunciado en AWS re:Invent 2025 el martes, el proveedor de la nube también adelantó el próximo producto en su hoja de ruta de productos de capacitación en IA: Trainium4. Trainium4 ya está en desarrollo y podrá funcionar con chips Nvidia.
AWS utilizó su conferencia anual de tecnología para anunciar oficialmente Trainium3 UltraServer, un sistema impulsado por el chip Trainium3 de 3 nanómetros de vanguardia de la compañía y tecnología de red patentada. Como era de esperar, los chips y sistemas de tercera generación ofrecen mejoras significativas en el rendimiento de inferencia y entrenamiento de IA en comparación con los chips de segunda generación, según AWS.
AWS dice que el sistema es más de 4 veces más rápido y tiene 4 veces más memoria, lo que lo hace adecuado no solo para capacitar sino también para entregar aplicaciones de inteligencia artificial en los momentos pico. Además, puede vincular miles de UltraServers para proporcionar hasta 1 millón de chips Trainium3 a su aplicación, 10 veces más que la generación anterior. La compañía dice que cada UltraServer puede albergar 144 chips.
Quizás lo más importante es que AWS dice que los chips y sistemas también son un 40% más eficientes energéticamente que la generación anterior. Mientras el mundo se apresura a construir centros de datos masivos que proporcionen gigavatios astronómicos de energía, el gigante de los centros de datos AWS está creando un sistema que le permite beber menos, no más.
Obviamente, hacerlo es de interés directo para AWS. Pero en la clásica moda consciente de los costos, Amazon promete que estos sistemas también ahorrarán dinero a los clientes de AI Cloud.
Amazon dice que clientes de AWS como Anthropic (que también es propiedad de Amazon), LLM Karakuri de Japón, SplashMusic y Descart ya están utilizando chips y sistemas de tercera generación, lo que reduce significativamente los costos de inferencia.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
AWS también proporcionó una hoja de ruta para su próximo chip, Trainium4, que ya está en desarrollo. AWS prometió que el chip ofrecería mejoras de rendimiento aún más significativas y admitiría la tecnología de interconexión de chips de alta velocidad NVLink Fusion de Nvidia.
Esto significa que los sistemas impulsados por AWS Trainium4 pueden interoperar con las GPU de Nvidia para escalar el rendimiento mientras utilizan la tecnología de bastidor de servidores de bajo costo propia de Amazon.
También vale la pena señalar que CUDA (Arquitectura de dispositivo unificado de computación) de Nvidia se ha convertido en el estándar de facto para el que están diseñadas todas las aplicaciones MajorAI. Los sistemas impulsados por Trainium4 podrían facilitar la incorporación de aplicaciones de inteligencia artificial a gran escala creadas teniendo en cuenta las GPU de Nvidia a la nube de Amazon.
Amazon no ha anunciado un calendario para Trainium4. Si Amazon sigue su calendario de lanzamiento hasta ahora, probablemente escuchemos más sobre Trainium4 en la conferencia del próximo año.
Consulte toda nuestra cobertura del evento anual de tecnología empresarial de TechCrunch aquí.
Source link
