Lançamento do Chip Trainium 3 da AWS
A Amazon Web Services (AWS) lançou o servidor Amazon EC2 Trn3 UltraServer, equipado com o chip de IA Trainium 3, durante o evento AWS re:Invent 2025. O objetivo é reduzir custos e acelerar o treinamento e a inferência de modelos de inteligência artificial em larga escala.
O Trainium 3 é o primeiro chip de IA da empresa feito em processo de três nanômetros, prometendo desempenho operacional, eficiência energética e largura de banda de memória quatro vezes melhor em relação ao Trainium 2. Cada Trn3 UltraServer pode integrar até 144 chips Trainium 3, alcançando até 362 PFLOPs em precisão FP8 e latência até quatro vezes menor para treinar modelos de IA avançados.
Benefícios e Melhorias
De acordo com a AWS, o Trainium 3 oferece várias melhorias, incluindo:
- Três vezes mais throughput por chip e respostas até quatro vezes mais rápidas em comparação com a geração anterior;
- Quase 40% de economia de energia em relação à geração anterior;
- Infraestrutura de rede interna redesenhada, com o novo NeuronSwitch-v1 dobrando a largura de banda dentro de cada UltraServer;
- Malha Neuron Fabric reduzindo a latência de comunicação entre chips para menos de dez microsegundos.
Escalabilidade e Futuro
Para demandas que precisam de escalabilidade maior, os EC2 UltraClusters 3.0 conseguem interligar milhares de UltraServers, com capacidade para até 1 milhão de chips Trainium em um cluster de IA de próxima geração. Além disso, a empresa antecipou os detalhes do futuro Trainium 4, que será projetado para oferecer pelo menos seis vezes mais desempenho em FP4, três vezes mais performance em FP8 e quatro vezes mais largura de banda de memória na comparação com a geração atual.
Este conteúdo pode conter links de compra.