Durante um Computex 2024nesta segunda-feira (03), a AMD aproveitou o palco de lançamento de seus primeiros chips baseados em Zen 5 para anunciar o Instinct MI325X, seu novo acelerador de inteligência artificial projetado para grandes centros de dados. O novo hardware é baseado na mesma arquitetura CDNA 3 do Instinct MI300X.

O Instinct MI325X será equipado com até 288 GB de memória HBM3e e largura de banda de até 6 TB/s, um desempenho fundamental para lidar com processamento de inteligência artificial em massa. Segundo o fabricante, o novo acelerador promete ser até 30% mais rápido em inferência e geração de tokens que a GPU H100 da NVIDIA.

A expectativa é que o Instinct MI325X comece a ser disponibilizado para os fabricantes de centros de dados no 4º trimestre de 2024, período em que as empresas também devem começar a adotar as plataformas H200 da NVIDIA.

A AMD enfatiza que a demanda por sua atual geração de aceleradores segue crescendo para alimentar as cargas de trabalho de IA de parceiros que incluem Microsoft, Dell, Supermicro, Lenovo e HPE. Esses sistemas equipam alguns dos serviços de inteligência artificial mais abrangentes do mundo, como o Azure OpenAI da Microsoft.

A AMD também confirmou seus planos para o segmento de inteligência artificial ao longo dos próximos dois anos. Em 2025, ela apresentará uma nova linha de aceleradores baseada em CDNA 4, que será conhecida como “Instinct MI350”.

A nova geração será fabricada com litografia de 3 nanômetros e suportará dados FP4 e FP6, trazendo até 35 vezes mais desempenho de inferência de IA em comparação com a linha de aceleradores baseada em CDNA 3.

Já em 2026, serão introduzidos os aceleradores Instinct MI400, baseados em uma nova arquitetura que a AMD apelida de “Next”. A AMD não comenta os detalhes dessa linha de hardware, mas cita “desempenho e eficiência adicionais para inferência e treinamento de inteligência artificial em larga escala”.

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *