24 núcleos de CPU Zen 4, 146 bilhões de transistores, 128 GB HBM3, até 8 vezes mais rápido que o MI250X

24 núcleos de CPU Zen 4, 146 bilhões de transistores, 128 GB HBM3, até 8 vezes mais rápido que o MI250X

A AMD acaba de confirmar as especificações de seu Instinto MI300 Acelerador ‘CDNA 3’ usando núcleos de CPU Zen 4 em um pacote chiplet 3D de 5 nm.

Especificações AMD Instinct MI300 ‘CDNA 3’: design de chiplet de 5 nm, 146 bilhões de transistores, 24 núcleos de CPU Zen 4, HBM3 de 128 GB

As especificações mais recentes lançadas para o acelerador AMD Instinct MI300 confirmam que esta APU exascale será um design de chiplet monstruoso. A CPU abrangerá vários pacotes de chiplet 3D de 5 nm, todos combinados para abrigar 146 bilhões de transistores. Esses transistores incluem vários IPs principais, interfaces de memória, interconexões e muito mais. A arquitetura CDNA 3 é o DNA fundamental do Instinct MI300, mas a APU também vem com um total de 24 núcleos de CPU de datacenter Zen 4 e 128 GB de memória HBM3 de última geração rodando em uma configuração de barramento 8192. bits de largura, o que é realmente importante – sopro.

Durante o AMD Financial Day 2022, a empresa confirmou que o MI300 será um acelerador Instinct multi-chip e multi-IP que não apenas apresenta os núcleos de GPU CDNA 3 de próxima geração, mas também está equipado com a CPU Zen 4 de próxima geração. geração. núcleos

Para habilitar mais de 2 exaflops de poder de processamento de precisão dupla, o Departamento de Energia dos EUA, o Lawrence Livermore National Laboratory e a HPE fizeram uma parceria com a AMD para projetar o El Capitan, que deve ser o supercomputador mais rápido do mundo, com entrega prevista para o início de 2023 A Capitan aproveitará os produtos de próxima geração que incorporam melhorias do design do processador personalizado no Frontier.

  • A próxima geração de processadores AMD EPYC, codinome “Genoa”, contará com o núcleo do processador “Zen 4” para dar suporte à memória de próxima geração e subsistemas de E/S para cargas de trabalho de HPC e IA.
  • As GPUs AMD Instinct de próxima geração baseadas em uma nova arquitetura otimizada para computação para cargas de trabalho de HPC e IA usarão memória de alta largura de banda de última geração para desempenho ideal de aprendizado profundo

Esse projeto se destacará na análise de dados de IA e aprendizado de máquina para criar modelos mais rápidos, mais precisos e capazes de quantificar a incerteza de suas previsões.

via AMD

Em comparações de desempenho recentes, a AMD mostrou que o Instinct Mi300 oferece um aumento de 8x no desempenho de IA (TFLOP) e um aumento de 5x no desempenho de IA por watt (TFLOP/Watt) em relação ao Instinct MI250X.

A AMD usará nós de processo de 5nm e 6nm para suas APUs Instinct MI300 ‘CDNA 3’. O chip será equipado com a próxima geração do Infinity Cache e contará com a arquitetura Infinity de quarta geração que permite suporte ao ecossistema CXL 3.0. O acelerador Instinct MI300 terá uma arquitetura APU de memória unificada e novos formatos matemáticos, permitindo um aumento de desempenho por watt de 5x em relação ao CDNA 2, que é enorme. A AMD também está projetando mais de 8 vezes o desempenho de IA em comparação com os aceleradores Instinct MI250X baseados em CDNA 2. O CDNA 3 GPU UMAA conectará a CPU e a GPU a um pacote de memória HBM unificado, que eliminará cópias de memória redundantes e oferecerá um TCO baixo.

Espera-se que os aceleradores APU Instinct MI300 da AMD estejam disponíveis no final de 2023, simultaneamente com o lançamento do supercomputador El Capitan mencionado acima.

compartilhe esta história

Facebook

Twitter

You May Also Like

About the Author: Gabriela Cerqueira

"Solucionador de problemas do mal. Amante da música. Especialista certificado em cultura pop. Organizador. Guru do álcool. Fanático por café."

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *