A nova versão do Grace Hopper Superchip aumenta a largura de banda de memória, o que dará ao microprocessador capacidade de executar modelos de IA maiores, de acordo com o vice-presidente de “hyperscale e HPC” da Nvidia, Ian Buck. A configuração é otimizada para executar funções de inferência de IA que efetivamente alimentam aplicativos de IA generativa, como o ChatGPT.
O design do Grace Hopper une uma das unidades de processamento gráfico (GPU) H100 da empresa com um processador central projetado pela Nvidia.
Os modelos que alimentam os aplicativos de IA generativa capazes- de produzir textos e imagens semelhantes aos produzidos por humanos – continuam a crescer em tamanho. À medida que eles crescem, uma quantidade maior de memória é necessária para serem executados sem a necessidade de interconexão de chips e sistemas diferentes, o que prejudica o desempenho.
“A memória adicional simplesmente aumenta o desempenho da GPU”, disse Buck. A nova configuração, chamada GH200, estará disponível no segundo trimestre do próximo ano, disse o executivo.
A Nvidia planeja vender duas versões do chip: uma versão que inclui dois microprocessadores que os clientes podem integrar aos sistemas e um sistema de servidor completo que combina dois designs Grace Hopper.