A Nvidia sempre assumiu o papel de destaque de apoio no jogo do avanço tecnológico. Até recentemente, surpreendeu o mercado com ganhos trimestrais de US$ 7,19 bilhões em meados de 2023, ao alavancar a recente migração da infraestrutura em nuvem de antigas CPUs robustas para GPU (unidades de processamento gráfico). Esta migração veio no momento certo, pois revelou-se essencial para apoiar o boom da GenAI, que depende fortemente de chips especializados para soluções de IA.
A corrida pelo domínio da IA
A Nvidia já é o fabricante líder global de unidades de processamento gráfico de última geração, com uma maior participação de mercado de 92%. Isso a torna o fornecedor mais confiável de chips de IA para grandes empresas de tecnologia como Google, Microsoft, Meta e Amazon.
No entanto, o domínio do mercado da Nvidia pode sofrer perturbações mais cedo do que o esperado. As gigantescas empresas de tecnologia, maiores clientes da Nvidia, estão investindo pesadamente no desenvolvimento de seus próprios chips de IA. Isso visa reduzir sua dependência da Nvidia e trilhar seu caminho na corrida pelo domínio da IA.
Em novembro de 2023, a Microsoft revelou seu primeiro chip de IA, o Maia 100 , desenvolvido para competir com as unidades de processamento gráfico de IA da Nvidia. Também em novembro de 2023, a Amazon lançou o chip Trainium2 para treinar modelos de inteligência artificial em seus serviços web. Esta introdução veio na esteira do investimento de US$ 4 bilhões da Amazon com o objetivo de acelerar o desenvolvimento da Anthropic , supostamente construindo suas soluções de IA usando chips de IA projetados pela Amazon.
Um artigo exclusivo da Reuters compartilhou que a Meta planeja lançar um chip personalizado este ano para apoiar o lançamento de seus produtos de inteligência artificial e o processamento de suas cargas de trabalho de IA. A Meta espera que essa mudança economize bilhões em custos associados à compra de chips de IA. Por outro lado, o Google revelou a quinta geração de suas unidades de processamento de tensores (TPUs), que são circuitos integrados de aplicação específica (ASICs) desenvolvidos sob medida, usados para treinamento e inferência de IA. Esta nova geração foi desenvolvida especificamente para acelerar a eficiência, oferecendo melhoria de 2x no desempenho do treinamento e melhoria de 2,5x no desempenho de inferência por dólar em comparação com seu antecessor. Sendo este o acelerador de IA mais potente do Google, o Google TPU pode ser visto como uma ameaça ao domínio da tecnologia de IA da Nvidia.
No entanto, mesmo com todos os desenvolvimentos de empresas gigantes de tecnologia em andamento, o domínio e a penetração do mercado da Nvidia permanecem incontestados. A gigante fabricante de chips ainda está na vanguarda da inovação e do fornecimento de tecnologias de IA de ponta, como é evidente em sua mais recente inovação, a plataforma Blackwell B200.
Nova geração IA da Nvidia: o Blackwell B200
A Nvidia atualiza sua arquitetura de GPU a cada dois anos. Os chips e modelos de IA serão lançados com base nesta arquitetura. No passado dia 18 de março de 2024, na conferência anual de desenvolvedores da Nvidia em San Jose, o CEO da empresa, Jensen Huang, revelou a arquitetura atualizada da Nvidia, que substituirá a arquitetura 2022 Hopper, a plataforma Blackwell B200.
A plataforma leva o nome de David Harold Blackwell, o primeiro estudioso negro introduzido na Academia Nacional de Ciências. Blackwell é um matemático especializado em estatística, teoria e estatística dos jogos. Espera-se que o Blackwell B200 acelere a computação empregando tecnologias de um motor RAS, NVLink de quinta geração , motor Transformer de segunda geração, mecanismo de descompressão e recursos seguros de IA.
Desenvolvido com 208 bilhões de transistores, a gigante fabricante de chips afirma que o Blackwell B200 reduzirá os custos operacionais de inferência de IA e o consumo de energia em até 25 vezes em comparação com seu antecessor, o H100. Esta inovação terá um impacto significativo na facilidade de execução de projetos de Inteligência Artificial, como a execução do ChatGPT, bem como de projetos de jogos, como a execução de demos de cassinos.
O primeiro chip de IA baseado no chip de infraestrutura Blackwell B200 será denominado GB200 e estará disponível aos consumidores ainda este ano. O GB200 é um “super chip” desenvolvido combinando dois chips B200 e uma CPU Grace para oferecer um aumento de velocidade de 30x no desempenho de tarefas em comparação com seu antecessor, o H100.
De acordo com o CEO da Nvidia, Jensen Huang, são necessárias GPUs maiores. Durante seu discurso de abertura na conferência anual de desenvolvedores da empresa, ele compartilhou: “A plataforma Blackwell permitirá o treinamento de modelos de IA de trilhões de parâmetros que farão com que os modelos de IA generativos de hoje pareçam rudimentares em comparação”.
No ano passado, o valor da Nvidia disparou para um máximo histórico de mais de US$ 1 trilhão. Hoje, é a terceira empresa mais valiosa, depois da Microsoft e da Apple, tendo ultrapassado recentemente a Amazon e a Alphabet. A receita do data center da empresa foi relatada em US$ 18,4 bilhões no último trimestre de 2024, marcando um aumento de 409% em relação ao quarto trimestre de 2023.
A Nvidia está atualmente vencendo a corrida pelo domínio da IA e permanece imbatível quando se trata de desenvolvimento e suporte de tecnologia de IA. No entanto, esperamos para ver como o cenário do mercado muda, com Google, Microsft , Meta e Amazon querendo uma fatia do mercado de IA desenvolvendo seus chips.