A Microsoft entra na disputa por processadores de inteligência artificial, posicionando-se contra Nvidia e Google. Seu chip Maia 200 será disponibilizado pelo Azure, sua plataforma de computação em nuvem que compete com AWS e Google Cloud. A implementação inicial acontecerá em data centers no centro dos Estados Unidos, com planos de expansão para o Arizona.
A empresa pretende revolucionar a economia da inteligência artificial em larga escala, fornecendo uma infraestrutura que garanta desempenho superior.
Vantagens Competitivas e Concorrência
Segundo a Microsoft, sem citar rivais diretamente, o Maia oferece uma relação custo-benefício cerca de 30% melhor que as opções atuais. O já aquecido mercado de chips para IA, que levou a Nvidia a se tornar a empresa mais valiosa do mundo, ganhou outro competidor com a entrada do Google. A companhia desenvolveu seu modelo mais recente, o Gemini 3, usando o TPU v6, um processador criado internamente.
A capacidade desse acelerador despertou o interesse da Meta. Embora dispute o espaço de IA com o Google, a empresa ainda depende das GPUs da Nvidia. Como revelou uma reportagem do “The Information”, a Meta, liderada por Mark Zuckerberg, fechou acordos para treinar seus modelos de IA com o TPU v6. Inicialmente, usará a infraestrutura do Google Cloud, com a perspectiva futura de comprar os chips para instalar em seus próprios ambientes.
Diferenças Tecnológicas Fundamentais
As GPUs da Nvidia, dominantes até agora, foram originalmente criadas para processamento gráfico e depois adaptadas para tarefas de inteligência artificial. Já as TPUs do Google são unidades de processamento especializadas, projetadas desde o início para executar operações de aprendizado de máquina, o que as torna mais rápidas e eficientes para certas cargas de trabalho em IA.
A Microsoft também planeja usar o Maia 200 para dar suporte a um de seus serviços existentes, o Copilot, e para criar as bases necessárias ao desenvolvimento de seus futuros modelos de “Superinteligência”.







