Nvidia apresenta plataforma Vera Rubin e Alpamayo na CES 2026 e redefine rumo da IA

Nvidia escolheu o palco da CES 2026, em Las Vegas, para anunciar dois marcos que buscam reposicionar toda a indústria de inteligência artificial: a plataforma de computação Vera Rubin e o modelo de raciocínio Alpamayo. A companhia afirma que a nova arquitetura, sucessora da Blackwell, pode reduzir em até 90% o custo de geração de tokens e abrir caminho para a chamada “IA física”, na qual máquinas compreendem, planejam e executam ações no mundo real.
- Por que a Nvidia escolheu a CES 2026 para anunciar sua nova era de IA
- Plataforma Vera Rubin: como a Nvidia integra seis chips em um único sistema
- Desempenho e eficiência: os números que sustentam a aposta da Nvidia
- Alpamayo: o raciocínio por trás da IA física que a Nvidia leva às ruas
- Ecossistema ampliado: da nuvem ao chão de fábrica sob a mesma arquitetura da Nvidia
- Próximos passos: cronograma de embarque e chegada aos consumidores
Por que a Nvidia escolheu a CES 2026 para anunciar sua nova era de IA
O evento de abertura da maior feira de eletrônicos de consumo forneceu à Nvidia uma vitrine global para comunicar três mensagens centrais. Primeiro, a urgência de modernizar um mercado de computação avaliado em cerca de US$ 10 trilhões. Segundo, a necessidade de integrar hardware e software como um sistema único, e não como blocos isolados. Terceiro, a mudança de foco: menos volume bruto de processamento e mais eficiência, escala e custo por tarefa.
Ao colocar o presidente-executivo Jensen Huang no centro desse cenário, a empresa reforçou a ideia de que ferramentas de IA só se tornam úteis quando conseguem abandonar o laboratório e assumir funções práticas em data centers, fábricas, veículos e robôs. A escolha da CES sinaliza ainda que as novidades já possuem cronograma de entrega — remessas para clientes estratégicos, entre eles Microsoft, Amazon e Oracle, estão previstas para a segunda metade de 2026.
Plataforma Vera Rubin: como a Nvidia integra seis chips em um único sistema
A plataforma batizada de Vera Rubin, em homenagem à astrônoma que comprovou a existência da matéria escura, propõe tratar a IA como um “computador completo”. Em vez de otimizar separadamente unidades de processamento ou módulos de memória, a Nvidia desenhou todos os componentes em conjunto. O resultado é um bloco formado por seis chips que atuam de modo coordenado, do data center ao software de alto nível.
No núcleo do sistema estão as GPUs Rubin, capazes de entregar 50 petaflops de capacidade de inferência. Ao lado delas operam as CPUs Vera, responsáveis pelo processamento agêntico — cenário em que modelos não apenas respondem a perguntas, mas decidem e executam ações. A comunicação entre as peças ocorre por meio do NVLink 6, nova geração de interconexão que permite que milhares de chips funcionem como um único computador lógico.
Essa integração elimina gargalos típicos de arquiteturas fragmentadas, como latência de dados entre memória e processadores. A consequência direta é a possibilidade de escalar aplicações de IA sem multiplicar proporcionalmente o parque de servidores nem a demanda energética.
Desempenho e eficiência: os números que sustentam a aposta da Nvidia
A companhia afirma que o design extremo da Rubin oferece cinco vezes mais poder de computação em tarefas de chatbots e outros aplicativos de linguagem, quando comparado à geração anterior. Em termos de treinamento de modelos gigantes, a plataforma permite trabalhar com até dez trilhões de parâmetros em aproximadamente um mês, usando apenas um quarto do número de chips exigido anteriormente.
Do ponto de vista financeiro, o impacto mais direto recai sobre o custo de inferência, estimado pela empresa em apenas 10% do valor atual. Esse avanço é complementado por uma nova plataforma de memória de contexto — tipo de armazenamento otimizado para conversas extensas — que aumenta em cinco vezes tanto a velocidade de geração de tokens por segundo quanto a eficiência energética do processo.
Como data centers enfrentam crescentes restrições de consumo elétrico, a redução de demanda energética se torna elemento chave para a adoção da arquitetura. A perspectiva de realizar o mesmo volume de trabalho com menor gasto de energia pode definir a competitividade de provedores de nuvem em um mercado já pressionado por margens de custo.
Alpamayo: o raciocínio por trás da IA física que a Nvidia leva às ruas
Se a Rubin resolve o “como” da IA em escala, o Alpamayo responde ao “para quê”. O modelo foi apresentado como o equivalente físico do impacto que o ChatGPT teve no domínio da linguagem. Ao aplicar cadeias de pensamento, a ferramenta avalia cenários pouco frequentes ou complexos, fundamentais para veículos autônomos, robôs industriais e outros sistemas que precisam tomar decisões no ambiente real.
Em vez de reagir apenas a padrões conhecidos, o Alpamayo combina visão computadorizada, interpretação de linguagem e rotinas de ação. Um exemplo dado pela Nvidia é a capacidade de lidar com uma obra inesperada na pista ou com o comportamento imprevisível de outros motoristas. O modelo também registra e explica cada decisão de condução, gerando um rastro que pode ser analisado por engenheiros, fator crítico para auditoria de segurança.
Treinado com base em demonstrações humanas, o Alpamayo busca um comportamento natural e previsível, requisito para conquistar confiança em ambientes urbanos. A empresa disponibilizará blueprints de simulação e conjuntos de dados abertos, para que montadoras validem suas implementações em ambientes digitais antes de colocar automóveis nas ruas.
Ecossistema ampliado: da nuvem ao chão de fábrica sob a mesma arquitetura da Nvidia
Os anúncios da CES não ficam restritos a data centers e carros. A lógica da IA física se estende a setores como saúde, clima e robótica por meio de modelos abertos: Clara para aplicações médicas, Earth-2 para clima e Cosmos para automação. Todos eles compartilham a infraestrutura central proposta pela Rubin, reforçando a ideia de um ecossistema que vai do laboratório ao produto comercial.
Na indústria de manufatura, a parceria ampliada com a Siemens integra simulação, design e produção, transformando fábricas em sistemas robóticos conectados. No outro extremo da escala, a companhia demonstrou agentes locais rodando no DGX Spark, descrito como um supercomputador de mesa. O objetivo é que robôs e assistentes digitais ajam como colaboradores físicos diretos, sem depender exclusivamente da nuvem.
A cadeia de valor criada pelo novo portfólio permite que governos, empresas e centros de pesquisa construam sobre a mesma fundação técnica. Isso reduz duplicação de esforços e pode acelerar a transição da pesquisa para a aplicação comercial, sobretudo em cenários que exigem alto grau de confiabilidade, como atendimento de saúde ou monitoramento climático.
Próximos passos: cronograma de embarque e chegada aos consumidores
A produção da plataforma Rubin já está em andamento, com envio às primeiras empresas previsto para a segunda metade de 2026. No caso do Alpamayo, o cronograma ganha corpo com a parceria com a Mercedes-Benz: o novo CLA, equipado com direção definida por IA, tem lançamento programado para os mercados dos Estados Unidos e da Europa no mesmo período.
Com essa agenda, a Nvidia indica que a próxima fase da corrida da inteligência artificial começa ainda em 2026, marcada pela entrega concreta de soluções focadas em custo, escala e eficiência — da nuvem ao asfalto.

Conteúdo Relacionado