AMD prevê que dois terços da população mundial usarão inteligência artificial até 2030

No palco da CES 2026, em Las Vegas, a AMD apresentou uma projeção que reposiciona a inteligência artificial no centro das discussões de tecnologia: até o final da década, o número de pessoas que utilizam soluções baseadas em IA deve saltar dos atuais 1 bilhão para cerca de 5 bilhões, o que corresponde a dois terços da população global.
- A projeção de 5 bilhões de usuários de inteligência artificial até 2030
- Era YottaScale: o salto da capacidade computacional necessária pela inteligência artificial
- A estratégia da AMD para suprir a demanda: plataforma Helios e aceleradores MI455X
- Expansão para o consumidor: processadores Ryzen AI 400 e a popularização da inteligência artificial
- Parceria AMD e OpenAI: poder de computação como motor do crescimento econômico
- Próximos passos: cronograma de entregas dos chips MI400 e expansão da YottaScale
A projeção de 5 bilhões de usuários de inteligência artificial até 2030
O cálculo divulgado pela presidente da AMD parte do crescimento observado desde 2022 e considera a difusão acelerada de aplicações em nuvem, dispositivos pessoais e sistemas corporativos. Se confirmado, o avanço representará uma multiplicação de cinco vezes na base de usuários em apenas oito anos, ritmo sem paralelo recente no setor de tecnologia da informação. O fenômeno abrange áreas como saúde, pesquisa científica, manufatura, varejo e entretenimento, setores já citados pela executiva como exemplos de adoção em larga escala.
Ao detalhar “quem” está impulsionando essa expansão, a AMD menciona empresas de diferentes portes, governos e consumidores finais. O “o quê” corresponde a serviços tão variados quanto diagnósticos médicos auxiliados por algoritmos, cadeias de produção totalmente monitoradas por dados e assistentes virtuais embarcados em smartphones. “Quando” e “onde” se entrelaçam: a estimativa de 5 bilhões de usuários é datada para 2030 e engloba todos os continentes, consolidando a IA como tecnologia global e não restrita a mercados específicos.
Era YottaScale: o salto da capacidade computacional necessária pela inteligência artificial
O crescimento do público não é o único componente da equação. Lisa Su introduziu o conceito de “YottaScale”, etapa em que a capacidade de processamento dedicada à IA ultrapassará 10 yottaflops — a marca de um número seguido por 24 zeros. Para contextualizar, a maioria dos sistemas de IA atuais opera na casa dos zettaflops, que já se traduzem em um 1 seguido de 21 zeros. A transição, portanto, exige um acréscimo de desempenho na ordem de 10 mil vezes em comparação com o cenário de 2022.
Esse “como” se concretiza por meio da combinação de unidades de processamento central (CPUs), unidades de processamento gráfico (GPUs), redes de alta velocidade e camadas de software cada vez mais otimizadas. A necessidade é motivada pelo “porquê”: modelos de linguagem, visão computacional e robótica demandam conjuntos de dados muito maiores e arquiteturas mais profundas do que aquelas que caracterizavam a primeira onda de IA comercial.
De acordo com a AMD, nunca houve momento anterior na história da computação em que se observasse simultaneamente tamanha elevação no total de usuários e tamanha exigência de capacidade de cálculo. A empresa sustenta que, se a infraestrutura global não acompanhar o ritmo projetado, haverá gargalo que poderá retardar inovações e restringir o acesso à tecnologia.
A estratégia da AMD para suprir a demanda: plataforma Helios e aceleradores MI455X
Para endereçar o desafio técnico, a companhia apresentou a plataforma Helios, estrutura em escala de rack concebida exclusivamente para data centers focados em cargas de aprendizado de máquina. Cada rack soma aproximadamente três toneladas, aloja 72 GPUs de nova geração MI455X, processadores centrais de futura linhagem e até 31 terabytes de memória. Em termos de desempenho, o conjunto atinge 2,9 quintilhões de cálculos por segundo.
O acelerador MI455X representa evolução direta do MI300 — referência até então nos catálogos da AMD — e entrega até dez vezes mais performance que o modelo anterior. A arquitetura envolve avanços em consumo energético, densidade de memória de alta largura de banda e interconexão interna, componentes considerados críticos para sustentar um ambiente dominado por cargas de IA.
Segundo dados divulgados durante a feira, a meta é que data centers especializados consigam escalar a nova plataforma em lotes pré-configurados, reduzindo o tempo de implantação, simplificando a gestão térmica e facilitando a integração com soluções de rede. A companhia reforça ainda a importância de emparelhar hardware e software, destacando bibliotecas otimizadas e ferramentas de desenvolvimento compatíveis com os principais frameworks de aprendizado profundo.
Expansão para o consumidor: processadores Ryzen AI 400 e a popularização da inteligência artificial
Além dos data centers, a AMD apresentou a linha Ryzen AI 400, direcionada a notebooks e desktops de uso pessoal. Os novos chips oferecem até 60 TOPS (trilhões de operações por segundo) exclusivamente alocados para inferência de IA em tarefas como tradução instantânea, geração de imagens localmente e otimização de videoconferências.
A disponibilidade de poder de processamento em dispositivos finais integra o “como” o público chegará aos 5 bilhões de usuários. À medida que fabricantes incorporam essas unidades em produtos de diferentes faixas de preço, o acesso à IA não dependerá unicamente da nuvem. Como resultado, softwares que hoje exigem conexão permanente podem adotar execuções híbridas, aliviando a carga nos servidores e melhorando a privacidade dos dados.
A empresa informou que a série começa a ser vendida ainda este mês, sugerindo impacto quase imediato no ecossistema de computadores pessoais. Com isso, as aplicações de IA embarcada tendem a se ampliar em ritmo acelerado, reforçando o “quando” do cronograma de adoção massiva.
Parceria AMD e OpenAI: poder de computação como motor do crescimento econômico
Para ilustrar a pressão real por recursos de hardware, o presidente da OpenAI, Greg Brockman, participou da apresentação e relatou que, sempre que a companhia desenvolve novos modelos ou libera funcionalidades adicionais, há intensa disputa interna por capacidade de processamento. A observação reforça o “porquê” da aposta em sistemas de larga escala.
Dentro dessa colaboração, a AMD começará a fornecer ainda este ano processadores da família MI400 à OpenAI, acordo avaliado em potencial de gerar receitas bilionárias anuais para o fabricante de semicondutores. A parceria indica que provedores de serviços de IA estão dispostos a diversificar a cadeia de suprimentos para garantir estabilidade frente ao aumento exponencial da demanda.
Brockman também projetou que, em curto prazo, indicadores econômicos poderão correlacionar diretamente o avanço do produto interno bruto global à disponibilidade de poder computacional. Caso essa relação se consolide, investimentos em infraestrutura de IA passariam a ocupar papel estratégico semelhante ao de rodovias, portos e sistemas energéticos em décadas anteriores.
Próximos passos: cronograma de entregas dos chips MI400 e expansão da YottaScale
O compromisso apresentado pela AMD aponta para o início das remessas dos chips MI400 à OpenAI ainda neste ano. Paralelamente, a instalação dos racks Helios em provedores de nuvem e centros de pesquisa deve ocorrer em fases sucessivas, alinhadas à capacidade de produção das GPUs MI455X. A expectativa, segundo a própria fabricante, é que a transição dos atuais zettaflops para a meta de mais de 10 yottaflops aconteça de forma contínua até 2030, acompanhando o crescimento estimado no número de usuários.
Com a divulgação desse cronograma, a empresa traça um roteiro de evolução tecnológica que servirá de referência para concorrentes, clientes corporativos e formuladores de políticas públicas interessados em dimensionar a infraestrutura necessária para suportar a próxima década da inteligência artificial.

Conteúdo Relacionado