Anthropic amplia parceria com Google Cloud e garante acesso a um milhão de TPUs para modelos de IA

Anthropic amplia parceria com Google Cloud e garante acesso a um milhão de TPUs para modelos de IA

Lead — quem, o quê, quando, onde, como e porquê

A Anthropic comunicou, nesta quinta-feira (23), a expansão de seu vínculo com o Google Cloud, acordo que envolve investimentos estimados em dezenas de bilhões de dólares e prevê o acesso a até um milhão de Tensor Processing Units (TPUs) até 2026. O movimento, articulado entre as duas empresas nos Estados Unidos, visa ampliar a capacidade de computação necessária ao treinamento e à operação dos modelos de linguagem Claude, utilizados por mais de 300 mil clientes corporativos.

Índice

Escopo financeiro e cronograma de disponibilização

A companhia fundada por ex-pesquisadores da OpenAI classificou o pacto como um compromisso de “dezenas de bilhões de dólares”, embora não tenha detalhado valores. Em termos práticos, o contrato garante infraestrutura suficiente para disponibilizar mais de um gigawatt de potência computacional dedicada a inteligência artificial em 2026, quando o fornecimento de TPUs atinge o teto estipulado.

O que são TPUs e por que influenciam a estratégia

TPU é a sigla para Tensor Processing Unit, acelerador de IA concebido pelo Google. Esses chips são projetados para otimizar tanto o custo quanto o desempenho de atividades de aprendizado de máquina, especialmente o treinamento e a inferência de grandes modelos de linguagem (LLMs). O Google utiliza suas próprias TPUs em produtos como Gemini, Pesquisa, Fotos e Maps, e agora disponibiliza o mesmo backbone para parceiros como a Anthropic.

Segundo Thomas Kurian, diretor-executivo do Google Cloud, o retorno verificado pela equipe da Anthropic ao longo de anos de uso dos processadores justificou a expansão. O Google reforçou que o portfólio inclui a sétima geração da TPU, batizada de Ironwood, componente que sustenta a evolução contínua em eficiência por watt e densidade de cálculo.

Histórico da cooperação entre Anthropic e Google

O relacionamento corporativo começou em 2023, quando a Anthropic passou a treinar seus modelos na infraestrutura do Google Cloud. Nesse estágio inicial, as duas partes disponibilizaram o modelo Claude a empresas por meio da plataforma Vertex AI e do Google Cloud Marketplace. Milhares de organizações — entre elas Figma, Palo Alto Networks e Cursor — já acessam o Claude nesse ambiente para tarefas que vão de geração de texto à análise de código.

Ampliação beneficia pesquisa, testes e implantação responsável

Com a nova quantidade de TPUs reservada, a Anthropic pretende realizar estudos de alinhamento em larga escala e aprofundar testes de segurança antes da liberação de versões futuras do Claude. A infraestrutura adicional também deve acelerar a etapa de inferência, permitindo respostas mais rápidas para clientes finais.

Estratégia multiplataforma de chips continua intacta

Apesar do anúncio com o Google, a Anthropic mantém a decisão de distribuir sua carga de trabalho de IA por três fornecedores distintos. A lista inclui:

• TPUs do Google — foco em custo-benefício e integração com produtos nativos do ecossistema Google;

• Processadores Trainium da Amazon — voltados ao treinamento de modelos, dentro do Amazon Web Services (AWS);

• GPUs da Nvidia — utilizadas em cenários que exigem ampla compatibilidade de frameworks de aprendizado de máquina.

Segundo a empresa, o modelo híbrido assegura que o Claude permaneça disponível mesmo diante de flutuações na oferta de componentes ou eventuais interrupções em provedores de nuvem.

Impacto direto sobre a base de clientes

A Anthropic afirma atender atualmente mais de 300 mil clientes empresariais, cada um responsável por mais de 100 mil dólares em receita operacional. Nos últimos doze meses, o número de grandes contas aumentou quase sete vezes. Para esse público — que inclui desde companhias listadas na Fortune 500 até startups nativas de IA — a possibilidade de escalar consultas ao Claude sem gargalos de desempenho é considerada essencial.

Receita anual aproxima-se de 7 bilhões de dólares

O volume de vendas reportado pela Anthropic aproxima-se de US$ 7 bilhões anuais. Parte desse resultado deriva da adoção do Claude como ferramenta de apoio a produtividade, análise de dados e atendimento automatizado. A expansão da infraestrutura em parceria com o Google visa acompanhar a “demanda exponencialmente crescente”, conforme descrição da própria empresa.

Relação com a Amazon permanece prioritária

No mesmo comunicado em que detalha o acordo com o Google, a Anthropic sublinha que a Amazon continua sendo sua principal parceira de treinamento e provedora de nuvem. A varejista já injetou US$ 8 bilhões na desenvolvedora de IA — valor mais do que o dobro dos US$ 3 bilhões em capital confirmados pelo Google.

Além do aporte financeiro, a cooperação com a Amazon inclui o Projeto Rainier, um cluster com centenas de milhares de chips de IA distribuídos por vários data centers norte-americanos. Esse arranjo facilita redundância e reduz a latência para aplicativos empresariais rodando sobre a AWS.

Capacidade computacional superior a um gigawatt

O acesso escalonado a um milhão de TPUs representa, segundo as estimativas das empresas, a disponibilização de mais de um gigawatt de potência computacional para IA em 2026. Essa métrica ilustra o grau de energia elétrica que será convertido em cálculos de aprendizado profundo, refletindo o peso da infraestrutura na corrida por modelos mais robustos.

Consequências para o ecossistema de IA corporativa

Para as organizações que utilizam o Google Cloud, a presença de modelos Claude em maior escala pode significar redução de fila para treinamento personalizado, menor tempo de resposta de APIs e possibilidade de integrar versões atualizadas assim que forem liberadas. Já para o Google, o contrato reforça a posição de sua nuvem como ambiente voltado a cargas de trabalho de IA de alta criticidade.

Perspectivas até 2026

Até o prazo máximo de fornecimento das TPUs, a Anthropic espera lançar novas iterações do Claude e ampliar o conjunto de ferramentas associadas, sempre sustentada pelo tripé Google-Amazon-Nvidia. O planejamento prevê ciclos recorrentes de testes de alinhamento, requisito considerado central pela companhia para mitigar vieses e garantir uso responsável.

Conclusões factuais

O acerto anunciado hoje insere a dupla Anthropic-Google em uma trajetória de investimento multibilionário, centrado na ampliação de recursos de hardware específico para inteligência artificial. Com receita em ascensão, base de clientes em franca expansão e uma malha de data centers de múltiplos fornecedores, a empresa aposta na diversificação de chips como caminho para manter competitividade e atender a exigências de disponibilidade global.

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Conteúdo Relacionado

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK