Documentos vazados revelam custos de US$ 8,67 bilhões e receita aquém do esperado na OpenAI, sustentada pela parceria com a Microsoft

Documentos vazados revelam custos de US$ 8,67 bilhões e receita aquém do esperado na OpenAI, sustentada pela parceria com a Microsoft

A divulgação de documentos internos lançou nova luz sobre a estrutura de custos e receitas da OpenAI. Os papéis, obtidos pelo blog Wheres Your Ed At e revisados pelo portal TechCrunch, mostram que a desenvolvedora do ChatGPT convive com despesas operacionais em ritmo acelerado, ao mesmo tempo em que as entradas de caixa indicadas são menores do que estimativas públicas anteriores. As cifras também evidenciam a centralidade da Microsoft, que não só financia parte da operação como recebe uma fatia relevante do faturamento em razão de acordos de compartilhamento de receita.

Índice

Documentos expõem engrenagem financeira bilateral

A primeira constatação trazida pelo vazamento é o volume de dinheiro que circula entre as duas companhias. Depois de investir mais de US$ 13 bilhões na OpenAI, a Microsoft tornou-se a principal fornecedora de infraestrutura em nuvem para treinar e executar os modelos de linguagem da startup. Em troca, a OpenAI destina à parceira 20 % da própria receita, percentual citado nos papéis, mas ainda não confirmado de forma oficial por nenhum dos lados. Esses repasses têm caráter líquido; ou seja, acontecem depois da dedução de royalties que a própria Microsoft paga pelo uso da tecnologia da OpenAI em seus produtos.

O fluxo não se resume a uma única direção. A big tech devolve valor similar à parceira, também na casa de 20 %, referente ao ganho obtido com o buscador Bing — que incorpora modelos da OpenAI — e ao Azure OpenAI Service, que oferece acesso corporativo ao GPT. A combinação forma um circuito financeiro de difícil leitura externa, porque entradas e saídas se compensam continuamente, mascarando o valor bruto efetivamente gerado por cada participante.

Estrutura da parceria após aporte de US$ 13 bilhões

O investimento multibilionário anunciado em 2023 garantiu à OpenAI acesso quase irrestrito aos data centers do Azure. Esse capital foi acompanhado de créditos em nuvem para a fase de treinamento dos modelos, estágio que exige alto gasto inicial em GPUs. Entretanto, segundo os documentos, a fase que mais pressiona o caixa atualmente é a de inferência — o processamento necessário para oferecer respostas em tempo real a usuários do ChatGPT ou a empresas conectadas via API.

Nesse cenário, a Microsoft atua em três frentes: como acionista, como provedora de infraestrutura e como cliente que comercializa soluções baseadas no GPT. O arranjo amplia o alinhamento estratégico entre as duas empresas, mas também entrelaça seus resultados financeiros, dificultando análises isoladas sobre rentabilidade ou necessidade de capital adicional.

Como funciona o intercâmbio de receita

Os papéis vazados registram valores concretos da aplicação do contrato. Em 2024, a Microsoft recebeu US$ 493,8 milhões da OpenAI referentes ao compartilhamento de receita. Nos três primeiros trimestres de 2025, esse montante saltou para US$ 865,8 milhões. Como o percentual acordado é fixado em 20 %, é possível deduzir que a receita bruta mínima da OpenAI alcançou, respectivamente, US$ 2,47 bilhões em 2024 e US$ 4,33 bilhões até setembro de 2025.

Os mesmos documentos lembram que a Microsoft é devedora de royalties à startup, relativos a produtos que utilizam as tecnologias de linguagem. Esse pagamento, estimado no mesmo percentual, é abatido antes da transferência líquida para Redmond. A engrenagem cria um balanço de mão dupla: cada dólar faturado por um lado gera automaticamente compromisso financeiro com o outro, reforçando a dependência mútua.

Escalada inédita dos custos de inferência

A despesa que mais pressiona o orçamento da OpenAI é a inferência, etapa contínua de execução dos modelos para atender solicitações de texto, código ou imagens. Diferentemente do treinamento, frequentemente bancado com créditos de nuvem negociados previamente, a inferência exige desembolso em dinheiro conforme as requisições acontecem. E a maior parte desse serviço roda, por contrato, sobre a infraestrutura do Azure.

De acordo com os números vazados, a OpenAI gastou US$ 3,77 bilhões com inferência no Azure ao longo de 2024. A cifra praticamente dobra quando se avalia 2025: apenas entre janeiro e setembro o custo já alcançava US$ 8,67 bilhões. Para efeito de comparação, estimativas de mercado publicadas anteriormente apontavam cerca de US$ 2 bilhões em 2024 e US$ 2,5 bilhões no primeiro semestre de 2025. O novo material, porém, indica que só os seis primeiros meses de 2025 consumiram US$ 5,02 bilhões, quase o dobro das projeções externas.

O salto evidencia a relação direta entre popularidade do ChatGPT, adoção corporativa das APIs e custo operacional. Cada expansão de base usuária implica maior volume de chamadas ao modelo e, portanto, crescimento proporcional da conta de computação. A dinâmica coloca pressão constante sobre margens, já que as receitas adicionais precisam superar — por ampla diferença — o aumento linear de gastos para traduzir escala em lucro.

Receita implícita versus números divulgados

A aplicação aritmética do percentual de 20 % sobre os repasses à Microsoft fornece um indicador indireto de faturamento mínimo. Esse método sugere receita anual de US$ 2,47 bilhões em 2024, valor que contrasta com declarações públicas que posicionavam o número entre US$ 3,7 bilhões e US$ 4 bilhões. O mesmo desalinhamento aparece em 2025: projeções divulgadas internamente apontavam caminho para US$ 5 bilhões a US$ 6 bilhões no ano, mas a soma implícita até setembro fica em US$ 4,33 bilhões.

Quando esses valores são colocados ao lado das despesas de inferência, surge um quadro de operação potencialmente deficitária. Se em 2024 o gasto declarado de US$ 3,77 bilhões excede a receita mínima presumida, e se em nove meses de 2025 o custo já absorve quase o dobro do faturamento correspondente, a sustentabilidade financeira torna-se o ponto central de discussão no Vale do Silício.

O debate sobre a sustentabilidade da IA generativa

A OpenAI foi a primeira empresa a demonstrar, em escala global, o potencial comercial de modelos de linguagem de grande porte. Entretanto, os dados vazados mostram que a manutenção de sistemas desse porte pressupõe desembolsos contínuos que podem crescer mais rapidamente do que a capacidade de monetização. Analistas de mercado interpretam o material como indicativo de que a líder da corrida da IA ainda depende fortemente de capital externo e de condições preferenciais de nuvem para operar.

Também se reforça a percepção de que gigantes da tecnologia como a Microsoft ocupam posição estratégica singular: conseguem capturar parte da receita dos novos serviços de IA e, simultaneamente, lucrar com a venda da infraestrutura que os sustenta. Caso as despesas com inferência continuem progredindo no ritmo atual, a discussão sobre modelos alternativos de redução de custo — seja por meio de otimização de modelos, desenvolvimento de chips próprios ou regionalização de data centers — tende a ganhar urgência em toda a indústria.

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Conteúdo Relacionado

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK