Anthropic corta acesso da OpenAI aos modelos Claude após testes para o GPT-5
Anthropic bloqueou a utilização da sua família de modelos Claude pela OpenAI, alegando que a rival usava a API para aperfeiçoar o próximo sistema GPT-5. A medida interrompe o acesso pleno que a equipa técnica da criadora do ChatGPT mantinha desde 2023.
Motivos para o bloqueio
Fontes ouvidas pela revista Wired indicam que a OpenAI ligava o Claude a ferramentas internas através de credenciais de programador, evitando a interface pública de conversação. Esse método permitia comparações detalhadas de desempenho em tarefas de programação, escrita criativa e testes de segurança.
Segundo Christopher Nulty, porta-voz da Anthropic, a prática violou cláusulas contratuais que proíbem utilizar os serviços da empresa para desenvolver produtos concorrentes, treinar modelos rivais ou realizar engenharia reversa. A Anthropic considera que a OpenAI se servia das respostas do Claude para ajustar algoritmos próprios e, assim, obter vantagens no desenvolvimento do GPT-5.
Entre os testes mencionados estão pedidos sensíveis sobre abuso infantil, automutilação e difamação, áreas que exigem filtros rigorosos de segurança. A comparação dos resultados teria ajudado a OpenAI a calibrar o seu sistema perante conteúdos delicados.
Reacções das empresas
A Anthropic confirmou que o bloqueio não é total: a concorrente poderá continuar a usar o Claude em avaliações de benchmark e estudos de segurança, consideradas práticas legítimas de investigação. No entanto, o acesso para testes de desenvolvimento e melhoria de produtos foi cortado.
Em resposta, a OpenAI classificou o uso da API de terceiros como “procedimento habitual na indústria” e manifestou desapontamento com a decisão. A companhia salientou que a sua própria API permanece disponível para a Anthropic.
Casos semelhantes já ocorreram no sector. Facebook bloqueou o Vine em 2013 e a Salesforce restringiu a API do Slack após a aquisição da plataforma. A própria Anthropic tinha cortado o acesso da startup Windsurf, quando surgiram rumores de compra pela OpenAI.
Cenário de mercado e ascensão da Anthropic
O bloqueio surge num momento em que a Anthropic ultrapassou a OpenAI no mercado corporativo de grandes modelos de linguagem. Um relatório da Menlo Ventures atribui à empresa 32 % do uso empresarial, contra 25 % da rival. Em 2023, a proporção era inversa: 50 % para a OpenAI e 12 % para a Anthropic.
A diferença é ainda mais acentuada no segmento de codificação assistida. Ali, a Anthropic detém 42 % de utilização, o dobro dos 21 % registados pela OpenAI. Analistas relacionam o avanço à introdução dos modelos Claude 3.5 Sonnet, em Junho de 2024, e Claude 3.7 Sonnet, em Fevereiro de 2025, que melhoraram velocidade e qualidade de geração de código.
Enquanto isso, a OpenAI prepara o lançamento do GPT-5, apontado por rumores como capaz de superar os concorrentes em tarefas de programação. A perda de acesso pleno ao Claude poderá obrigar a empresa a rever parte do seu calendário de testes comparativos.
Implicações para a corrida de IA
A suspensão sublinha a crescente proteção de propriedade intelectual entre criadores de modelos de IA. À medida que as aplicações empresariais se tornam mais lucrativas, fornecedores limitam o intercâmbio de APIs para evitar o reforço da concorrência directa.
Especialistas antecipam que bloqueios recíprocos se tornem prática comum, pressionando equipas de investigação a recorrer a fontes open-source ou a desenvolver frameworks internos de avaliação. Por agora, a Anthropic garante que continuará a colaborar em iniciativas de segurança, mas reforça que não cederá a tecnologia para fins de desenvolvimento competitivo.
Com o GPT-5 esperado para os próximos meses, resta saber se a OpenAI conseguirá manter o ritmo de avanços sem o auxílio do principal rival na comparação de respostas. A decisão da Anthropic, entretanto, consolida a tendência de fecho de ecossistemas num sector onde a partilha de conhecimento foi, até há pouco, regra informal.

Imagem: Rokas Tenys via olhardigital.com.br