O ano de Anthropic

A Anthropic passou anos sendo a empresa responsável por IA. Em 2026, tornou-se a mais disruptiva.

As mesmas ferramentas que desenvolveu sob rigorosas diretrizes de segurança estão agora a desestabilizar o software empresarial, a transformar a forma como os engenheiros trabalham e a colocá-la no centro de um confronto completo com o Pentágono.

O principal desporto da indústria de IA nos últimos anos tem sido os benchmarks. Quem pontua mais alto, quem tem a janela de contexto mais longa, quem impressiona mais numa conferência. A Anthropic também jogou esse jogo.

Também fez uma aposta sustentada num mercado específico: engenheiros de software, altamente bem pagos, que passam os dias a fazer exatamente o tipo de trabalho em que a IA está a ficar boa. Esse foco está agora a dar frutos de uma forma que mudou a conversa sobre quem realmente está a vencer esta corrida.

Claude Code teve um momento semelhante ao do ChatGPT, mas para engenheiros. Os engenheiros começaram a lançar software a velocidades que pareciam quase impossíveis fisicamente. Os executivos da Anthropic têm sido vocais sobre o que isso significa para a profissão. Em Davos, o CEO Dario Amodei previu que a IA poderia lidar com a maior parte ou toda a engenharia de software, de ponta a ponta, em seis a 12 meses. O criador do Claude Code afirmou que o próprio título de trabalho pode desaparecer em breve.

A própria contratação da Anthropic conta uma história mais complexa. Os cargos abertos de engenharia de software da empresa subiram 170% desde janeiro de 2025, segundo um rastreador, com a curva a acelerar.

O que é mais difícil de ignorar é a evidência externa sobre a mudança de vibe na codificação com IA. Paul Ford, um tecnólogo e observador de longa data da indústria de software, escreveu no The New York Times que algo mudou em novembro.

Antes disso, as ferramentas de codificação com IA eram úteis, mas hesitantes. Depois, ele começou a terminar projetos que estavam em pastas há uma década, durante o seu trajeto de metro. Os amigos dele também notaram a mesma coisa. O canto dos engenheiros de software na internet ficou agitado com relatos semelhantes. “Sou menos valioso do que costumava ser”, escreveu Ford.

Quando a Anthropic publicou um artigo no final do mês passado afirmando que o Claude Code podia traduzir COBOL legado para linguagens modernas, a IBM perdeu cerca de 40 bilhões de dólares em valor de mercado numa única sessão. A venda mais ampla eliminou mais de um trilhão de dólares nas avaliações das Big Techs. As ações de software legal caíram. As ações de design também caíram. Analistas apontaram que a modernização de mainframes envolve muito mais do que converter código, e a barreira técnica da IBM é profunda. Jensen Huang, CEO da Nvidia, chamou o pânico de “ilógico”. O CEO da Franklin Templeton disse ao Financial Times que parecia uma ameaça real de longo prazo ao modelo de negócio do software empresarial.

Pelo menos para a Anthropic, a disrupção foi boa para os negócios. A percentagem de empresas nos EUA que pagam pelas suas ferramentas atingiu 20% em janeiro, contra cerca de 4% um ano antes. A OpenAI ainda é maior, mas a sua quota de gastos empresariais caiu de 50% para 27% no mesmo período, enquanto a da Anthropic subiu para 40%.

Depois vieram as exigências do Pentágono.

A administração Trump ordenou às agências federais que parassem de usar a tecnologia da Anthropic e rotulou a empresa como um risco na cadeia de abastecimento, uma designação normalmente reservada para empresas chinesas sob suspeita de espionagem. O gatilho foi uma disputa sobre as salvaguardas, com a Anthropic a recusar-se a dar permissão geral para as suas ferramentas em sistemas de armas autónomas ou vigilância em massa.

Em poucas horas, a OpenAI anunciou um novo acordo com o Pentágono. O CEO, Sam Altman, afirmou publicamente que incluía as mesmas proibições de armas autónomas e vigilância em massa que a Anthropic tinha solicitado. Nem todos acreditam nisso, e as repercussões têm sido rápidas de ambos os lados.

A aplicação da Anthropic atingiu o topo da App Store. Uma campanha de boicote direcionou-se à OpenAI. Acontece que manter os princípios, ou pelo menos parecer que se mantém, é uma forma de marketing por si só.

A designação de risco na cadeia de abastecimento é uma ameaça real, que pode afetar as principais relações da Anthropic com a Amazon e o Google, ambos grandes contratantes federais e dois dos maiores apoiantes da empresa. E a empresa ainda não é lucrativa.

Mas enquanto o drama com o Pentágono se desenrola, os engenheiros continuam nos seus trajetos de metro, a terminar em uma hora o que antes levava uma semana. Essa foi a coisa que iniciou tudo isto. E ainda só estamos em março.

📬 Inscreva-se no Briefing Diário

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar