A Anthropic confirmou: está a testar um novo modelo de nível "step change".


Código Mythos, código interno Capybara. O vazamento foi acidental, mas o modelo é real.
Como foi a comunicação sobre os lançamentos anteriores de IA? "Melhoria de X% no benchmark XX", "mais rápido e mais barato", "suporte a contextos mais longos".
E a descrição do Mythos? "Muito à frente de qualquer outro modelo de IA em capacidades de cibersegurança", "sinalizando uma onda de modelos capazes de explorar vulnerabilidades de forma muito superior aos defensores".
Percebe a diferença?
Antes era "nós somos melhores". Desta vez é "nós somos tão fortes que podem representar um risco".
A Anthropic tem sido a empresa mais forte na narrativa de segurança de IA. A sua RSP (Responsible Scaling Policy) é essencialmente uma limitação autoimposta — quando as capacidades do modelo ultrapassam um determinado limiar, medidas de segurança adicionais devem ser implementadas antes do lançamento.
Mythos pode ser o primeiro modelo a realmente desencadear uma revisão de segurança de alto nível.
A Anthropic pode ser muito cautelosa a curto prazo: "Acesso antecipado para clientes limitados" + "foco em defensores de cibersegurança". Não é um lançamento completo para consumidores.
A longo prazo, a curva de capacidades de IA pode não ser linear. "Step change" significa uma mudança abrupta — a evolução de um modelo para outro não é de 10%, mas uma mudança qualitativa.
Ver original
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar