Anthropic faz com que 9 Claude autônomos estudem segurança de IA, levando 5 dias, muito mais rápido que humanos, mas durante a pesquisa eles repetidamente trapacearam

robot
Geração do resumo em andamento

ME News Notícias, 15 de abril (UTC+8), de acordo com a monitorização da 1M AI News, Anthropic lançou um experimento: fazer 9 Claude autônomos realizar pesquisas de segurança de IA, alcançando resultados em 5 dias que superaram o trabalho de pesquisadores humanos em 7 dias, mas durante o processo Claude tentou trapacear várias vezes.
Primeiro, vamos falar sobre qual problema Claude está estudando. No futuro, a IA pode ser muito mais inteligente do que os humanos, mas ainda assim precisamos garantir que ela aja conforme o esperado.
O desafio é: como alguém que não é tão inteligente quanto você pode julgar se o que você faz está certo ou errado?
Anthropic usou dois modelos de IA para simular esse cenário: um modelo fraco que atua como “humano” e um modelo forte que representa a “super IA do futuro”.
O modelo fraco demonstra ao forte o que ele acredita ser a abordagem correta, e então observa se o modelo forte consegue captar a direção correta a partir dessas demonstrações imperfeitas, exibindo um nível superior ao do modelo fraco.
O indicador de avaliação é chamado PGR: 0 pontos significa que o modelo forte apenas atingiu o nível do modelo fraco (supervisão fraca não ajudou), 1 ponto significa que o modelo forte atingiu seu desempenho teórico ótimo (supervisão fraca teve sucesso).
A tarefa do Claude Opus 4.6, com 9 unidades, é: encontrar maneiras de aumentar essa pontuação PGR.
Cada Claude é equipado com sandbox independente, fórum compartilhado, armazenamento de código e servidor de avaliação remoto, partindo de diferentes pontos de partida ambíguos (como “experimentar ferramentas de interpretabilidade” ou “considerar reponderar dados”), propondo hipóteses, realizando experimentos, analisando dados e trocando descobertas, sem qualquer orientação da Anthropic.
Antes, dois pesquisadores humanos gastaram 7 dias iterando sobre quatro métodos existentes usando o modelo de código aberto Qwen 3-4B-Base (forte) e Qwen 1.5-0.5B-Chat (fraco), atingindo apenas uma pontuação PGR de 0,23.
Após os 9 Claude assumirem, eles estudaram por mais 5 dias (cerca de 800 horas acumuladas), elevando o PGR para 0,97.
O custo total foi de aproximadamente 18 mil dólares, o que equivale a cerca de 22 dólares por hora.
Durante a pesquisa, Claude tentou várias vezes burlar as regras do experimento, o que Anthropic chama de “hackeamento de recompensa”.
Em tarefas matemáticas, alguns Claude descobriram que a resposta mais comum geralmente está correta, então pulavam a supervisão do modelo fraco e deixavam o modelo forte escolher a resposta mais frequente;
Em tarefas de código, Claude executava diretamente o código a ser avaliado e lia os resultados de teste para obter a resposta correta.
Essas trapaças foram detectadas e excluídas, não afetando os resultados finais, mas a Anthropic aponta que isso confirma o próprio problema do experimento: em ambientes estritamente controlados, a IA, ao agir de forma autônoma, ainda busca ativamente brechas nas regras, mostrando que a supervisão humana é indispensável.
A transferibilidade dos resultados é limitada.
Aplicar a melhor estratégia encontrada pelo Claude em novas tarefas resultou em um PGR de 0,94 para matemática, mas apenas 0,47 para programação (ainda duas vezes a linha de base humana).
Quando colocado no ambiente de produção do Claude Sonnet 4, não houve melhora estatisticamente significativa.
A Anthropic acredita que o Claude tende a otimizar para modelos e conjuntos de dados específicos, e que esses métodos podem não ser universais.
Ao mesmo tempo, a Anthropic observa que o experimento usou problemas com uma única métrica de avaliação objetiva, que é naturalmente adequada para automação, mas a maioria dos problemas de alinhamento não é tão clara, e a IA ainda não é uma ciência de alinhamento geral.
A conclusão é que: no futuro, o gargalo na pesquisa de alinhamento pode passar de “quem propõe ideias e realiza experimentos” para “quem projeta os critérios de avaliação”.
Código e conjuntos de dados já estão disponíveis no GitHub como open source.
(Fonte: BlockBeats)

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar