Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
A Sentient Intelligence recentemente causou impacto na comunidade de pesquisa em IA com um artigo inovador que foi aceite na IEEE SaTML 2026—uma das principais conferências para segurança e confiabilidade em aprendizagem de máquina.
A pesquisa aprofunda-se numa questão fascinante: os impressões digitais de LLMs realmente se mantêm quando enfrentam ataques adversariais? É uma preocupação crítica para quem trabalha com robustez e segurança de IA. A equipa explorou a incorporação de identificadores únicos dentro de modelos de linguagem e testou se essas assinaturas permanecem detectáveis e estáveis em vários cenários de ataque.
O que torna este trabalho particularmente relevante é a forma como aborda a interseção entre segurança de IA, autenticação de modelos e resiliência adversarial. À medida que os sistemas de IA se tornam cada vez mais integrados em aplicações críticas, compreender se os marcadores embutidos sobrevivem a ataques sofisticados pode transformar a forma como abordamos a verificação de modelos e os protocolos de segurança.
Este tipo de pesquisa expande os limites do que sabemos sobre a robustez dos sistemas de IA—um trabalho académico sólido que contribui para a construção de uma infraestrutura de IA mais confiável.
Os artigos da IEEE são sempre assim, teoria perfeita e na prática?
A validação de LLMs realmente precisa ser levada a sério, senão o modelo pode ser adulterado sem que percebamos
---
O IEEE SaTML já aceitou, parece que essa rodada realmente tem conteúdo, mas na prática, será tão ideal assim, só o tempo dirá
---
Se a certificação do modelo realmente puder ser resolvida, o círculo de segurança evitará muitos problemas
---
No dia em que o fingerprinting for hackeado, tudo terá que ser refeito😅
---
Parece impressionante, mas a infraestrutura de IA confiável precisa começar a se destacar a partir de trabalhos como esse
---
Finalmente alguém está levando a sério a resiliência adversarial, era algo que devia ter sido feito há muito tempo
---
IEEE SaTML não é mau, só quero saber se na prática funciona...
---
lol Mais uma vez impressão digital e embedding, parece que esta solução pode durar quanto tempo
---
Se realmente puder verificar a autenticidade do modelo, a segurança da carteira talvez possa subir um nível
---
Mas na parte de autenticação de modelos, estou mais preocupado com o custo... será que pode ser barato
---
Resiliência adversarial realmente não é tão fácil de resolver, gostei desta pesquisa
---
Ei, mais um artigo de segurança, o web3 precisa acompanhar o ritmo desta pesquisa
---
Só tenho medo que o marker seja contornado, aí vai ter que redesenhar tudo...
---
Quebrar o fingerprint do LLM é apenas uma questão de tempo, mesmo as marcas mais fortes não resistem a muitos exemplos de contra-ataque
---
IEEE SaTML parece muito high-end, mas essas defesas acabam todas falhando na fase de implantação, confie em mim
---
Sim, ou seja, a autenticação do modelo no final ainda não escapa do destino de ser rasgada, é só uma questão de ciclo
---
Essa abordagem parece estar mais na onda de hype, a verdadeira robustez não está no fingerprint, mas na reconstrução da arquitetura
---
Muito interessante, finalmente alguém está estudando sério essa área, só no mercado secundário para saber o valor real
---
A palavra adversarial resilience voltou a ser destaque, e os artigos daquele ano passado, como estão agora?
---
A questão central não foi respondida, o fingerprint consegue sobreviver? Ou é mais uma conclusão aberta