Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Sentient Intelligence a récemment fait sensation dans la communauté de la recherche en IA avec un article révolutionnaire qui a été accepté à l'IEEE SaTML 2026—l'un des lieux de publication de premier plan pour la sécurité et la fiabilité de l'apprentissage automatique.
La recherche explore en profondeur une question fascinante : les empreintes digitales des LLM tiennent-elles réellement face aux attaques adverses ? C'est une préoccupation cruciale pour tous ceux qui travaillent sur la robustesse et la sécurité de l'IA. L'équipe a étudié l'intégration d'identifiants uniques au sein des modèles linguistiques et a testé si ces signatures restent détectables et stables dans divers scénarios d'attaque.
Ce qui rend ce travail particulièrement pertinent, c'est la façon dont il aborde l'intersection de la sécurité de l'IA, de l'authentification des modèles et de la résilience face aux attaques adverses. À mesure que les systèmes d'IA s'intègrent de plus en plus dans des applications critiques, comprendre si les marqueurs intégrés survivent à des attaques sophistiquées pourrait transformer notre approche de la vérification des modèles et des protocoles de sécurité.
Ce type de recherche repousse les limites de ce que nous savons sur la robustesse des systèmes d'IA—un travail académique solide qui contribue à construire une infrastructure d'IA plus fiable.
Les papiers IEEE sont toujours comme ça, la théorie est parfaite mais la réalité ?
La vérification des LLM doit vraiment être prise en compte, sinon on ne saura même pas si le modèle a été modifié
---
IEEE SaTML a été accepté, il semble que cette fois-ci, le contenu soit vraiment intéressant, mais en pratique, c'est une autre histoire
---
Si la certification des modèles pouvait vraiment être résolue, la communauté de la sécurité éviterait bien des douleurs
---
Le jour où le fingerprint sera cracké, il faudra tout recommencer 😅
---
Ça sonne bien, mais l'infrastructure d'IA fiable doit commencer à se développer à partir de ce genre de publications
---
Enfin, quelqu'un s'attaque sérieusement à la résilience adversariale, il était temps
---
IEEE SaTML, c'est bien, je veux juste savoir si cela peut être réellement mis en œuvre...
---
lol encore fingerprint et embedding, on dirait que cette solution peut durer combien de temps
---
Si cela peut vraiment vérifier l'authenticité du modèle, la sécurité du portefeuille pourrait atteindre un nouveau niveau
---
Mais concernant l'authentification du modèle, je m'inquiète surtout du coût... Est-ce qu'il peut être abordable ?
---
La résilience aux attaques adverses n'est vraiment pas facile à gérer, bravo pour cette recherche
---
Hey, encore un article sur la sécurité, le Web3 doit suivre le rythme de cette recherche
---
J'ai peur que le marqueur soit contourné, et qu'il faille tout redessiner...
---
Le fingerprint LLM sera probablement cracké un jour ou l'autre, même les marqueurs les plus forts ne résistent pas à un nombre suffisant d'échantillons adverses.
---
IEEE SaTML semble très haut de gamme, mais toutes ces défenses finissent par échouer lors de la phase de déploiement, crois-moi.
---
Eh bien, en fin de compte, l'authentification du modèle ne peut pas échapper à la déchirure, c'est juste une question de cycle.
---
Cette approche semble être une spéculation sur le concept, la véritable robustesse ne réside pas dans le fingerprint, mais dans une reconstruction au niveau de l'architecture.
---
C'est intéressant, enfin quelqu'un qui étudie sérieusement ce domaine, il faudra attendre la réaction du marché secondaire pour connaître la valeur réelle.
---
Le terme adversarial resilience commence à refaire surface, qu'est-ce qu'il en est de toutes ces publications de l'année dernière ?
---
La question centrale n'a pas été répondue, le fingerprint peut-il survivre ? Ou s'agit-il encore d'une conclusion ouverte.