EigenAI atteint une reproductibilité à 100 % des sorties LLM sur GPU avec moins de 2 % de surcharge, permettant la création d’agents IA autonomes vérifiables pour le trading et les marchés de prédiction.
EigenCloud a lancé sa plateforme EigenAI sur le mainnet, affirmant résoudre un problème fondamental qui affecte les systèmes d’IA autonomes : vous ne pouvez pas vérifier ce que vous ne pouvez pas reproduire.
La réalisation technique ici est significative. EigenAI fournit une inférence déterministe exacte au bit sur GPU de production — ce qui signifie que des entrées identiques produisent des sorties identiques lors de 10 000 tests — avec seulement 1,8 % de latence supplémentaire. Pour quiconque construit des agents IA manipulant de l’argent réel, cela a son importance.
Pourquoi l’aléa des LLM compromet les applications financières
Lancez la même invite deux fois dans ChatGPT. Résultats différents. Ce n’est pas un bug — c’est le fonctionnement des mathématiques en virgule flottante sur GPU. La planification des kernels, le batching variable, et l’accumulation non-associative introduisent tous de petites variations qui se cumulent en résultats différents.
Pour les chatbots, personne ne remarque. Pour un agent de trading IA utilisant votre capital ? Pour un oracle de marché de prédiction décidant qui gagne $200 million en paris ? L’incohérence devient un problème.
EigenCloud cite le marché infâme de Polymarket « Zelenskyy portait-il un costume ? » comme étude de cas. Sur plus de $200 million en volume, des accusations de résolution arbitraire, et finalement une gouvernance humaine a dû intervenir. À mesure que les marchés se développent, l’intervention humaine ne suit pas. Un juge IA devient inévitable — mais seulement si ce juge produit le même verdict à chaque fois.
La pile technique
Obtenir la déterminisme sur GPU nécessitait de contrôler chaque couche. Les puces A100 et H100 produisent des résultats différents pour des opérations identiques en raison de différences architecturales dans l’arrondi. La solution d’EigenAI : les opérateurs et vérificateurs doivent utiliser des GPU SKU identiques. Leurs tests ont montré un taux de correspondance de 100 % sur des exécutions avec la même architecture, 0 % cross-architecture.
L’équipe a remplacé les kernels cuBLAS standard par des implémentations personnalisées utilisant des réductions synchrones de warp et un ordre fixe des threads. Pas d’atomiques en virgule flottante. Ils ont basé leur code sur llama.cpp pour sa petite taille et sa capacité d’audit, en désactivant la fusion dynamique de graphes et autres optimisations introduisant de la variabilité.
Le coût en performance se situe à 95-98 % du débit standard de cuBLAS. Des tests croisés sur des nœuds H100 indépendants ont produit des hachages SHA256 identiques. Des tests de stress avec des charges GPU en arrière-plan induisant des jitter de planification ? Toujours identiques.
Vérification via l’économie
EigenAI utilise un modèle de vérification optimiste emprunté aux rollups blockchain. Les opérateurs publient des résultats chiffrés sur EigenDA, la couche de disponibilité des données du projet. Les résultats sont acceptés par défaut mais peuvent être contestés durant une fenêtre de litige.
En cas de contestation, les vérificateurs réexécutent dans des environnements d’exécution sécurisés. Parce que l’exécution est déterministe, la vérification devient binaire : les octets correspondent-ils ? Les divergences entraînent une pénalité (slashing) sur la mise en garantie. L’opérateur perd de l’argent ; les challengers et vérificateurs sont rémunérés.
Le design économique vise à rendre la triche à valeur espérée négative une fois que la probabilité de contestation dépasse un certain seuil.
Ce qui se construit maintenant
Les applications immédiates sont simples : des arbitres de marchés de prédiction dont la décision peut être reproduite et auditée, des agents de trading où chaque décision est enregistrée et contestable, et des outils de recherche où les résultats peuvent être revus par des pairs via une réexécution plutôt que par confiance.
La tendance plus large s’aligne avec l’intérêt croissant des entreprises pour une IA déterministe dans les secteurs fortement réglementés. La santé, la finance, et le juridique exigent de plus en plus une reproductibilité que les systèmes probabilistes ne peuvent garantir.
Reste à voir si la surcharge de 2 % d’EigenAI sera acceptable pour des applications à haute fréquence. Mais pour des agents autonomes gérant des capitaux importants, la capacité de prouver l’intégrité de l’exécution pourrait justifier cette perte de performance.
Le livre blanc complet détaille l’analyse de sécurité formelle, les spécifications de conception du kernel, et la mécanique de slashing pour ceux qui construisent sur cette infrastructure.
Source de l’image : Shutterstock
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
EigenAI lance l'inférence AI déterministe bit-exact sur le réseau principal
Rongchai Wang
24 janv. 2026 00:07
EigenAI atteint une reproductibilité à 100 % des sorties LLM sur GPU avec moins de 2 % de surcharge, permettant la création d’agents IA autonomes vérifiables pour le trading et les marchés de prédiction.
EigenCloud a lancé sa plateforme EigenAI sur le mainnet, affirmant résoudre un problème fondamental qui affecte les systèmes d’IA autonomes : vous ne pouvez pas vérifier ce que vous ne pouvez pas reproduire.
La réalisation technique ici est significative. EigenAI fournit une inférence déterministe exacte au bit sur GPU de production — ce qui signifie que des entrées identiques produisent des sorties identiques lors de 10 000 tests — avec seulement 1,8 % de latence supplémentaire. Pour quiconque construit des agents IA manipulant de l’argent réel, cela a son importance.
Pourquoi l’aléa des LLM compromet les applications financières
Lancez la même invite deux fois dans ChatGPT. Résultats différents. Ce n’est pas un bug — c’est le fonctionnement des mathématiques en virgule flottante sur GPU. La planification des kernels, le batching variable, et l’accumulation non-associative introduisent tous de petites variations qui se cumulent en résultats différents.
Pour les chatbots, personne ne remarque. Pour un agent de trading IA utilisant votre capital ? Pour un oracle de marché de prédiction décidant qui gagne $200 million en paris ? L’incohérence devient un problème.
EigenCloud cite le marché infâme de Polymarket « Zelenskyy portait-il un costume ? » comme étude de cas. Sur plus de $200 million en volume, des accusations de résolution arbitraire, et finalement une gouvernance humaine a dû intervenir. À mesure que les marchés se développent, l’intervention humaine ne suit pas. Un juge IA devient inévitable — mais seulement si ce juge produit le même verdict à chaque fois.
La pile technique
Obtenir la déterminisme sur GPU nécessitait de contrôler chaque couche. Les puces A100 et H100 produisent des résultats différents pour des opérations identiques en raison de différences architecturales dans l’arrondi. La solution d’EigenAI : les opérateurs et vérificateurs doivent utiliser des GPU SKU identiques. Leurs tests ont montré un taux de correspondance de 100 % sur des exécutions avec la même architecture, 0 % cross-architecture.
L’équipe a remplacé les kernels cuBLAS standard par des implémentations personnalisées utilisant des réductions synchrones de warp et un ordre fixe des threads. Pas d’atomiques en virgule flottante. Ils ont basé leur code sur llama.cpp pour sa petite taille et sa capacité d’audit, en désactivant la fusion dynamique de graphes et autres optimisations introduisant de la variabilité.
Le coût en performance se situe à 95-98 % du débit standard de cuBLAS. Des tests croisés sur des nœuds H100 indépendants ont produit des hachages SHA256 identiques. Des tests de stress avec des charges GPU en arrière-plan induisant des jitter de planification ? Toujours identiques.
Vérification via l’économie
EigenAI utilise un modèle de vérification optimiste emprunté aux rollups blockchain. Les opérateurs publient des résultats chiffrés sur EigenDA, la couche de disponibilité des données du projet. Les résultats sont acceptés par défaut mais peuvent être contestés durant une fenêtre de litige.
En cas de contestation, les vérificateurs réexécutent dans des environnements d’exécution sécurisés. Parce que l’exécution est déterministe, la vérification devient binaire : les octets correspondent-ils ? Les divergences entraînent une pénalité (slashing) sur la mise en garantie. L’opérateur perd de l’argent ; les challengers et vérificateurs sont rémunérés.
Le design économique vise à rendre la triche à valeur espérée négative une fois que la probabilité de contestation dépasse un certain seuil.
Ce qui se construit maintenant
Les applications immédiates sont simples : des arbitres de marchés de prédiction dont la décision peut être reproduite et auditée, des agents de trading où chaque décision est enregistrée et contestable, et des outils de recherche où les résultats peuvent être revus par des pairs via une réexécution plutôt que par confiance.
La tendance plus large s’aligne avec l’intérêt croissant des entreprises pour une IA déterministe dans les secteurs fortement réglementés. La santé, la finance, et le juridique exigent de plus en plus une reproductibilité que les systèmes probabilistes ne peuvent garantir.
Reste à voir si la surcharge de 2 % d’EigenAI sera acceptable pour des applications à haute fréquence. Mais pour des agents autonomes gérant des capitaux importants, la capacité de prouver l’intégrité de l’exécution pourrait justifier cette perte de performance.
Le livre blanc complet détaille l’analyse de sécurité formelle, les spécifications de conception du kernel, et la mécanique de slashing pour ceux qui construisent sur cette infrastructure.
Source de l’image : Shutterstock