Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Vitalik Buterin prône une IA centrée sur l'humain : pourquoi l'augmentation l'emporte sur l'autonomie
Vitalik Buterin, le fondateur d’Ethereum, a récemment pris position contre la tendance dominante consistant à poursuivre des systèmes d’intelligence artificielle entièrement autonomes. Dans des commentaires largement diffusés au sein de la communauté crypto, Vitalik a souligné que les nouvelles initiatives de développement de l’IA devraient privilégier « l’amélioration de l’humanité » comme principe fondamental, en s’éloignant activement des systèmes capables de fonctionner de manière indépendante pendant plus de soixante secondes sans supervision humaine.
La divergence croissante entre les philosophies de développement de l’IA
Les remarques du fondateur d’Ethereum mettent en lumière une tension critique dans le développement de l’IA. Alors que des entreprises du monde entier rivalisent pour construire des systèmes d’(ASI) superintelligences artificielles avec une intervention humaine minimale, Vitalik soutient que cette trajectoire néglige une alternative plus prometteuse : l’IA augmentée conçue pour amplifier les capacités cognitives humaines plutôt que pour remplacer le jugement humain. Il a souligné que même si toutes les préoccupations existantes concernant la sécurité de l’IA s’avéraient infondées, l’obsession actuelle pour des systèmes entièrement autonomes représente une mauvaise allocation fondamentale des ressources et des talents.
Pourquoi l’IA augmentée reste sous-explorée
L’argument central de Vitalik tourne autour de ce qu’il décrit comme « la construction d’un mécanisme pour le cerveau humain » — essentiellement, créer des outils d’IA qui améliorent plutôt que remplacent la prise de décision humaine. Cette philosophie contraste fortement avec la trajectoire actuelle de l’industrie, où la majorité des investissements importants et des talents techniques convergent vers la création de systèmes ASI indépendants. Il a insisté sur le fait que les solutions d’IA augmentée restent remarquablement rares dans le paysage actuel du développement, malgré leur potentiel à répondre aux préoccupations de sécurité de l’IA de manière plus élégante que la tentative de créer des systèmes parfaitement autonomes.
L’impératif de l’open source
Au-delà de sa critique des priorités actuelles de développement, Vitalik a vivement plaidé en faveur de projets d’IA d’augmentation humaine adoptant des modèles de développement open source. Il croit que la transparence et l’accès communautaire à ces systèmes peuvent mieux garantir qu’ils restent alignés avec les valeurs et la supervision humaines. Cette recommandation souligne sa conviction que l’avenir de l’IA bénéfique ne réside pas dans la création d’entités indépendantes, mais dans le développement de technologies qui rendent les humains plus capables, mieux informés et plus maîtres de leur destin.