Perspectives de l'industrie de la cryptographie en 2026 : 17 transformations clés, du paiement à la confidentialité

Compilation : Place de contenu de Gate Synthèse des points de vue de l’auteur original

Première partie : Mise à niveau des infrastructures de paiement et financières

La croissance explosive des échanges de stablecoins, face à une refonte du secteur financier

L’année dernière, le volume des échanges de stablecoins a atteint 46 000 milliards de dollars, un chiffre impressionnant — plus de 20 fois le volume quotidien moyen de PayPal, près de 3 fois le volume total de la plus grande plateforme de paiement mondiale Visa, et il se rapproche rapidement de l’échelle du réseau de transferts électroniques ACH des États-Unis.

La vitesse de transaction n’est plus un goulot d’étranglement : la compensation sur la blockchain peut être effectuée en moins d’une seconde, à un coût inférieur à 1 cent. Le vrai défi réside dans “la dernière étape” — comment faire en sorte que les stablecoins s’intègrent harmonieusement au système financier réel ?

De nouvelles startups comblent ce vide. Elles utilisent des techniques cryptographiques de vérification pour permettre aux utilisateurs de transférer sans couture le solde de leur compte local vers des actifs numériques ; intègrent des réseaux de paiement régionaux pour réaliser des transferts par scan et des règlements en temps réel ; ou même construisent des portefeuilles et plateformes de cartes interopérables globalement, faisant des stablecoins un outil de paiement quotidien.

Ces innovations favorisent un phénomène : le dollar numérique passe du marché marginal à la couche de paiement principale. Paiement de salaires transfrontaliers en temps réel, commerçants recevant des règlements globaux sans compte bancaire, applications et utilisateurs échangeant instantanément de la valeur — les stablecoins évoluent de simples outils de transaction vers une couche fondamentale de règlement sur Internet.

La tokenisation d’actifs physiques nécessite une conception plus “native”

La tokenisation d’actifs traditionnels devient une tendance, mais la plupart des approches restent superficielles. Les actions américaines, les matières premières, les fonds indiciels sont empaquetés en tokens, mais sans exploiter pleinement les caractéristiques intrinsèques de la blockchain.

Les véritables opportunités résident dans des produits synthétiques comme les contrats perpétuels — offrant une liquidité profonde et une mise en œuvre plus simple. La mécanique de levier des contrats perpétuels est transparente et compréhensible, ce qui en fait le dérivé le plus adapté au marché crypto. Les actions de marchés émergents, notamment, se prêtent particulièrement à une “perpétualisation” (certaines options sur actions ont déjà une liquidité supérieure à celle du marché au comptant).

Mais le choix s’impose : faut-il “perpétualiser” ou “tokeniser” les actifs ? Les deux sont possibles, mais d’ici 2026, on verra émerger davantage de méthodes d’actifs intrinsèquement crypto-native.

Un autre courant à suivre : la véritable “émission native de stablecoins” plutôt que leur simple tokenisation. À mesure que les stablecoins deviennent mainstream, ceux qui manquent d’une forte crédibilité — comme des “banques de niche” ne pouvant détenir que des actifs ultra-sécurisés — seront en difficulté, car ce modèle ne peut pas soutenir une économie chain-on.

Le vrai progrès consiste à bâtir une infrastructure de crédit sur la blockchain. Des gestionnaires d’actifs émergents, des protocoles de curation, etc., commencent à offrir des prêts garantis par des actifs off-chain, avec règlement on-chain. Mais le problème est que ces prêts sont souvent tokenisés après coup, ce qui augmente les coûts. La solution idéale serait de les lancer directement sur la blockchain, ce qui réduirait la gestion, accélérerait le règlement et élargirait l’accès. La normalisation et la conformité restent des défis, mais l’industrie explore activement ces voies.

Un héritage bancaire de plusieurs décennies entre dans une vague de modernisation

La vérité sur les systèmes centraux bancaires est souvent surprenante : des dizaines de milliers de milliards d’actifs mondiaux fonctionnent encore sur des mainframes datant des années 60-70, utilisant COBOL, avec des données transitant par des traitements batch plutôt que par API.

Les systèmes bancaires de deuxième génération (comme Temenos GLOBUS, etc.) ont été lancés dans les années 80-90, mais sont désormais obsolètes, avec une mise à niveau lente. Ces systèmes gèrent des comptes clés : dépôts, garanties, passifs, etc., et bien qu’ils soient éprouvés et approuvés par la régulation, leur dette technique et leurs coûts de conformité rendent toute innovation difficile — ajouter un paiement en temps réel peut prendre des mois, voire des années.

L’émergence des stablecoins et des actifs sur la blockchain change tout cela. Non seulement les stablecoins trouvent leur place dans le marché et le produit, mais surtout, les institutions financières traditionnelles les adoptent comme jamais auparavant. La tokenisation des dépôts, les obligations d’État et les obligations sur la blockchain permettent aux banques, fintechs et gestionnaires d’actifs de lancer de nouveaux produits et services pour de nouveaux clients, sans réécrire ces vieux systèmes stables mais dépassés.

Les stablecoins ouvrent une nouvelle voie à l’innovation dans la finance traditionnelle.

La reconstruction des infrastructures de paiement à l’ère des agents intelligents

Avec l’émergence massive des agents IA, la gestion commerciale passera d’un pilotage par clic utilisateur à une opération automatique en arrière-plan, ce qui redéfinit totalement la gestion des flux financiers.

Dans un monde où l’intention prime sur l’instruction, les agents IA doivent reconnaître les besoins, exécuter des promesses, déclencher des transactions — la vitesse du flux de valeur doit être comparable à celle de l’information.

C’est là que blockchain, smart contracts et protocoles on-chain jouent leur rôle. Aujourd’hui, les smart contracts peuvent réaliser des règlements en dollars américains en quelques secondes. D’ici 2026, de nouveaux primitives comme HTTP 402 permettront de rendre les règlements programmables et en temps réel : les agents pourront effectuer des paiements instantanés, sans permission, avec des données, puissance GPU ou API, sans factures, réconciliations ou traitements batch.

Les mises à jour logicielles pourront intégrer des règles de paiement, des limites de crédit et des chemins d’audit — sans avoir besoin d’intégrer des monnaies fiat, de vérification par les commerçants ou d’interventions financières. Les marchés prédictifs pourront se régler en synchronie avec l’évolution des événements, permettant aux traders de négocier librement, avec un règlement instantané mondial.

Lorsque la valeur circule comme un paquet de données sur Internet, le “flux de paiement” ne sera plus une couche métier indépendante, mais une composante fondamentale du réseau. Les banques deviendront des canaux de l’Internet, et les actifs, des infrastructures. À ce moment-là, la monnaie sera essentiellement une information routée par Internet — celui-ci ne soutient pas seulement le système financier, il en est la base même.

La démocratisation de la gestion de patrimoine : de l’élite à tous

Historiquement, la gestion patrimoniale personnalisée était réservée aux très riches — offrant conseils sur mesure et portefeuilles multi-actifs, coûteux et complexes.

La tokenisation d’actifs change la donne. Via la cryptographie, les stratégies IA et protocoles peuvent réaliser en temps réel, à faible coût, des portefeuilles personnalisés et les ajuster dynamiquement. Cela dépasse la gestion passive des “robo-advisors” — aujourd’hui, tout le monde peut accéder à une gestion active.

D’ici 2025, les institutions traditionnelles augmenteront leur exposition crypto (directement ou via des produits), mais ce n’est que le début. D’ici 2026, des plateformes conçues pour la “croissance patrimoniale” plutôt que la “protection” émergeront. Les fintechs et principales plateformes de trading, grâce à leur avance technologique, s’arrogeront des parts de marché. Par ailleurs, des outils DeFi comme les agrégateurs de rendement pourront automatiquement allouer des actifs aux marchés de prêt/rendement optimaux, construisant la source de rendement du portefeuille.

Remplacer la monnaie fiat par des stablecoins pour détenir de la liquidité inactive, investir dans des fonds monétaires RWA plutôt que dans des produits traditionnels — ces ajustements peuvent considérablement augmenter le rendement. De plus, les investisseurs particuliers peuvent désormais accéder plus facilement à des actifs privés peu liquides : prêts privés, actions Pre-IPO, private equity. La tokenisation déverrouille ces marchés tout en respectant les exigences réglementaires.

L’objectif ultime : lorsque le portefeuille inclut des actifs tokenisés divers (obligations, actions, private equity, actifs alternatifs), il peut se rééquilibrer automatiquement, sans transferts manuels entre plateformes — une avancée qualitative en termes d’efficacité.

Deuxième partie : Infrastructure de l’IA et des agents

De “Connais ton client” à “Connais ton agent”

Le principal frein à l’économie des agents IA évolue : ce n’est plus leur niveau d’intelligence, mais leur identité vérifiable. Le secteur financier compte 96 fois plus d’identités “non humaines” que d’employés humains, mais ces identités restent des “fantômes sans compte”.

L’infrastructure manquante clé : KYA (Know Your Agent), c’est-à-dire “authentification de l’agent”. Comme les humains ont besoin d’un score de crédit pour obtenir un prêt, les agents IA doivent disposer de certificats vérifiables cryptographiquement pour exécuter des transactions — ces certificats doivent être liés à une entité autorisante, avec des limites d’opération et une chaîne de responsabilité.

Avant que ce mécanisme ne soit en place, les traders seront bloqués par des pare-feu au niveau des proxies. La base KYC construite ces dix dernières années doit maintenant rapidement évoluer vers la KYA.

L’IA redéfinit la recherche académique

En tant qu’économiste mathématicien, je devais encore, au début de l’année, consacrer beaucoup de temps à faire comprendre à des modèles IA mon flux de travail de recherche. À la fin de l’année, je peux donner des instructions abstraites comme à un doctorant — parfois, le modèle fournit des réponses totalement nouvelles et correctes.

Ce mouvement dépasse l’expérience individuelle. L’usage de l’IA dans la recherche académique se généralise, notamment en logique et raisonnement — les modèles existants soutiennent non seulement la découverte scientifique, mais peuvent aussi résoudre de façon autonome des problèmes comme ceux du concours Putnam (le plus difficile des concours universitaires de mathématiques).

Quels domaines en tirent le plus de bénéfices, comment utiliser ces outils reste une question ouverte. Mais je prévois que la recherche IA engendrera et récompensera une nouvelle catégorie de chercheurs : ceux capables de prévoir les liens entre concepts, de déduire rapidement des conclusions à partir d’approximations floues. Ces réponses ne seront pas toujours exactes, mais indiqueront la bonne direction.

Ironie du sort : cela ressemble un peu à exploiter les “hallucinations” du modèle — quand il est suffisamment intelligent, donner de l’espace à la réflexion peut produire des conclusions absurdes, mais aussi mener à des découvertes révolutionnaires — comme l’humain dans la pensée non linéaire et non évidente, où réside la plus grande créativité.

Ce raisonnement nécessite de nouveaux workflows : pas une interaction d’un seul agent, mais un système imbriqué de modèles. Des modèles à plusieurs niveaux aident le chercheur à évaluer les idées des modèles précédents, à éliminer progressivement le bruit pour faire apparaître la valeur centrale. J’ai utilisé cette méthode pour écrire des articles, d’autres pour rechercher des brevets, créer de l’art ou (hélas) découvrir des vulnérabilités dans des smart contracts.

Mais faire fonctionner ces systèmes nécessite une meilleure interopérabilité des modèles, ainsi que des mécanismes pour reconnaître et récompenser équitablement la contribution de chaque modèle — deux enjeux que la cryptographie peut aider à résoudre.

Le réseau ouvert face à la “taxe invisible”

L’explosion des agents IA impose une taxe invisible sur le réseau ouvert, menaçant ses fondations économiques.

Le problème réside dans le fossé croissant entre deux couches d’Internet : la couche contenu (soutenue par la publicité) et la couche exécution. Aujourd’hui, les agents IA tirent leurs données de sites web alimentés par la publicité, offrant commodité aux utilisateurs, mais évitant systématiquement les sources de revenus qui soutiennent la création de contenu (publicité, abonnements).

Pour préserver un réseau ouvert et favoriser le développement de l’IA, il faut déployer massivement des solutions techniques et économiques — nouveaux modèles de sponsoring, systèmes d’attribution, mécanismes de financement innovants.

Les accords d’autorisation IA actuels sont une solution provisoire, ne compensant qu’une petite partie des revenus perdus. Le réseau doit évoluer vers un nouveau modèle économique où la valeur circule automatiquement.

Le changement clé à venir : passer d’autorisations statiques à une facturation en temps réel selon l’usage. Cela implique de tester et déployer des systèmes — peut-être via la blockchain — pour micro-paiements et traçabilité précise, récompensant instantanément chaque contributeur ayant fourni des données pour l’agent IA.

Troisième partie : Confidentialité, sécurité et confiance

La confidentialité deviendra la barrière la plus forte dans le domaine de la cryptographie

La confidentialité est une condition sine qua non pour la finance chain-on, mais c’est aussi une faiblesse majeure de presque toutes les blockchains existantes. La plupart des chaînes traitent la confidentialité comme un patch postérieur, non comme une conception centrale.

Mais aujourd’hui, la simple confidentialité suffit à isoler une chaîne. Plus important encore, la confidentialité crée un effet de verrouillage du réseau — appelé “effet réseau de la confidentialité”. Dans une ère où la performance devient comparable, cet effet est crucial.

Grâce aux ponts cross-chain, si toutes les données sont publiques, la migration entre chaînes est simple. Mais quand il s’agit de données privées, la situation s’inverse : le pont de tokens est simple, le pont privé est extrêmement difficile. L’entrée ou la sortie d’un espace privé comporte toujours un risque de dé-anonymisation via surveillance de la chaîne, pools de mémoire ou trafic réseau. Lors du transfert entre chaînes privées et publiques, des métadonnées comme l’ordre ou la volume des transactions peuvent fuiter, facilitant le traçage.

Comparé aux nouvelles chaînes homogènes (où la compétition pour l’espace de bloc réduit les coûts à zéro, et où la différenciation disparaît), les chaînes privées peuvent établir un effet de réseau plus solide. En réalité, si une blockchain publique générale manque d’écosystème développé, d’applications phares ou d’avantages de distribution, les utilisateurs et développeurs n’ont aucune raison de l’utiliser ou de lui rester fidèles. Les utilisateurs peuvent facilement échanger avec n’importe quelle autre chaîne — le choix devient sans importance.

Mais les chaînes privées changent la donne : une fois entré, il est plus difficile de sortir, et le risque de fuite de confidentialité est plus grand — créant un effet “gagnant prend tout”. Étant donné que la confidentialité est essentielle pour la majorité des applications, quelques chaînes privées pourraient dominer tout le marché crypto.

L’avenir de la communication : pas seulement résistante aux quantiques, mais aussi décentralisée

Le monde se prépare à l’ère quantique : de nombreuses applications de communication (comme certains réseaux sociaux ou outils de messagerie) ont déjà défini des standards anti-quantiques. Mais le problème est que presque toutes ces applications dépendent de serveurs privés, gérés par une seule organisation.

Ces serveurs sont des cibles idéales pour les gouvernements — ils peuvent être fermés, équipés de portes dérobées ou contraints de livrer des données. Si un gouvernement peut fermer un serveur, ou si une entreprise détient la clé privée ou la seule, à quoi sert la cryptographie quantique ?

Les serveurs privés exigent de “faire confiance à quelqu’un”, alors qu’un système sans serveur privé signifie “ne faire confiance à personne”. La communication doit se faire via des protocoles ouverts, sans confiance ni intermédiaire.

Cela s’obtient par la décentralisation du réseau : pas de serveurs privés, pas d’application unique dépendante, tout open source et avec une cryptographie ultra forte (y compris anti-quantiques). Sur un réseau ouvert, personne (individu, entreprise, ONG ou gouvernement) ne peut couper notre communication.

Même si un gouvernement ferme une application, 500 nouvelles versions apparaîtront le lendemain. Même si des nœuds sont arrêtés, l’incitation économique basée sur la blockchain pourra immédiatement prendre le relais. Quand chacun contrôle ses données et son identité via sa clé privée, tout change.

Les applications peuvent aller et venir, mais l’utilisateur contrôle toujours ses données et son identité — même sans posséder l’application elle-même. Il ne s’agit pas seulement d’anti-quantiques ou de cryptographie, mais aussi de propriété et de décentralisation. L’un sans l’autre ne suffit pas : sinon, on construit un système superficiellement inviolable, mais facilement fermé.

La confidentialité comme service

Derrière chaque modèle, agent ou processus automatisé, il y a une donnée fondamentale : l’information. Aujourd’hui, la majorité des flux de données (entrée/sortie) sont opaques, volatils et difficiles à auditer.

Acceptable pour certains usages consommateurs, mais dans la finance, la santé, etc., les entreprises doivent protéger la confidentialité des données sensibles. C’est aussi le principal obstacle à la tokenisation d’actifs RWA par les institutions.

Comment promouvoir la sécurité, la conformité, l’autonomie et l’innovation interopérable tout en protégeant la vie privée ?

La clé réside dans le contrôle d’accès aux données : qui contrôle ces données sensibles ? Comment circulent-elles ? Qui (ou quoi) peut y accéder ? Sans mécanisme de contrôle d’accès, les utilisateurs soucieux de leur vie privée doivent dépendre de plateformes centralisées ou de systèmes auto-construits — ce qui coûte du temps, de l’argent et limite les avantages de la gestion décentralisée des données.

Avec l’émergence d’agents autonomes (navigation, trading, décision), les utilisateurs et institutions ont besoin de mécanismes cryptographiques de vérification plutôt que de faire confiance “du mieux qu’ils peuvent”.

Je suis convaincu qu’il faut une approche “confidentialité comme service” : de nouvelles technologies offrant des règles d’accès aux données programmables, un chiffrement côté client et une gestion décentralisée des clés, permettant un contrôle précis de qui peut déchiffrer, quand et dans quelles conditions — tout cela en chaîne.

En combinant avec des systèmes de vérification de données, la protection de la vie privée deviendra une infrastructure clé d’Internet, pas seulement un patch applicatif, mais une véritable infrastructure fondamentale.

L’évolution de “code comme loi” vers “règles comme loi”

Plusieurs protocoles DeFi éprouvés ont récemment été attaqués par des hackers, malgré des équipes solides, des audits rigoureux et une stabilité opérationnelle depuis des années. Cela révèle une réalité inquiétante : les standards de sécurité du secteur restent basés sur des cas et de l’expérience.

Pour atteindre la maturité, la sécurité en DeFi doit évoluer d’une réponse passive à une conception proactive, passant d’un “faire de son mieux” à une approche basée sur des principes :

Dans la phase statique — avant déploiement (tests, audits, vérification formelle) — cela signifie valider que le système respecte des invariants globaux, pas seulement des propriétés locales choisies manuellement. De plus en plus, des outils d’aide à la preuve assistée par IA sont en développement pour aider à rédiger des spécifications techniques, exprimer des invariants, réduire le coût de la preuve manuelle.

Dans la phase dynamique — après déploiement (monitoring, exécution en temps réel) — ces invariants peuvent devenir des barrières de sécurité dynamiques — la dernière ligne de défense. Ces barrières sont codées en conditions, chaque transaction doit satisfaire en temps réel. On ne suppose plus que toutes les vulnérabilités seront découvertes — on force le respect des propriétés de sécurité clés dans le code, toute transaction violant ces propriétés est automatiquement annulée.

Ce n’est pas qu’une théorie. En réalité, presque chaque exploitation de vulnérabilité connue a déclenché une vérification de sécurité de ce type, qui aurait pu bloquer l’attaque.

Ainsi, la vision autrefois populaire de “code comme loi” évolue vers “règles comme loi” : même pour des attaques inédites, elles doivent respecter les exigences de sécurité du système, et les autres vecteurs d’attaque deviennent triviales ou extrêmement difficiles.

Quatrième partie : Nouvelles applications et innovations transsectorielles

La tendance vers la généralisation, la diversification et l’intelligence des marchés de prédiction

Les marchés de prédiction deviennent mainstream, et dans l’année à venir, leur taille, leur portée et leur intelligence vont s’accroître — mais cela pose aussi de nouveaux défis pour les startups.

D’abord, l’explosion des nouveaux contrats. On pourra non seulement parier sur des élections ou des événements géopolitiques majeurs, mais aussi sur des résultats détaillés ou des croisements complexes. Avec l’intégration de ces nouveaux contrats dans l’écosystème informationnel (déjà en cours), surgent des enjeux sociétaux clés : comment évaluer l’information, comment la concevoir pour qu’elle soit plus transparente, auditable, ouverte — c’est là que la cryptographie offre ses atouts.

Face à l’augmentation du nombre de contrats, il faut de nouveaux mécanismes de consensus et de validation. La gouvernance centralisée (pour décider si un événement a eu lieu, comment le confirmer) est essentielle mais suscite des controverses. Des cas comme celui de Zelensky ou des élections au Venezuela ont montré ses limites.

Pour faire face à ces cas et étendre les marchés de prédiction à des usages plus concrets, de nouveaux mécanismes décentralisés de gouvernance et des oracles basés sur de grands modèles de langage aideront à établir les faits en cas de litige. L’IA a déjà montré un potentiel de prédiction impressionnant. Sur ces plateformes, des agents IA peuvent analyser en temps réel des signaux de marché, réaliser des profits à court terme, découvrir de nouvelles dimensions cognitives, améliorer la prévision d’événements. Ces agents ne seront pas seulement des conseillers politiques — en analysant leurs stratégies, on pourra mieux comprendre les facteurs influençant des événements sociaux complexes.

Les marchés de prédiction remplaceront-ils les sondages ? Non, mais ils pourront renforcer leur efficacité (les données de sondage pouvant alimenter le marché). En tant que politologue, je suis surtout intéressé par la façon dont ces marchés collaborent avec un écosystème riche de sondages, mais il faut aussi exploiter l’IA et la cryptographie pour améliorer l’expérience d’enquête, garantir que les répondants sont de vrais humains et non des machines.

L’émergence des médias “par pari”

La prétendue objectivité des médias traditionnels a été remise en question. Internet donne la voix à chacun, et de plus en plus d’opérateurs, praticiens et créateurs communiquent directement avec le public. Leurs opinions reflètent leurs intérêts, mais paradoxalement, le public — contre toute attente — respecte et apprécie leur franchise.

L’innovation ne réside pas dans la croissance des réseaux sociaux, mais dans l’apparition d’outils cryptographiques permettant de faire des engagements publics et vérifiables. L’IA permet de générer du contenu à l’infini, à moindre coût, avec n’importe quelle identité (réelle ou virtuelle), et la simple parole (humaine ou machine) ne suffit plus comme preuve.

La tokenisation d’actifs, les verrouillages programmables, les marchés de prédiction et l’historique on-chain offrent une base de confiance plus solide : les commentateurs peuvent exprimer leur opinion tout en prouvant qu’ils ont parié dessus. Les podcasts peuvent verrouiller des tokens pour montrer qu’ils ne font pas de spéculation. Les analystes peuvent relier leurs prévisions à des règlements de marché publics, créant des attestations vérifiables.

Je qualifie cette tendance naissante de “médias par pari” : ces médias reconnaissent non seulement les conflits d’intérêts, mais peuvent aussi en faire la preuve. Dans ce modèle, la crédibilité ne repose pas sur une prétendue neutralité ou des déclarations creuses, mais sur la volonté de prendre des risques vérifiables. Les médias par pari ne remplaceront pas d’autres formes, mais les compléteront, en fournissant de nouveaux signaux : pas “croyez-moi parce que je suis neutre”, mais “regardez le risque que je prends — que vous pouvez vérifier”.

La cryptographie comme nouvelle infrastructure, au-delà des applications blockchain

Depuis des années, SNARKs (preuves à divulgation zéro) ont été confinés aux applications blockchain. Le coût est énorme : générer une preuve nécessite une charge de travail équivalente à des millions de fois le calcul lui-même. Distribués à des milliers de nœuds, cela a du sens, mais dans d’autres domaines, c’est peu pratique.

Cela va changer. D’ici 2026, le coût des preuves zkVM tombera d’environ 10 000 fois, avec une consommation mémoire réduite à quelques centaines de MB — permettant leur exécution sur smartphone, avec des coûts de déploiement négligeables.

Ce chiffre de 10 000 est crucial, car la performance GPU est environ 10 000 fois celle d’un CPU portable. D’ici fin 2026, un seul GPU pourra générer en temps réel des preuves pour un CPU. Cela pourrait réaliser une vision longtemps poursuivie : le cloud computing vérifiable.

Si vous utilisez déjà le cloud CPU (sans GPU, sans connaissance, ou avec des systèmes legacy), vous pourrez obtenir des preuves cryptographiques de la correction de vos calculs à un prix raisonnable. Le générateur de preuves sera optimisé pour GPU, votre code n’aura pas besoin d’être modifié.

La simplicité des transactions, la priorité à la construction

Considérer la transaction comme une étape intermédiaire plutôt que comme une fin en soi, c’est la philosophie des entreprises crypto. Aujourd’hui, à part stablecoins et infrastructures, presque toutes les entreprises crypto en croissance ont déjà vécu ou planifient de se tourner vers le trading.

Mais si “toutes les entreprises crypto deviennent des plateformes de trading”, quel sera l’impact ? La convergence massive entraînera une compétition féroce, ne laissant que quelques gagnants.

Cela signifie que les entreprises qui se précipitent dans le trading perdent l’opportunité de construire des modèles commerciaux plus résistants et durables. Je compatis avec les fondateurs qui luttent pour survivre, mais poursuivre à tout prix l’adéquation produit-marché a un coût.

Ce problème est encore plus aigu dans la crypto : la spéculation sur les tokens pousse souvent les fondateurs à rechercher une gratification immédiate plutôt qu’une adaptation à long terme — comme le test du marshmallow. Le trading en soi n’est pas nuisible, c’est une fonction essentielle du marché, mais ce n’est pas une fin en soi. Les fondateurs qui se concentrent sur l’adéquation “produit” et “marché” ont plus de chances de réussir.

La réglementation et la technologie : libérer tout le potentiel de la blockchain

Au cours des dix dernières années, l’un des plus grands obstacles à la blockchain aux États-Unis a été l’incertitude juridique. La réglementation des valeurs mobilières a été abusée et appliquée de manière sélective, obligeant les fondateurs à adopter des cadres conçus pour des entreprises classiques, pas pour la blockchain.

Pendant des années, les entreprises ont privilégié la minimisation des risques juridiques plutôt que la stratégie produit, les ingénieurs étant relégués au second plan, les avocats dominant. Résultat : des situations étranges où les fondateurs sont dissuadés d’être transparents, la distribution de tokens est arbitraire (pour éviter la réglementation), la gouvernance est une façade, la structure organisationnelle est conçue pour la conformité, et la conception des tokens évite la valeur économique ou le modèle commercial.

Pire encore, les projets évoluant en marge de la loi ont souvent mieux réussi que ceux qui construisent honnêtement.

Mais la réglementation du secteur crypto est imminente, et pourrait éliminer ces distorsions dès l’année prochaine. Si un projet de loi est adopté, il encouragera la transparence, établira des standards clairs, et offrira des voies précises pour le financement, l’émission de tokens et la décentralisation — en remplacement de la “roulette réglementaire” actuelle.

Après l’adoption de certaines lois sur les stablecoins, on a déjà observé une croissance explosive ; la réglementation de la structure du marché entraînera des changements encore plus importants — cette fois dans l’écosystème numérique. En d’autres termes, cette réglementation permettra à la blockchain de fonctionner comme un véritable réseau : ouvert, autonome, composable, neutre et décentralisé.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)