Ce rapport, rédigé par Tiger Research, analyse comment Intuition réalise un consensus standard grâce à une structure de connaissances atomique, un registre de jetons de consensus (TCR) et un système de mesure de confiance basé sur des signaux, afin de reconstruire l'infrastructure réseau à l'ère de l'IA des agents.
Résumé des points clés
L'ère des agents intelligents AI est déjà arrivée. Les agents intelligents AI ne peuvent pas pleinement réaliser leur potentiel. L'infrastructure réseau actuelle est conçue pour les humains. Les sites Web utilisent différents formats de données. Les informations restent non vérifiées. Cela rend difficile pour les agents de comprendre et de traiter les données.
Intuition fait évoluer la vision du Web sémantique grâce à une approche Web3. Elle résout les limitations existantes. Le système structure les connaissances en atomes (Atoms). Il utilise un registre de consensus basé sur des jetons (TCR) pour parvenir à un consensus sur l'utilisation des données. Le signal (Signal) détermine le niveau de confiance dans les données.
Intuition va changer le réseau. Le réseau actuel est similaire à une route non revêtue. Intuition crée des autoroutes où les agents peuvent fonctionner en toute sécurité. Cela deviendra la nouvelle norme d'infrastructure. Cela réalisera le véritable potentiel de l'ère de l'IA des agents.
L'ère des agents intelligents AI est en plein essor. Nous pouvons imaginer un avenir où des agents personnels gèrent tout, des plans de voyage à la gestion financière complexe. Mais dans la pratique, la situation n'est pas si simple. Le problème ne réside pas dans la performance de l'IA elle-même. La véritable limitation réside dans l'infrastructure réseau actuelle.
Le réseau est construit pour que les humains lisent et interprètent à travers des navigateurs. Par conséquent, il est très mal adapté aux agents qui nécessitent une interprétation sémantique et une connexion de relations entre différentes sources de données. Ces limitations sont évidentes dans les services quotidiens. Les sites Web des compagnies aériennes peuvent indiquer l'heure de départ comme "14h30", tandis que les sites d'hôtels affichent l'heure d'enregistrement comme "14h30". Les humains comprennent immédiatement que les deux représentent le même moment, mais les agents les interpréteront comme des formats de données complètement différents.
Source : Tiger Research
Le problème ne réside pas seulement dans les différences de format. Un défi clé est de savoir si l'agent peut faire confiance aux données elles-mêmes. Les humains peuvent traiter des informations incomplètes en s'appuyant sur le contexte et l'expérience antérieure. En revanche, les agents manquent de critères clairs pour évaluer la provenance ou la fiabilité. Cela les rend susceptibles aux entrées erronées, aux conclusions défectueuses et même aux illusions.
Finalement, même les agents les plus avancés ne peuvent pas prospérer dans ces conditions. Ils sont comme des voitures de F1 : peu importe leur puissance, elles ne peuvent pas rouler à pleine vitesse sur une route non pavée (données non structurées). Si des panneaux trompeurs (données peu fiables) sont dispersés sur la route, elles pourraient ne jamais atteindre la ligne d'arrivée.
2. La dette technique du réseau : reconstruire les bases
Cette question a été soulevée pour la première fois il y a plus de 20 ans par le fondateur du World Wide Web, Tim Berners-Lee, à travers sa proposition sur le Web sémantique.
L'idée centrale du web sémantique est très simple : structurer les informations du réseau afin que les machines puissent les comprendre, et pas seulement comme un texte lisible par les humains. Par exemple, « Tiger Research a été fondée en 2021 » est clair pour les humains, mais pour les machines, c'est simplement une chaîne de caractères. Le web sémantique le structure en « Tiger Research (sujet) - a été fondée (prédicat) - en 2021 (objet) », afin que les machines puissent interpréter le sens.
Cette méthode est en avance sur son temps, mais n'a finalement pas réussi. La principale raison en est les défis de mise en œuvre. Parvenir à un consensus sur le format des données et les normes d'utilisation s'est avéré difficile, et plus important encore, il est presque impossible de construire et de maintenir un vaste ensemble de données par le biais de contributions volontaires des utilisateurs. Les contributeurs n'ont pas reçu de récompenses ou d'avantages directs. De plus, la fiabilité des données créées reste une question non résolue.
Néanmoins, la vision du web sémantique reste valable. Le principe selon lequel les machines doivent comprendre et utiliser les données au niveau sémantique n'a pas changé. À l'ère de l'IA, ce besoin devient encore plus crucial.
3. Intuition : Revitaliser le Web sémantique à l'aide de Web3
Intuition évolue la vision du Web sémantique par une approche Web3 afin de résoudre les limitations existantes. Le cœur du projet réside dans la création d'un système qui incite les utilisateurs à participer volontairement à l'accumulation et à la vérification de données structurées de haute qualité. Ce système construit de manière systématique un graphe de connaissances lisible par machine, avec des sources claires et vérifiables. En fin de compte, cela fournit une base pour le fonctionnement fiable des agents et nous rapproche de l'avenir que nous imaginons.
3.1. Atome : modules de construction de la connaissance
Intuition divise d'abord toutes les connaissances en unités minimales appelées atomes (Atoms). Les atomes représentent des concepts tels que des personnes, des dates, des organisations ou des attributs. Chaque atome a un identifiant unique (utilisant des techniques telles que les identifiants décentralisés DIDs) et existe de manière indépendante. Chaque atome enregistre les informations sur le contributeur, vous permettant ainsi de vérifier qui a ajouté quelles informations et à quel moment.
La raison pour laquelle il est clair de décomposer les connaissances en atomes. L'information apparaît souvent sous forme de phrases complexes. Les machines comme les agents ont des limites structurelles lorsqu'il s'agit d'analyser et de comprendre de telles informations composites. Elles ont également du mal à déterminer quelles parties sont exactes et lesquelles sont erronées.
Sujets : Tiger Research
Prédicat : établi en
Objet : année 2021
Considérez la phrase "Tiger Research a été fondée en 2021". Cela peut être vrai, ou seulement partiellement incorrect. L'organisation existe-t-elle réellement, "la date de création" est-elle un attribut approprié, et 2021 est-il correct, chacun de ces éléments doit être vérifié individuellement. Mais traiter toute la phrase comme une unité rend difficile la distinction entre les éléments qui sont exacts et ceux qui sont erronés. Suivre la source de chaque information devient également complexe.
L'atome a résolu ce problème. En définissant chaque élément comme un atome indépendant, tel que [Tiger Research], [fondé en], [2021], vous pouvez enregistrer la source et vérifier chaque élément séparément.
Sujet : La date de création de Tiger Research est 2021.
Prédicat : basé sur
Objet : Enregistrement officiel
Les atomes ne sont pas seulement des outils de découpe d'information - ils peuvent se combiner comme des briques Lego. Par exemple, les atomes individuels [Tiger Research], [s'est formé en] et [2021] se connectent pour former un triplet. Cela crée une information significative : "Tiger Research s'est formé en 2021." Cela suit la même structure que les triplets dans le RDF (cadre de description des ressources) du Web sémantique.
Ces triplets peuvent eux-mêmes devenir des atomes. Le triplet « Tiger Research a été fondé en 2021 » peut être étendu en un nouveau triplet, tel que « La date de création de Tiger Research en 2021 est basée sur les enregistrements commerciaux. » Grâce à cette méthode, les atomes et les triplets se combinent de manière répétée, évoluant de petites unités vers des structures plus grandes.
Le résultat est qu'Intuition a construit un graphe de connaissances fractal qui peut s'étendre indéfiniment à partir d'éléments de base. Même les connaissances complexes peuvent être décomposées pour vérification, puis recombinées.
3.2. TCRs : Consensus dirigé par le marché
Si l'Intuition propose un cadre conceptuel de connaissances structurées à travers des atomes, trois questions clés demeurent : Qui va contribuer à la création de ces atomes ? Quels atomes peuvent être dignes de confiance ? Lorsque différents atomes rivalisent pour représenter le même concept, lequel devient la norme ?
Source : Livre blanc léger d'Intuition
Intuition résout ce problème grâce aux TCR. Les TCR sont basés sur des entrées de filtrage de contenu valorisées par la communauté. Le staking de jetons reflète ces jugements. Les utilisateurs stakent des $TRUST (le jeton natif d'Intuition) lorsqu'ils proposent de nouveaux atomes, triplets ou structures de données. D'autres participants peuvent staker des jetons du côté des soutiens s'ils considèrent que la proposition est utile ; s'ils la jugent inutile, ils stakeront des jetons du côté des opposants. Ils peuvent également staker sur des alternatives concurrentielles. Si les données choisies par l'utilisateur sont fréquemment utilisées ou obtiennent une note élevée, ils recevront des récompenses. Sinon, ils perdront une partie de leur staking.
Les TCRs vérifient une seule preuve, mais ils résolvent également le problème de la normalisation de l'ontologie. La normalisation de l'ontologie signifie qu'il faut décider quelle méthode devient la norme commune lorsqu'il existe plusieurs façons d'exprimer le même concept. Les systèmes distribués font face au défi d'atteindre ce consensus sans coordination centralisée.
Considérez les prédicats des évaluations de deux produits concurrents : [hasReview] et [customerFeedback]. Si [hasReview] est introduit en premier et que de nombreux utilisateurs se basent dessus, les premiers contributeurs détiennent des droits sur les jetons dans ce succès. En même temps, les partisans de [customerFeedback] obtiennent des incitations économiques, s'orientant progressivement vers des normes adoptées plus largement.
Ce mécanisme reflète comment la norme des jetons ERC-20 est adoptée de manière naturelle. Les développeurs qui adoptent ERC-20 bénéficient d'avantages de compatibilité clairs - intégration directe dans les portefeuilles, échanges et dApps existants. Ces avantages attirent naturellement les développeurs à utiliser ERC-20. Cela montre qu'un choix uniquement motivé par le marché peut résoudre les problèmes de normalisation dans un environnement distribué. Les TCR fonctionnent sur des principes similaires. Ils réduisent les luttes des agents avec des formats de données fragmentés et fournissent un environnement où les informations peuvent être comprises et traitées de manière plus cohérente.
3.3. Signal : Construire un réseau de connaissances basé sur la confiance
Intuition structure les connaissances à travers des atomes et des triplets, et utilise des incitations pour parvenir à un Consensus sur « ce qui est réellement utilisé ».
Le dernier défi demeure : dans quelle mesure pouvons-nous faire confiance à cette information ? Intuition introduit le signal (Signal) pour combler cette lacune. Le signal exprime la confiance ou la méfiance de l'utilisateur envers un atome ou un triplet spécifique. Il va au-delà de l'enregistrement simple de l'existence des données : il capture le soutien que les données obtiennent dans différents contextes. Le signal systématise le processus de vérification sociale que nous utilisons dans la vie réelle, par exemple lorsque nous jugeons l'information sur la base de "des personnes fiables l'ont recommandé" ou "des experts l'ont validée".
Les signaux s'accumulent de trois manières. Tout d'abord, les signaux explicites impliquent des évaluations intentionnelles faites par les utilisateurs, comme le jalonnement de jetons. Ensuite, les signaux implicites émergent naturellement des modèles d'utilisation (comme des requêtes répétées ou des applications). Enfin, les signaux de transmission créent des effets relationnels - lorsque les personnes en qui j'ai confiance soutiennent une information, j'ai également tendance à lui faire davantage confiance. Ces trois éléments combinés créent un réseau de connaissances montrant qui fait confiance à quoi, combien ils font confiance et de quelle manière ils font confiance.
Source : Livre blanc d'Intuition
Intuition fournit cela à travers des tunnels de réalité (Reality Tunnels). Les tunnels de réalité offrent une perspective personnalisée pour visualiser les données. Les utilisateurs peuvent configurer des tunnels qui priorisent les évaluations d'un groupe d'experts, valorisent les opinions d'amis proches ou reflètent la sagesse d'une communauté spécifique. Les utilisateurs peuvent choisir des tunnels de confiance ou basculer entre plusieurs tunnels pour effectuer des comparaisons. Les agents peuvent également utiliser des méthodes d'interprétation spécifiques à des fins particulières. Par exemple, choisir un tunnel qui reflète le réseau de confiance de Vitalik Buterin amènera l'agent à interpréter l'information et à prendre des décisions "du point de vue de Vitalik".
Tous les signaux sont enregistrés sur la chaîne. Les utilisateurs peuvent vérifier de manière transparente pourquoi certaines informations semblent fiables, quels serveurs sont à l'origine, qui les garantit et combien de jetons ont été mis en jeu. Ce processus de formation de confiance transparent permet aux utilisateurs de vérifier directement les preuves, plutôt que d'accepter aveuglément les informations. Les agents peuvent également utiliser cette base pour faire des jugements adaptés au contexte et à la perspective individuels.
4. Que se passerait-il si l'Intuition devenait l'infrastructure réseau de nouvelle génération ?
L'infrastructure d'Intuition n'est pas seulement une idée conceptuelle, mais une solution pratique pour résoudre les problèmes auxquels les agents sont confrontés dans l'environnement réseau actuel.
Le réseau actuel est rempli de données fragmentées et d'informations non vérifiées. Intuition transforme les données en graphes de connaissances déterministes, fournissant des résultats clairs et cohérents pour toute requête. Les signaux basés sur des jetons et le processus de curation vérifient ces données. Les agents peuvent prendre des décisions claires sans dépendre de suppositions. Cela améliore à la fois l'exactitude, la vitesse et l'efficacité.
Intuition fournit également une base pour la collaboration des agents. Des structures de données standardisées permettent à différents agents de comprendre et de communiquer des informations de la même manière. Tout comme l'ERC-20 a créé la compatibilité des jetons, le graphe de connaissances d'Intuition a créé un environnement où les agents peuvent collaborer sur des données cohérentes.
Intuition va au-delà des infrastructures limitées aux agents intelligents, devenant ainsi la couche de base que tous les services numériques peuvent partager. Elle peut remplacer les systèmes de confiance que chaque plateforme construit actuellement de manière isolée par une base unifiée - les avis d'Amazon, les notes d'Uber, les recommandations de LinkedIn. Tout comme HTTP fournit un standard de communication universel pour le web, Intuition fournit des protocoles standard pour les structures de données et la validation de confiance.
Le changement le plus important est la portabilité des données. Les utilisateurs possèdent directement les données qu'ils créent et peuvent les utiliser partout. Les données isolées sur différentes plateformes seront connectées et redessineront l'ensemble de l'écosystème numérique.
5. Reconstruire les bases pour l'ère des agents intelligents à venir
L'objectif d'Intuition n'est pas une simple amélioration technique. Il vise à surmonter la dette technique accumulée au cours des 20 dernières années et à repenser fondamentalement l'infrastructure du réseau. Lorsque le web sémantique a été proposé pour la première fois, la vision était claire. Mais elle manquait d'incitations pour encourager la participation. Même si leur vision était réalisée, les avantages restaient flous.
La situation a changé. Les progrès de l'IA rendent l'ère des agents intelligents une réalité. Les agents intelligents dépassent désormais le simple outil. Ils représentent notre capacité à exécuter des tâches complexes. Ils prennent des décisions autonomes. Ils collaborent avec d'autres agents. Ces agents ont besoin d'innovations fondamentales dans l'infrastructure réseau existante pour fonctionner efficacement.
Source : Balaji
Comme l'a souligné l'ancien CTO de Coinbase, Balaji, nous devons construire l'infrastructure appropriée pour que ces agents fonctionnent. Le réseau actuel ressemble à une route non pavée, plutôt qu'à une autoroute sur laquelle les agents peuvent se déplacer en toute sécurité sur des données fiables. Chaque site Web a une structure et un format différents. Les informations ne sont pas fiables. Les données sont toujours non structurées, ce qui rend difficile pour les agents de les comprendre. Cela crée des obstacles majeurs pour que les agents effectuent un travail précis et efficace.
Intuition cherche à reconstruire le réseau pour répondre à ces besoins. Il vise à construire des structures de données normalisées faciles à comprendre et à utiliser pour les agents. Il nécessite un système de vérification d'information fiable. Il a besoin de protocoles permettant une interaction fluide entre les agents. Cela ressemble à la manière dont HTTP et HTML ont créé des normes réseau au début de l'internet. Cela représente une tentative d'établir de nouvelles normes pour l'ère des agents.
Bien sûr, des défis persistent. Sans une participation suffisante et des effets de réseau, le système ne peut pas fonctionner correctement. Atteindre une masse critique nécessite beaucoup de temps et d'énergie. Surmonter l'inertie de l'écosystème réseau existant n'a jamais été facile. Établir de nouvelles normes pose des difficultés. Mais c'est un défi qui doit être relevé. Le rebasage proposé par Intuition surmontera ces défis. Il ouvrira de nouvelles possibilités pour l'ère des agents qui commence à peine à être imaginée.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Analyse approfondie de l'intuition : Comment reconstruire Internet à l'ère des agents intelligents ?
Ce rapport, rédigé par Tiger Research, analyse comment Intuition réalise un consensus standard grâce à une structure de connaissances atomique, un registre de jetons de consensus (TCR) et un système de mesure de confiance basé sur des signaux, afin de reconstruire l'infrastructure réseau à l'ère de l'IA des agents.
Résumé des points clés
1. L'ère des entités intelligentes commence : l'infrastructure réseau est-elle suffisante ?
L'ère des agents intelligents AI est en plein essor. Nous pouvons imaginer un avenir où des agents personnels gèrent tout, des plans de voyage à la gestion financière complexe. Mais dans la pratique, la situation n'est pas si simple. Le problème ne réside pas dans la performance de l'IA elle-même. La véritable limitation réside dans l'infrastructure réseau actuelle.
Le réseau est construit pour que les humains lisent et interprètent à travers des navigateurs. Par conséquent, il est très mal adapté aux agents qui nécessitent une interprétation sémantique et une connexion de relations entre différentes sources de données. Ces limitations sont évidentes dans les services quotidiens. Les sites Web des compagnies aériennes peuvent indiquer l'heure de départ comme "14h30", tandis que les sites d'hôtels affichent l'heure d'enregistrement comme "14h30". Les humains comprennent immédiatement que les deux représentent le même moment, mais les agents les interpréteront comme des formats de données complètement différents.
Source : Tiger Research
Le problème ne réside pas seulement dans les différences de format. Un défi clé est de savoir si l'agent peut faire confiance aux données elles-mêmes. Les humains peuvent traiter des informations incomplètes en s'appuyant sur le contexte et l'expérience antérieure. En revanche, les agents manquent de critères clairs pour évaluer la provenance ou la fiabilité. Cela les rend susceptibles aux entrées erronées, aux conclusions défectueuses et même aux illusions.
Finalement, même les agents les plus avancés ne peuvent pas prospérer dans ces conditions. Ils sont comme des voitures de F1 : peu importe leur puissance, elles ne peuvent pas rouler à pleine vitesse sur une route non pavée (données non structurées). Si des panneaux trompeurs (données peu fiables) sont dispersés sur la route, elles pourraient ne jamais atteindre la ligne d'arrivée.
2. La dette technique du réseau : reconstruire les bases
Cette question a été soulevée pour la première fois il y a plus de 20 ans par le fondateur du World Wide Web, Tim Berners-Lee, à travers sa proposition sur le Web sémantique.
L'idée centrale du web sémantique est très simple : structurer les informations du réseau afin que les machines puissent les comprendre, et pas seulement comme un texte lisible par les humains. Par exemple, « Tiger Research a été fondée en 2021 » est clair pour les humains, mais pour les machines, c'est simplement une chaîne de caractères. Le web sémantique le structure en « Tiger Research (sujet) - a été fondée (prédicat) - en 2021 (objet) », afin que les machines puissent interpréter le sens.
Cette méthode est en avance sur son temps, mais n'a finalement pas réussi. La principale raison en est les défis de mise en œuvre. Parvenir à un consensus sur le format des données et les normes d'utilisation s'est avéré difficile, et plus important encore, il est presque impossible de construire et de maintenir un vaste ensemble de données par le biais de contributions volontaires des utilisateurs. Les contributeurs n'ont pas reçu de récompenses ou d'avantages directs. De plus, la fiabilité des données créées reste une question non résolue.
Néanmoins, la vision du web sémantique reste valable. Le principe selon lequel les machines doivent comprendre et utiliser les données au niveau sémantique n'a pas changé. À l'ère de l'IA, ce besoin devient encore plus crucial.
3. Intuition : Revitaliser le Web sémantique à l'aide de Web3
Intuition évolue la vision du Web sémantique par une approche Web3 afin de résoudre les limitations existantes. Le cœur du projet réside dans la création d'un système qui incite les utilisateurs à participer volontairement à l'accumulation et à la vérification de données structurées de haute qualité. Ce système construit de manière systématique un graphe de connaissances lisible par machine, avec des sources claires et vérifiables. En fin de compte, cela fournit une base pour le fonctionnement fiable des agents et nous rapproche de l'avenir que nous imaginons.
3.1. Atome : modules de construction de la connaissance
Intuition divise d'abord toutes les connaissances en unités minimales appelées atomes (Atoms). Les atomes représentent des concepts tels que des personnes, des dates, des organisations ou des attributs. Chaque atome a un identifiant unique (utilisant des techniques telles que les identifiants décentralisés DIDs) et existe de manière indépendante. Chaque atome enregistre les informations sur le contributeur, vous permettant ainsi de vérifier qui a ajouté quelles informations et à quel moment.
La raison pour laquelle il est clair de décomposer les connaissances en atomes. L'information apparaît souvent sous forme de phrases complexes. Les machines comme les agents ont des limites structurelles lorsqu'il s'agit d'analyser et de comprendre de telles informations composites. Elles ont également du mal à déterminer quelles parties sont exactes et lesquelles sont erronées.
Sujets : Tiger Research
Prédicat : établi en
Objet : année 2021
Considérez la phrase "Tiger Research a été fondée en 2021". Cela peut être vrai, ou seulement partiellement incorrect. L'organisation existe-t-elle réellement, "la date de création" est-elle un attribut approprié, et 2021 est-il correct, chacun de ces éléments doit être vérifié individuellement. Mais traiter toute la phrase comme une unité rend difficile la distinction entre les éléments qui sont exacts et ceux qui sont erronés. Suivre la source de chaque information devient également complexe.
L'atome a résolu ce problème. En définissant chaque élément comme un atome indépendant, tel que [Tiger Research], [fondé en], [2021], vous pouvez enregistrer la source et vérifier chaque élément séparément.
Sujet : La date de création de Tiger Research est 2021.
Prédicat : basé sur
Objet : Enregistrement officiel
Les atomes ne sont pas seulement des outils de découpe d'information - ils peuvent se combiner comme des briques Lego. Par exemple, les atomes individuels [Tiger Research], [s'est formé en] et [2021] se connectent pour former un triplet. Cela crée une information significative : "Tiger Research s'est formé en 2021." Cela suit la même structure que les triplets dans le RDF (cadre de description des ressources) du Web sémantique.
Ces triplets peuvent eux-mêmes devenir des atomes. Le triplet « Tiger Research a été fondé en 2021 » peut être étendu en un nouveau triplet, tel que « La date de création de Tiger Research en 2021 est basée sur les enregistrements commerciaux. » Grâce à cette méthode, les atomes et les triplets se combinent de manière répétée, évoluant de petites unités vers des structures plus grandes.
Le résultat est qu'Intuition a construit un graphe de connaissances fractal qui peut s'étendre indéfiniment à partir d'éléments de base. Même les connaissances complexes peuvent être décomposées pour vérification, puis recombinées.
3.2. TCRs : Consensus dirigé par le marché
Si l'Intuition propose un cadre conceptuel de connaissances structurées à travers des atomes, trois questions clés demeurent : Qui va contribuer à la création de ces atomes ? Quels atomes peuvent être dignes de confiance ? Lorsque différents atomes rivalisent pour représenter le même concept, lequel devient la norme ?
Source : Livre blanc léger d'Intuition
Intuition résout ce problème grâce aux TCR. Les TCR sont basés sur des entrées de filtrage de contenu valorisées par la communauté. Le staking de jetons reflète ces jugements. Les utilisateurs stakent des $TRUST (le jeton natif d'Intuition) lorsqu'ils proposent de nouveaux atomes, triplets ou structures de données. D'autres participants peuvent staker des jetons du côté des soutiens s'ils considèrent que la proposition est utile ; s'ils la jugent inutile, ils stakeront des jetons du côté des opposants. Ils peuvent également staker sur des alternatives concurrentielles. Si les données choisies par l'utilisateur sont fréquemment utilisées ou obtiennent une note élevée, ils recevront des récompenses. Sinon, ils perdront une partie de leur staking.
Les TCRs vérifient une seule preuve, mais ils résolvent également le problème de la normalisation de l'ontologie. La normalisation de l'ontologie signifie qu'il faut décider quelle méthode devient la norme commune lorsqu'il existe plusieurs façons d'exprimer le même concept. Les systèmes distribués font face au défi d'atteindre ce consensus sans coordination centralisée.
Considérez les prédicats des évaluations de deux produits concurrents : [hasReview] et [customerFeedback]. Si [hasReview] est introduit en premier et que de nombreux utilisateurs se basent dessus, les premiers contributeurs détiennent des droits sur les jetons dans ce succès. En même temps, les partisans de [customerFeedback] obtiennent des incitations économiques, s'orientant progressivement vers des normes adoptées plus largement.
Ce mécanisme reflète comment la norme des jetons ERC-20 est adoptée de manière naturelle. Les développeurs qui adoptent ERC-20 bénéficient d'avantages de compatibilité clairs - intégration directe dans les portefeuilles, échanges et dApps existants. Ces avantages attirent naturellement les développeurs à utiliser ERC-20. Cela montre qu'un choix uniquement motivé par le marché peut résoudre les problèmes de normalisation dans un environnement distribué. Les TCR fonctionnent sur des principes similaires. Ils réduisent les luttes des agents avec des formats de données fragmentés et fournissent un environnement où les informations peuvent être comprises et traitées de manière plus cohérente.
3.3. Signal : Construire un réseau de connaissances basé sur la confiance
Intuition structure les connaissances à travers des atomes et des triplets, et utilise des incitations pour parvenir à un Consensus sur « ce qui est réellement utilisé ».
Le dernier défi demeure : dans quelle mesure pouvons-nous faire confiance à cette information ? Intuition introduit le signal (Signal) pour combler cette lacune. Le signal exprime la confiance ou la méfiance de l'utilisateur envers un atome ou un triplet spécifique. Il va au-delà de l'enregistrement simple de l'existence des données : il capture le soutien que les données obtiennent dans différents contextes. Le signal systématise le processus de vérification sociale que nous utilisons dans la vie réelle, par exemple lorsque nous jugeons l'information sur la base de "des personnes fiables l'ont recommandé" ou "des experts l'ont validée".
Les signaux s'accumulent de trois manières. Tout d'abord, les signaux explicites impliquent des évaluations intentionnelles faites par les utilisateurs, comme le jalonnement de jetons. Ensuite, les signaux implicites émergent naturellement des modèles d'utilisation (comme des requêtes répétées ou des applications). Enfin, les signaux de transmission créent des effets relationnels - lorsque les personnes en qui j'ai confiance soutiennent une information, j'ai également tendance à lui faire davantage confiance. Ces trois éléments combinés créent un réseau de connaissances montrant qui fait confiance à quoi, combien ils font confiance et de quelle manière ils font confiance.
Source : Livre blanc d'Intuition
Intuition fournit cela à travers des tunnels de réalité (Reality Tunnels). Les tunnels de réalité offrent une perspective personnalisée pour visualiser les données. Les utilisateurs peuvent configurer des tunnels qui priorisent les évaluations d'un groupe d'experts, valorisent les opinions d'amis proches ou reflètent la sagesse d'une communauté spécifique. Les utilisateurs peuvent choisir des tunnels de confiance ou basculer entre plusieurs tunnels pour effectuer des comparaisons. Les agents peuvent également utiliser des méthodes d'interprétation spécifiques à des fins particulières. Par exemple, choisir un tunnel qui reflète le réseau de confiance de Vitalik Buterin amènera l'agent à interpréter l'information et à prendre des décisions "du point de vue de Vitalik".
Tous les signaux sont enregistrés sur la chaîne. Les utilisateurs peuvent vérifier de manière transparente pourquoi certaines informations semblent fiables, quels serveurs sont à l'origine, qui les garantit et combien de jetons ont été mis en jeu. Ce processus de formation de confiance transparent permet aux utilisateurs de vérifier directement les preuves, plutôt que d'accepter aveuglément les informations. Les agents peuvent également utiliser cette base pour faire des jugements adaptés au contexte et à la perspective individuels.
4. Que se passerait-il si l'Intuition devenait l'infrastructure réseau de nouvelle génération ?
L'infrastructure d'Intuition n'est pas seulement une idée conceptuelle, mais une solution pratique pour résoudre les problèmes auxquels les agents sont confrontés dans l'environnement réseau actuel.
Le réseau actuel est rempli de données fragmentées et d'informations non vérifiées. Intuition transforme les données en graphes de connaissances déterministes, fournissant des résultats clairs et cohérents pour toute requête. Les signaux basés sur des jetons et le processus de curation vérifient ces données. Les agents peuvent prendre des décisions claires sans dépendre de suppositions. Cela améliore à la fois l'exactitude, la vitesse et l'efficacité.
Intuition fournit également une base pour la collaboration des agents. Des structures de données standardisées permettent à différents agents de comprendre et de communiquer des informations de la même manière. Tout comme l'ERC-20 a créé la compatibilité des jetons, le graphe de connaissances d'Intuition a créé un environnement où les agents peuvent collaborer sur des données cohérentes.
Intuition va au-delà des infrastructures limitées aux agents intelligents, devenant ainsi la couche de base que tous les services numériques peuvent partager. Elle peut remplacer les systèmes de confiance que chaque plateforme construit actuellement de manière isolée par une base unifiée - les avis d'Amazon, les notes d'Uber, les recommandations de LinkedIn. Tout comme HTTP fournit un standard de communication universel pour le web, Intuition fournit des protocoles standard pour les structures de données et la validation de confiance.
Le changement le plus important est la portabilité des données. Les utilisateurs possèdent directement les données qu'ils créent et peuvent les utiliser partout. Les données isolées sur différentes plateformes seront connectées et redessineront l'ensemble de l'écosystème numérique.
5. Reconstruire les bases pour l'ère des agents intelligents à venir
L'objectif d'Intuition n'est pas une simple amélioration technique. Il vise à surmonter la dette technique accumulée au cours des 20 dernières années et à repenser fondamentalement l'infrastructure du réseau. Lorsque le web sémantique a été proposé pour la première fois, la vision était claire. Mais elle manquait d'incitations pour encourager la participation. Même si leur vision était réalisée, les avantages restaient flous.
La situation a changé. Les progrès de l'IA rendent l'ère des agents intelligents une réalité. Les agents intelligents dépassent désormais le simple outil. Ils représentent notre capacité à exécuter des tâches complexes. Ils prennent des décisions autonomes. Ils collaborent avec d'autres agents. Ces agents ont besoin d'innovations fondamentales dans l'infrastructure réseau existante pour fonctionner efficacement.
Source : Balaji
Comme l'a souligné l'ancien CTO de Coinbase, Balaji, nous devons construire l'infrastructure appropriée pour que ces agents fonctionnent. Le réseau actuel ressemble à une route non pavée, plutôt qu'à une autoroute sur laquelle les agents peuvent se déplacer en toute sécurité sur des données fiables. Chaque site Web a une structure et un format différents. Les informations ne sont pas fiables. Les données sont toujours non structurées, ce qui rend difficile pour les agents de les comprendre. Cela crée des obstacles majeurs pour que les agents effectuent un travail précis et efficace.
Intuition cherche à reconstruire le réseau pour répondre à ces besoins. Il vise à construire des structures de données normalisées faciles à comprendre et à utiliser pour les agents. Il nécessite un système de vérification d'information fiable. Il a besoin de protocoles permettant une interaction fluide entre les agents. Cela ressemble à la manière dont HTTP et HTML ont créé des normes réseau au début de l'internet. Cela représente une tentative d'établir de nouvelles normes pour l'ère des agents.
Bien sûr, des défis persistent. Sans une participation suffisante et des effets de réseau, le système ne peut pas fonctionner correctement. Atteindre une masse critique nécessite beaucoup de temps et d'énergie. Surmonter l'inertie de l'écosystème réseau existant n'a jamais été facile. Établir de nouvelles normes pose des difficultés. Mais c'est un défi qui doit être relevé. Le rebasage proposé par Intuition surmontera ces défis. Il ouvrira de nouvelles possibilités pour l'ère des agents qui commence à peine à être imaginée.