De l'apprentissage fédéré aux réseaux d'agents décentralisés : analyse du projet ChainOpera
Ce rapport examine ChainOpera AI, un écosystème visant à construire un réseau décentralisé d'agents IA. Ce projet est issu des bases open source de l'apprentissage fédéré (FedML), puis s'est transformé en une infrastructure IA complète grâce à TensorOpera, pour finalement évoluer vers ChainOpera, un réseau d'agents orienté Web3.
Dans le rapport de juin « Le Saint Graal de Crypto AI : Exploration de pointe de l'entraînement décentralisé », nous avons mentionné l'apprentissage fédéré (Federated Learning), une solution de « décentralisation contrôlée » située entre l'entraînement distribué et l'entraînement décentralisé : son cœur réside dans la conservation locale des données et l'agrégation centralisée des paramètres, répondant ainsi aux exigences de confidentialité et de conformité dans les secteurs médical et financier. Parallèlement, nous avons suivi dans nos précédents rapports l'essor des réseaux d'agents (Agent Network) — leur valeur réside dans l'accomplissement collaboratif de tâches complexes grâce à l'autonomie et à la division du travail entre plusieurs agents, favorisant l'évolution du « grand modèle » vers un « écosystème multi-agents ».
L'apprentissage fédéré, basé sur le principe « les données ne quittent pas le local, la récompense selon la contribution », pose les fondations de la collaboration multipartite. Son ADN distribué, ses incitations transparentes, sa garantie de confidentialité et ses pratiques de conformité offrent une expérience directement réutilisable pour l'Agent Network. L'équipe FedML suit précisément cette voie, faisant évoluer son ADN open source en TensorOpera (couche d'infrastructure de l'industrie AI), puis en ChainOpera (réseau d'agents décentralisé). Bien entendu, l'Agent Network n'est pas une extension inévitable de l'apprentissage fédéré ; son essence réside dans la collaboration autonome et la division des tâches entre agents multiples, et peut également être construit directement sur des systèmes multi-agents (MAS), l'apprentissage par renforcement (RL) ou des mécanismes d'incitation basés sur la blockchain.
I. Architecture de la pile technologique de l'apprentissage fédéré et des AI Agents
L'apprentissage fédéré (Federated Learning, FL) est un cadre de formation collaborative sans centralisation des données. Son principe fondamental est que chaque participant entraîne le modèle localement et ne télécharge que les paramètres ou gradients vers un coordinateur pour agrégation, réalisant ainsi la conformité de la confidentialité « les données ne quittent pas le domaine ». Après des applications dans des scénarios typiques tels que la santé, la finance et le mobile, l'apprentissage fédéré est entré dans une phase commerciale relativement mature, mais fait toujours face à des goulots d'étranglement tels que des coûts de communication élevés, une protection de la vie privée incomplète et une efficacité de convergence réduite due à l'hétérogénéité des appareils. Comparé à d'autres modes d'entraînement, l'entraînement distribué met l'accent sur la concentration de la puissance de calcul pour l'efficacité et l'échelle, tandis que l'entraînement décentralisé réalise une collaboration totalement distribuée via un réseau de puissance de calcul ouvert, alors que l'apprentissage fédéré se situe entre les deux, incarnant une « décentralisation contrôlée » : il répond aux besoins de confidentialité et de conformité de l'industrie tout en offrant une voie de collaboration inter-institutions, ce qui le rend plus adapté à une architecture de déploiement transitoire dans l'industrie.

Dans l'ensemble de la pile protocolaire AI Agent, nous l'avons précédemment divisée en trois niveaux principaux, à savoir
-
Couche d'infrastructure (Agent Infrastructure Layer) : Cette couche fournit le support d'exécution le plus basique pour les agents, constituant la base technologique de tous les systèmes d'agents.
-
Modules principaux : Incluent Agent Framework (cadre de développement et d'exécution des agents) et Agent OS (ordonnanceur multitâche et runtime modulaire plus bas niveau), fournissant les capacités essentielles pour la gestion du cycle de vie des agents.
-
Modules de support : Tels que Agent DID (identité décentralisée), Agent Wallet & Abstraction (abstraction de compte et exécution de transaction), Agent Payment/Settlement (capacités de paiement et de règlement).
-
Couche de coordination et d'exécution (Coordination & Execution Layer) : Se concentre sur la coordination entre agents multiples, l'ordonnancement des tâches et les mécanismes d'incitation du système, clé pour construire « l'intelligence collective » des systèmes d'agents.
-
Agent Orchestration : Mécanisme de direction, pour l'ordonnancement et la gestion unifiés du cycle de vie des agents, de l'allocation des tâches et des processus d'exécution, adapté aux scénarios de workflow à contrôle centralisé.
-
Agent Swarm : Structure collaborative, met l'accent sur la collaboration distribuée des agents, avec une grande autonomie, capacité de division du travail et collaboration flexible, adaptée aux tâches complexes dans des environnements dynamiques.
-
Agent Incentive Layer : Construit le système d'incitation économique du réseau d'agents, stimule la motivation des développeurs, exécutants et validateurs, fournissant une dynamique durable à l'écosystème des agents.
-
Couche application (Application & Distribution Layer)
-
Sous-classe de distribution : Inclut Agent Launchpad, Agent Marketplace et Agent Plugin Network
-
Sous-classe d'application : Couvre AgentFi, Agent Native DApp, Agent-as-a-Service, etc.
-
Sous-classe de consommation : Principalement Agent Social / Consumer Agent, pour des scénarios sociaux et légers orientés consommateurs
-
Meme : Exploite le concept d'Agent à des fins de spéculation, sans réelle mise en œuvre technique ni application concrète, uniquement motivé par le marketing.
II. FedML, référence de l'apprentissage fédéré, et la plateforme full-stack TensorOpera
FedML est l'un des premiers cadres open source dédiés à l'apprentissage fédéré (Federated Learning) et à l'entraînement distribué, issu d'une équipe académique (USC) et progressivement transformé en produit phare de TensorOpera AI. Il fournit aux chercheurs et développeurs des outils de formation collaborative inter-institutions et inter-appareils. Dans le monde académique, FedML, fréquemment cité dans NeurIPS, ICML, AAAI, etc., est devenu la plateforme expérimentale universelle pour la recherche en apprentissage fédéré ; dans l'industrie, FedML jouit d'une excellente réputation dans des scénarios sensibles à la confidentialité comme la santé, la finance, l'edge AI et le Web3 AI, et est considéré comme la chaîne d'outils de référence dans le domaine de l'apprentissage fédéré.
TensorOpera est l'évolution commerciale de FedML vers une plateforme d'infrastructure AI full-stack pour entreprises et développeurs : tout en conservant les capacités d'apprentissage fédéré, elle s'étend au GPU Marketplace, aux services de modèles et à MLOps, pénétrant ainsi le marché plus vaste de l'ère des grands modèles et des agents. L'architecture globale de TensorOpera se divise en trois couches : Compute Layer (couche de base), Scheduler Layer (couche d'ordonnancement) et MLOps Layer (couche applicative) :
1. Compute Layer (couche de base)
La couche Compute est la base technologique de TensorOpera, héritant de l'ADN open source de FedML. Ses fonctions principales incluent Parameter Server, Distributed Training, Inference Endpoint et Aggregation Server. Sa valeur réside dans la fourniture d'entraînement distribué, d'apprentissage fédéré avec protection de la vie privée et d'un moteur d'inférence extensible, supportant les trois capacités clés « Train / Deploy / Federate », couvrant toute la chaîne de la formation du modèle, du déploiement à la collaboration inter-institutions, constituant la couche fondamentale de la plateforme.
2. Scheduler Layer (couche intermédiaire)
La couche Scheduler agit comme le centre de transaction et d'ordonnancement de la puissance de calcul, composée de GPU Marketplace, Provision, Master Agent et Schedule & Orchestrate, prenant en charge l'appel de ressources à travers clouds publics, fournisseurs de GPU et contributeurs indépendants. Cette couche marque le tournant clé de FedML vers TensorOpera, permettant, via l'ordonnancement intelligent de la puissance de calcul et l'orchestration des tâches, des entraînements et inférences AI à plus grande échelle, couvrant les scénarios typiques de LLM et d'AI générative. Par ailleurs, le mode Share & Earn de cette couche réserve une interface d'incitation, compatible avec DePIN ou le modèle Web3.
3. MLOps Layer (couche supérieure)
La couche MLOps est l'interface de service directe de la plateforme pour les développeurs et les entreprises, incluant Model Serving, AI Agent et Studio. Les applications typiques couvrent LLM Chatbot, AI générative multimodale et outils Copilot pour développeurs. Sa valeur réside dans l'abstraction de la puissance de calcul et des capacités d'entraînement sous-jacentes en API et produits de haut niveau, abaissant la barrière d'utilisation, fournissant des agents prêts à l'emploi, un environnement de développement low-code et des capacités de déploiement extensibles. Elle se positionne face à Anyscale, Together, Modal et autres nouvelles plateformes d'infrastructure AI, servant de pont entre l'infrastructure et les applications.
En mars 2025, TensorOpera évoluera en une plateforme full-stack dédiée aux AI Agents, avec des produits phares couvrant AgentOpera AI App, Framework et Platform. La couche applicative offre une entrée multi-agents de type ChatGPT, la couche framework évolue vers un « Agentic OS » basé sur un système multi-agents à structure graphique et Orchestrator/Router, tandis que la couche plateforme s'intègre profondément avec la plateforme de modèles TensorOpera et FedML, réalisant des services de modèles distribués, une optimisation RAG et un déploiement hybride edge-cloud. L'objectif global est de créer « un système d'exploitation, un réseau d'agents », permettant aux développeurs, entreprises et utilisateurs de co-construire un nouvel écosystème Agentic AI dans un environnement ouvert et respectueux de la vie privée.
III. Panorama de l'écosystème ChainOpera AI : des co-créateurs et co-propriétaires à la base technologique
Si FedML est le noyau technologique, fournissant l'ADN open source de l'apprentissage fédéré et de l'entraînement distribué ;TensorOpera abstrait les résultats de la recherche de FedML en une infrastructure AI full-stack commercialisable, alors ChainOpera « met la plateforme TensorOpera sur la blockchain », créant un écosystème de réseau d'agents décentralisé via AI Terminal + Agent Social Network + DePIN (modèle et couche de puissance de calcul) + blockchain AI-Native. Le changement clé est que TensorOpera s'adresse encore principalement aux entreprises et développeurs, tandis que ChainOpera, grâce à une gouvernance et des incitations Web3, intègre utilisateurs, développeurs, fournisseurs de GPU/données dans la co-construction et la co-gouvernance, faisant des AI Agents non seulement des « outils utilisés », mais des entités « co-créées et co-détenues ».
Écosystème des co-créateurs (Co-creators)
ChainOpera AI fournit aux co-créateurs de l'écosystème des outils, une infrastructure et une couche de coordination via Model & GPU Platform et Agent Platform, supportant l'entraînement de modèles, le développement d'agents, le déploiement et la collaboration étendue.
Les co-créateurs de l'écosystème ChainOpera incluent les développeurs d'AI Agent (conception et exploitation d'agents),les fournisseurs d'outils et de services (templates, MCP, bases de données et API),les développeurs de modèles (entraînement et publication de model cards),les fournisseurs de GPU (contribution de puissance de calcul via DePIN et partenaires cloud Web2),les contributeurs et annotateurs de données (téléchargement et annotation de données multimodales). Les trois apports clés — développement, puissance de calcul et données — stimulent ensemble la croissance continue du réseau d'agents.
Écosystème des co-propriétaires (Co-owners)
L'écosystème ChainOpera introduit également un mécanisme de co-propriété, favorisant la construction collaborative du réseau.Les créateurs d'AI Agent sont des individus ou équipes qui conçoivent et déploient de nouveaux agents via la plateforme Agent, responsables de la construction, de la mise en ligne et de la maintenance continue, stimulant ainsi l'innovation fonctionnelle et applicative.Les participants d'AI Agent viennent de la communauté, participant au cycle de vie des agents en acquérant et détenant des unités d'accès (Access Units), soutenant la croissance et l'activité des agents lors de leur utilisation et promotion. Ces deux rôles représentent respectivement l'offre et la demande, formant ensemble un modèle de partage de valeur et de développement collaboratif au sein de l'écosystème.
Partenaires de l'écosystème : plateformes et frameworks
ChainOpera AI collabore avec de multiples partenaires pour renforcer la disponibilité et la sécurité de la plateforme, tout en intégrant les scénarios Web3 : via AI Terminal App, elle combine wallet, algorithmes et plateformes d'agrégation pour recommander des services intelligents ; sur Agent Platform, elle introduit divers frameworks et outils no-code pour abaisser la barrière de développement ; s'appuie sur TensorOpera AI pour l'entraînement et l'inférence de modèles ; et établit un partenariat exclusif avec FedML pour soutenir l'entraînement confidentiel inter-institutions et inter-appareils. Globalement, cela forme un écosystème ouvert conciliant applications d'entreprise et expérience utilisateur Web3.
Entrée matérielle : AI Hardware & Partners
Grâce à des partenaires tels que DeAI Phone, wearables et Robot AI, ChainOpera intègre la blockchain et l'AI dans les terminaux intelligents, réalisant l'interaction dApp, l'entraînement côté terminal et la protection de la vie privée, formant progressivement un écosystème matériel AI décentralisé.
Plateforme centrale et base technologique : TensorOpera GenAI & FedML
TensorOpera fournit une plateforme GenAI full-stack couvrant MLOps, Scheduler et Compute ; sa sous-plateforme FedML, issue de l'open source académique, est devenue un framework industriel, renforçant la capacité de l'AI à « fonctionner partout, s'étendre à volonté ».
Écosystème ChainOpera AI

IV. Produits phares de ChainOpera et infrastructure AI Agent full-stack
En juin 2025, ChainOpera lance officiellement AI Terminal App et sa pile technologique décentralisée, se positionnant comme « la version décentralisée d'OpenAI ». Ses produits phares couvrent quatre modules : couche applicative (AI Terminal & Agent Network), couche développeur (Agent Creator Center), couche modèle & GPU (Model & Compute Network), ainsi que le protocole CoAI et la chaîne dédiée, couvrant la boucle complète de l'entrée utilisateur à la puissance de calcul sous-jacente et à l'incitation on-chain.
L'AI Terminal App a intégré BNBChain, prenant en charge les transactions on-chain et les agents pour les scénarios DeFi. L'Agent Creator Center est ouvert aux développeurs, offrant des capacités MCP/HUB, base de connaissances et RAG, avec une intégration continue d'agents communautaires ; en parallèle, la CO-AI Alliance est lancée, en partenariat avec io.net, Render, TensorOpera, FedML, MindNetwork, etc.
Selon les données on-chain des 30 derniers jours de BNB DApp Bay, le nombre d'utilisateurs uniques est de 158,87K, avec 2,6 millions de transactions sur la même période, se classant deuxième dans la catégorie « AI Agent » sur BSC, démontrant une forte activité on-chain.
Super AI Agent App – AI Terminal
En tant que ChatGPT décentralisé et portail social AI, AI Terminal offre collaboration multimodale, incitations à la contribution de données, intégration d'outils DeFi, assistant multiplateforme, tout en prenant en charge la collaboration AI Agent et la protection de la vie privée (« Vos données, votre agent »). Les utilisateurs peuvent directement appeler le grand modèle open source DeepSeek-R1 et les agents communautaires sur mobile, avec circulation transparente des tokens linguistiques et cryptographiques on-chain lors des interactions. Sa valeur réside dans la transformation de l'utilisateur de « consommateur de contenu » à « co-créateur intelligent », avec la possibilité d'utiliser le réseau d'agents dédié dans des scénarios DeFi, RWA, PayFi, e-commerce, etc.
AI Agent Social Network
Positionné comme LinkedIn + Messenger, mais pour les groupes d'AI Agents. Grâce à des espaces de travail virtuels et des mécanismes de collaboration Agent-to-Agent (MetaGPT, ChatDEV, AutoGEN, Camel), il fait évoluer l'agent unique vers un réseau de collaboration multi-agents, couvrant finance, jeux, e-commerce, recherche, etc., tout en renforçant progressivement mémoire et autonomie.
AI Agent Developer Platform
Offre aux développeurs une expérience de création « façon Lego ». Prend en charge le no-code et l'extension modulaire, les contrats blockchain garantissent la propriété, DePIN + infrastructure cloud abaissent la barrière d'entrée, Marketplace fournit des canaux de distribution et de découverte. Son cœur est de permettre aux développeurs d'atteindre rapidement les utilisateurs, avec une contribution écosystémique enregistrée de manière transparente et récompensée.
AI Model & GPU Platform
En tant que couche d'infrastructure, elle combine DePIN et apprentissage fédéré pour résoudre le problème de dépendance du Web3 AI à la puissance de calcul centralisée. Grâce à des GPU distribués, à l'entraînement de données confidentielles, à un marché de modèles et de données, ainsi qu'à un MLOps de bout en bout, elle prend en charge la collaboration multi-agents et l'AI personnalisée. Sa vision est de promouvoir la transition de l'infrastructure du « monopole des grands groupes » à la « co-construction communautaire ».

V. Feuille de route de ChainOpera AI
Outre la plateforme full-stack AI Agent déjà lancée, ChainOpera AI est convaincu que l'intelligence artificielle générale (AGI) émergera d'un réseau collaboratif multimodal et multi-agents. Sa feuille de route à long terme se divise donc en quatre phases :
-
Phase 1 (Compute → Capital) : Construire une infrastructure décentralisée, incluant un réseau GPU DePIN, une plateforme d'apprentissage fédéré et d'entraînement/inférence distribuée, et introduire un routeur de modèles (Model Router) pour coordonner l'inférence multi-terminaux ; grâce à des mécanismes d'incitation, permettre aux fournisseurs de puissance de calcul, de modèles et de données de recevoir des revenus proportionnels à l'utilisation.
-
Phase 2 (Agentic Apps → Collaborative AI Economy) : Lancer AI Terminal, Agent Marketplace et Agent Social Network pour former un écosystème d'applications multi-agents ; connecter utilisateurs, développeurs et fournisseurs de ressources via le protocole CoAI, et introduire un système de correspondance besoins-utilisateurs/développeurs et un système de crédit, favorisant des interactions fréquentes et une activité économique continue.
-
Phase 3 (Collaborative AI → Crypto-Native AI) : Déploiement dans la DeFi, RWA, paiements, e-commerce, etc., et extension aux scénarios KOL et échange de données personnelles ; développement de LLM spécialisés pour la finance/crypto, lancement de systèmes de paiement et wallet Agent-to-Agent, favorisant les applications « Crypto AGI ».
-
Phase 4 (Ecosystems → Autonomous AI Economies) : Évolution progressive vers des économies de sous-réseaux autonomes, chaque sous-réseau gérant de façon indépendante applications, infrastructure, puissance de calcul, modèles et données via la gouvernance et la tokenisation, et collaborant via des protocoles inter-sous-réseaux pour former un écosystème multi-sous-réseaux ; passage de l'Agentic AI à Physical AI (robotique, conduite autonome, aérospatial).
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Cathie Wood s'associe aux Émirats arabes unis pour un investissement de 300 millions de dollars, une autre société cotée au Nasdaq « accumule des crypto-monnaies » et se transforme en « trésorerie Solana »
Brera Holdings annonce sa transformation en « Trésorerie Solana » et son changement de nom en Solmate. Il est rapporté qu'après l'arrivée de l'économiste Laffer dans l'entreprise, Cathie Wood a rapidement décidé d'investir, l'ayant précédemment qualifié de « mentor ». Solmate prévoit une double cotation aux Émirats arabes unis afin de tirer parti de ses relations locales pour renforcer sa capacité d'accumulation de tokens SOL.

Le fils de Trump : la crypto-monnaie va « sauver le dollar »
Eric Trump affirme qu’attirer des capitaux mondiaux vers le marché américain des actifs numériques pourrait offrir un nouveau soutien au dollar.

Les haussiers d’Avalanche (AVAX) vont-ils poursuivre leur ascension ou perdre leur élan ?

En vogue
PlusPrix des cryptos
Plus








