Recherche sur la couche 1 de l'IA : Analyse des bases techniques de l'intelligence artificielle décentralisée

Recherche sur la piste AI Layer1 : trouver un sol fertile pour DeAI off-chain

Aperçu

Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé le développement rapide des modèles de langage de grande taille (LLM). Les LLM ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine, et ont même montré un potentiel de substitution du travail humain dans certaines situations. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.

Dans les premiers stades de l'évolution rapide de l'IA, l'opinion publique a souvent tendance à se concentrer sur les percées et les commodités apportées par la technologie, tandis que l'attention portée aux problèmes fondamentaux tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation sociale. Si ces défis ne sont pas résolus de manière appropriée, le débat sur la question de savoir si l'IA "va vers le bien" ou "vers le mal" deviendra de plus en plus accentué, et les géants centralisés, motivés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face à ces défis de manière proactive.

La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en matière de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.

Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer 1 spécifiquement adaptée à l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement florissant de l'écosystème AI décentralisé.

Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain

Les caractéristiques clés de AI Layer 1

AI Layer 1, en tant que blockchain spécialement conçue pour les applications AI, a son architecture sous-jacente et son design de performance étroitement alignés sur les besoins des tâches AI, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités centrales suivantes :

  1. Mécanismes d'incitation efficaces et de consensus décentralisé Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé de ressources ouvert, tel que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources variées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur les infrastructures d'IA. Cela impose des exigences plus élevées sur le consensus et les mécanismes d'incitation sous-jacents : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de valider avec précision les contributions réelles des nœuds dans les tâches d'inférence et d'entraînement d'IA, afin de réaliser la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.

  2. Excellente performance élevée et capacité de prise en charge des tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge une variété de types de tâches hétérogènes, y compris différentes structures de modèles, traitement de données, inférence, stockage et autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture de base pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, garantissant que toutes les tâches AI peuvent s'exécuter efficacement, réalisant une expansion fluide allant de "tâches unidimensionnelles" à "écosystèmes complexes et variés".

  3. Vérifiabilité et garantie de sortie fiable AI Layer 1 doit non seulement prévenir les comportements malveillants des modèles et les risques de falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau des mécanismes de base. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence, d'entraînement et de traitement des données du modèle d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité peut aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.

  4. Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en utilisant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la confidentialité et des moyens de gestion des droits d'accès aux données pour assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs concernant la sécurité des données.

  5. Capacités puissantes de support et de développement de l'écosystème En tant qu'infrastructure de couche 1 native à l'IA, la plateforme doit non seulement posséder un leadership technique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un soutien opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications AI natives riches et diverses, réalisant ainsi la prospérité continue d'un écosystème AI décentralisé.

Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers progrès du secteur, en analysant l'état actuel des projets et en discutant des tendances futures.

Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche d'un terrain fertile pour DeAI off-chain

Sentient : construire des modèles d'IA décentralisés open source et fidèles

Aperçu du projet

Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 (. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur dans le marché LLM centralisé grâce au cadre "OML" (Ouvert, Rentable, Loyal), permettant aux modèles d'IA de réaliser une structure de propriété sur la chaîne, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème réseau d'agents d'IA équitable et ouvert.

L'équipe de Sentient Foundation regroupe les meilleurs experts académiques, entrepreneurs en blockchain et ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée en IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des universités de premier plan telles que l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.

En tant que projet de seconde entreprise de Sandeep Nailwal, cofondateur de Polygon, Sentient a dès le départ bénéficié d'une aura, avec des ressources, des réseaux et une reconnaissance sur le marché riches, fournissant un fort soutien au développement du projet. Au milieu de 2024, Sentient a complété un tour de financement de série seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent Delphi, Hashkey et Spartan, ainsi que des dizaines de VC réputés.

Biteye et PANews publient ensemble un rapport de recherche sur l'IA Layer1 : à la recherche de terres fertiles pour DeAI off-chain

architecture de conception et couche d'application

couche d'infrastructure

Architecture centrale

L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système de chaîne de blocs.

Le pipeline AI est la base du développement et de l'entraînement des artefacts de "l'IA fidèle", comprenant deux processus clés :

  • Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
  • Formation de fidélité (Loyalty Training) : assurer que le modèle maintienne un processus d'entraînement cohérent avec les intentions de la communauté.

Le système blockchain offre transparence et contrôle décentralisé pour le protocole, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :

  • Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales;
  • Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
  • Couche d'accès : Vérifier si l'utilisateur est autorisé via l'authentification par preuve de permission;
  • Couche d'incitation : le contrat de routage des revenus attribue à chaque appel des paiements aux formateurs, aux déployeurs et aux validateurs.

Biteye et PANews publient un rapport de recherche sur AI Layer1 : à la recherche de la terre fertile pour DeAI off-chain

Cadre de modèle OML

Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :

  • Ouverture : Le modèle doit être open source, le code et la structure des données doivent être transparents, facilitant ainsi la reproduction, l'audit et l'amélioration par la communauté.
  • Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre l'entraîneur, le déployeur et le vérificateur.
  • Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)

La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété à faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie de base est :

  • Empreinte digitale : insérer un ensemble de paires clé-valeur de requête-réponse cachées lors de l'entraînement pour former une signature unique du modèle;
  • Protocole de vérification de propriété : vérifier si l'empreinte a été conservée par le biais d'un détecteur tiers (Prover) sous forme de question de requête;
  • Mécanisme d'appel autorisé : avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer la réponse précise.

Cette méthode permet de réaliser une "autorisation basée sur le comportement + vérification de l'appartenance" sans coût de récryptage.

Cadre d'exécution sécurisé et de certification de modèle

Sentient utilise actuellement la sécurité hybride Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode par empreinte digitale est mise en œuvre dans la ligne principale OML 1.0, mettant l'accent sur l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire la conformité par défaut, avec une possibilité de détection et de sanction en cas de violation.

Le mécanisme d'empreinte digitale est une mise en œuvre clé de l'OML, permettant au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la reproduction et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.

De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi les accès et les utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de réactivité en font une technologie clé pour le déploiement actuel des modèles.

À l'avenir, Sentient prévoit d'introduire des techniques de preuve à connaissance nulle (ZK) et de cryptographie homomorphe complète (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant ainsi une meilleure décentralisation des déploiements de modèles d'IA.

DEAI6.14%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 3
  • Reposter
  • Partager
Commentaire
0/400
TooScaredToSellvip
· 08-08 14:10
Degen ne peut que rester à plat et être gouverné par de grandes entreprises
Voir l'originalRépondre0
ChainMelonWatchervip
· 08-08 14:02
Ce monopole est vraiment trop flagrant.
Voir l'originalRépondre0
GateUser-3824aa38vip
· 08-08 13:49
On a l'impression que les géants sont trop avares.
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)