AI Layer1 : à la recherche d'un terrain fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et révélant même un potentiel de substitution du travail humain dans certaines situations. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation très difficile.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions fondamentales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces problèmes ne sont pas résolus de manière adéquate, le débat sur le fait de savoir si l'IA est "bienveillante" ou "malveillante" deviendra de plus en plus manifeste, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de suffisamment de motivation pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur plusieurs blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de prendre en charge des applications IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisée.
Les caractéristiques clés de la couche 1 AI
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA on-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme d'incitation efficace et de consensus décentralisé. Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité du grand livre, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes. Ils doivent non seulement fournir de la puissance de calcul et réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement de l'IA, afin d'assurer la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème de l'IA off-chain doit souvent également supporter une variété de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios divers. L'IA Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité, faible latence et parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin d'assurer que toutes les tâches d'IA puissent s'exécuter efficacement et permettre une extension fluide de "tâches unidimensionnelles" à "écosystèmes complexes et divers".
Vérifiabilité et garantie de sortie fiable La couche AI Layer 1 doit non seulement prévenir les comportements malveillants des modèles et les risques de falsification des données, mais doit également garantir, au niveau de la mécanique de base, la vérifiabilité et l'alignement des résultats de sortie de l'IA. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement des données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est voulu", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en utilisant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de la confidentialité et des moyens de gestion des droits des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, et de prévenir efficacement les fuites et les abus de données, éliminant ainsi les préoccupations des utilisateurs en matière de sécurité des données.
Capacité d'hébergement et de support au développement puissantes En tant qu'infrastructure Layer 1 native de l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services IA et autres participants de l'écosystème des outils de développement complets, un SDK intégré, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise la mise en œuvre d'applications IA natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base des informations et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G. Nous passerons en revue les derniers développements du secteur, analyserons l'état actuel des projets et discuterons des tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source, qui construit une blockchain AI Layer1 ( en phase initiale en tant que Layer 2, avant de migrer vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de la valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles AI de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant les domaines de l'IA/ML, NLP, vision par ordinateur, et travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième startup de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès ses débuts été entouré d’une aura, bénéficiant de ressources riches, de relations et d'une reconnaissance sur le marché, ce qui a fourni un fort soutien au développement du projet. Au milieu de 2024, Sentient a complété un tour de financement de 85 millions de dollars, mené par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
Architecture de conception et couche d'application
Infrastructure Layer
Architecture principale
L'architecture de base de Sentient est composée de deux parties : un pipeline AI et un système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI fidèle", contenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : garantir que le modèle maintienne un processus de formation conforme aux intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : le contrat d'autorisation contrôle l'entrée de l'appel du modèle ;
Couche d'accès : Vérifier si l'utilisateur est autorisé via une preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribue à chaque appel des paiements aux formateurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Ouverture : Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre les formateurs, les déployeurs et les validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction de la mise à niveau et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par un mécanisme cryptographique.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie natale de l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur de requête-réponse cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de la propriété : vérifier si l'empreinte digitale est conservée par le biais d'un détecteur tiers (Prover) sous forme de requête.
Mécanisme d'appel autorisé : avant l'appel, il est nécessaire d'obtenir un "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer une réponse précise.
Cette méthode permet de réaliser "appel d'autorisation basé sur le comportement + vérification de l'appartenance" sans coût de ré-cryptage.
Cadre de sécurisation et de validation des modèles
Sentient utilise actuellement la sécurité mixte Melange : un droit de propriété par empreinte digitale, une exécution TEE et un partage des profits des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est supposée par défaut, avec possibilité de détection et de sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, qui permet d'incorporer des paires "question-réponse" spécifiques, permettant au modèle de générer une signature unique lors de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété et prévenir les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de temps réel en font une technologie clé pour le déploiement actuel des modèles.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
5
Partager
Commentaire
0/400
DeFi_Dad_Jokes
· Il y a 21h
Ce bol en fer va disparaître~
Voir l'originalRépondre0
AirdropATM
· 07-26 13:52
Monopole monopole, a tué papa.
Voir l'originalRépondre0
OneBlockAtATime
· 07-26 13:44
la démocratie et la liberté en web3 sont le bon chemin !
Voir l'originalRépondre0
GasFeeCry
· 07-26 13:43
C'est sans espoir, non ? Les géants sont devenus fous.
Voir l'originalRépondre0
CodeSmellHunter
· 07-26 13:35
Une autre opportunité pour un oligopole technologique de se faire prendre pour des cons est arrivée.
AI Layer1 : Débloquez une nouvelle mer bleue de l'écosystème d'IA décentralisé
AI Layer1 : à la recherche d'un terrain fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et révélant même un potentiel de substitution du travail humain dans certaines situations. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation très difficile.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions fondamentales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces problèmes ne sont pas résolus de manière adéquate, le débat sur le fait de savoir si l'IA est "bienveillante" ou "malveillante" deviendra de plus en plus manifeste, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de suffisamment de motivation pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur plusieurs blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de prendre en charge des applications IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisée.
Les caractéristiques clés de la couche 1 AI
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA on-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme d'incitation efficace et de consensus décentralisé. Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité du grand livre, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes. Ils doivent non seulement fournir de la puissance de calcul et réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement de l'IA, afin d'assurer la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème de l'IA off-chain doit souvent également supporter une variété de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios divers. L'IA Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité, faible latence et parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin d'assurer que toutes les tâches d'IA puissent s'exécuter efficacement et permettre une extension fluide de "tâches unidimensionnelles" à "écosystèmes complexes et divers".
Vérifiabilité et garantie de sortie fiable La couche AI Layer 1 doit non seulement prévenir les comportements malveillants des modèles et les risques de falsification des données, mais doit également garantir, au niveau de la mécanique de base, la vérifiabilité et l'alignement des résultats de sortie de l'IA. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement des données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est voulu", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en utilisant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de la confidentialité et des moyens de gestion des droits des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, et de prévenir efficacement les fuites et les abus de données, éliminant ainsi les préoccupations des utilisateurs en matière de sécurité des données.
Capacité d'hébergement et de support au développement puissantes En tant qu'infrastructure Layer 1 native de l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services IA et autres participants de l'écosystème des outils de développement complets, un SDK intégré, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise la mise en œuvre d'applications IA natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base des informations et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G. Nous passerons en revue les derniers développements du secteur, analyserons l'état actuel des projets et discuterons des tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source, qui construit une blockchain AI Layer1 ( en phase initiale en tant que Layer 2, avant de migrer vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de la valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles AI de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant les domaines de l'IA/ML, NLP, vision par ordinateur, et travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième startup de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès ses débuts été entouré d’une aura, bénéficiant de ressources riches, de relations et d'une reconnaissance sur le marché, ce qui a fourni un fort soutien au développement du projet. Au milieu de 2024, Sentient a complété un tour de financement de 85 millions de dollars, mené par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
Architecture de conception et couche d'application
Infrastructure Layer
Architecture principale
L'architecture de base de Sentient est composée de deux parties : un pipeline AI et un système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI fidèle", contenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie natale de l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "appel d'autorisation basé sur le comportement + vérification de l'appartenance" sans coût de ré-cryptage.
Cadre de sécurisation et de validation des modèles
Sentient utilise actuellement la sécurité mixte Melange : un droit de propriété par empreinte digitale, une exécution TEE et un partage des profits des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est supposée par défaut, avec possibilité de détection et de sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, qui permet d'incorporer des paires "question-réponse" spécifiques, permettant au modèle de générer une signature unique lors de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété et prévenir les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de temps réel en font une technologie clé pour le déploiement actuel des modèles.