Passer au contenu principal

5 articles étiquetés avec "recherche"

Voir toutes les étiquettes

LinguaLinked : Autonomiser les appareils mobiles avec des modèles de langage distribués

· 5 minutes de lecture
Lark Birdy
Chief Bird Officer

La demande de déploiement de modèles de langage de grande taille (LLM) sur des appareils mobiles augmente, motivée par le besoin de confidentialité, de réduction de la latence et d'utilisation efficace de la bande passante. Cependant, les exigences étendues en mémoire et en calcul des LLM posent des défis significatifs. Voici LinguaLinked, un nouveau système développé par un groupe de chercheurs de l'UC Irvine, conçu pour permettre une inférence LLM décentralisée et distribuée sur plusieurs appareils mobiles, en tirant parti de leurs capacités collectives pour effectuer des tâches complexes de manière efficace.

Le Défi

Déployer des LLM comme GPT-3 ou BLOOM sur des appareils mobiles est difficile en raison de :

  • Contraintes de mémoire : Les LLM nécessitent une mémoire substantielle, souvent supérieure à la capacité des appareils mobiles individuels.
  • Limitations computationnelles : Les appareils mobiles ont généralement une puissance de traitement limitée, rendant difficile l'exécution de grands modèles.
  • Préoccupations de confidentialité : Envoyer des données à des serveurs centralisés pour traitement soulève des problèmes de confidentialité.

La Solution de LinguaLinked

LinguaLinked répond à ces défis avec trois stratégies clés :

  1. Affectation optimisée des modèles :

    • Le système segmente les LLM en sous-graphes plus petits en utilisant l'optimisation linéaire pour faire correspondre chaque segment aux capacités d'un appareil.
    • Cela assure une utilisation efficace des ressources et minimise la transmission de données entre appareils.
  2. Équilibrage de charge à l'exécution :

    • LinguaLinked surveille activement les performances des appareils et redistribue les tâches pour éviter les goulets d'étranglement.
    • Cette approche dynamique assure une utilisation efficace de toutes les ressources disponibles, améliorant la réactivité globale du système.
  3. Communication optimisée :

    • Des cartes de transmission de données efficaces guident le flux d'informations entre les appareils, maintenant l'intégrité structurelle du modèle.
    • Cette méthode réduit la latence et assure un traitement des données en temps opportun à travers le réseau d'appareils mobiles.

Un seul modèle de langage de grande taille (LLM) est divisé en différentes parties (ou segments) et distribué sur plusieurs appareils mobiles. Cette approche permet à chaque appareil de gérer seulement une fraction des exigences totales de calcul et de stockage, rendant possible l'exécution de modèles complexes même sur des appareils aux ressources limitées. Voici un aperçu de comment cela fonctionne :

Segmentation et Distribution du Modèle

  1. Segmentation du modèle :
    • Le grand modèle de langage est transformé en un graphe computationnel où chaque opération au sein du réseau est représentée comme un nœud.
    • Ce graphe est ensuite partitionné en sous-graphes plus petits, chacun capable de fonctionner indépendamment.
  2. Affectation optimisée des modèles :
    • En utilisant l'optimisation linéaire, ces sous-graphes (ou segments de modèle) sont assignés à différents appareils mobiles.
    • L'affectation prend en compte les capacités computationnelles et de mémoire de chaque appareil, assurant une utilisation efficace des ressources et minimisant la surcharge de transmission de données entre appareils.
  3. Exécution collaborative de l'inférence :
    • Chaque appareil mobile traite son segment assigné du modèle.
    • Les appareils communiquent entre eux pour échanger les résultats intermédiaires selon les besoins, garantissant que la tâche d'inférence globale est complétée correctement.
    • Des stratégies de communication optimisées sont employées pour maintenir l'intégrité de la structure originale du modèle et assurer un flux de données efficace.

Scénario d'Exemple

Imaginez un grand modèle de langage comme GPT-3 divisé en plusieurs parties. Un appareil mobile pourrait gérer les embeddings de tokens initiaux et les premières couches du modèle, tandis qu'un autre appareil traite les couches intermédiaires, et un troisième appareil complète les couches finales et génère la sortie. Tout au long de ce processus, les appareils partagent les sorties intermédiaires pour garantir que l'inférence complète du modèle est exécutée sans accroc.

Performance et Résultats

L'efficacité de LinguaLinked est démontrée par des tests approfondis sur divers appareils Android, à la fois haut de gamme et bas de gamme. Les principales conclusions incluent :

  • Vitesse d'inférence : Comparé à une référence, LinguaLinked accélère la performance d'inférence de 1,11× à 1,61× en mode mono-thread et de 1,73× à 2,65× avec le multi-threading.
  • Équilibrage de charge : L'équilibrage de charge à l'exécution du système améliore encore la performance, avec une accélération globale de 1,29× à 1,32×.
  • Scalabilité : Les modèles plus grands bénéficient significativement de l'affectation optimisée des modèles de LinguaLinked, démontrant sa scalabilité et son efficacité dans la gestion de tâches complexes.

Cas d'Utilisation et Applications

LinguaLinked est particulièrement adapté aux scénarios où la confidentialité et l'efficacité sont primordiales. Les applications incluent :

  • Génération et Résumé de Texte : Génération de texte cohérent et contextuellement pertinent localement sur des appareils mobiles.
  • Analyse de Sentiments : Classification efficace des données textuelles sans compromettre la confidentialité de l'utilisateur.
  • Traduction en Temps Réel : Fourniture de traductions rapides et précises directement sur l'appareil.

Directions Futures

LinguaLinked ouvre la voie à de nouvelles avancées dans l'IA mobile :

  • Efficacité Énergétique : Les futures itérations se concentreront sur l'optimisation de la consommation d'énergie pour éviter l'épuisement de la batterie et la surchauffe lors de tâches intensives.
  • Confidentialité Améliorée : Des améliorations continues dans le traitement décentralisé garantiront une confidentialité des données encore plus grande.
  • Modèles Multi-modalité : Expansion de LinguaLinked pour prendre en charge des modèles multi-modalité pour diverses applications du monde réel.

Conclusion

LinguaLinked représente un bond en avant significatif dans le déploiement de LLM sur des appareils mobiles. En distribuant la charge computationnelle et en optimisant l'utilisation des ressources, il rend l'IA avancée accessible et efficace sur une large gamme d'appareils. Cette innovation améliore non seulement la performance mais garantit également la confidentialité des données, ouvrant la voie à des applications d'IA mobile plus personnalisées et sécurisées.

Comprendre le protocole de preuve d'inférence

· 5 minutes de lecture
Lark Birdy
Chief Bird Officer

L'essor des grands modèles de langage (LLM) et de l'informatique décentralisée a introduit des défis significatifs, notamment en ce qui concerne la vérification et l'intégrité des calculs d'IA à travers des systèmes distribués. Le protocole 6079 de preuve d'inférence (PoIP) répond à ces défis en établissant un cadre robuste pour l'inférence d'IA décentralisée, garantissant des calculs fiables et sécurisés.

Le défi : la sécurité dans l'inférence d'IA décentralisée

L'inférence d'IA décentralisée fait face au problème unique d'assurer l'intégrité et la justesse des calculs effectués sur un réseau de nœuds distribués. Les méthodes traditionnelles de vérification sont insuffisantes en raison de la nature non déterministe de nombreux modèles d'IA. Sans un protocole robuste, il est difficile de garantir que le matériel distribué renvoie des résultats d'inférence précis.

Présentation du protocole de preuve d'inférence (PoIP)

Le protocole 6079 de preuve d'inférence (PoIP) propose une solution révolutionnaire pour sécuriser l'inférence d'IA décentralisée. Il utilise une combinaison de mécanismes de sécurité cryptoeconomiques, de preuves cryptographiques et d'approches de théorie des jeux pour inciter à un comportement correct et pénaliser les activités malveillantes au sein du réseau.

Composants principaux du PoIP

Norme du moteur d'inférence

La norme du moteur d'inférence définit les modèles de calcul et les normes pour exécuter les tâches d'inférence d'IA sur des réseaux décentralisés. Cette standardisation assure des performances cohérentes et fiables des modèles d'IA sur le matériel distribué.

Protocole de preuve d'inférence

Le protocole fonctionne sur plusieurs couches :

  1. Couche de service : Exécute l'inférence de modèle sur le matériel physique.
  2. Couche de contrôle : Gère les points de terminaison API, coordonne l'équilibrage de charge et gère les diagnostics.
  3. Couche de transaction : Utilise une table de hachage distribuée (DHT) pour suivre les métadonnées des transactions.
  4. Couche de preuve probabiliste : Valide les transactions par des mécanismes cryptographiques et économiques.
  5. Couche économique : Gère le paiement, le staking, le slashing, la sécurité, la gouvernance et le financement public.

Assurer l'intégrité et la sécurité

Le PoIP emploie plusieurs mécanismes pour assurer l'intégrité des calculs d'inférence d'IA :

  • Validation par arbre de Merkle : Assure que les données d'entrée atteignent les GPU sans altération.
  • Table de hachage distribuée (DHT) : Synchronise les données de transaction à travers les nœuds pour détecter les divergences.
  • Tests de diagnostic : Évaluent les capacités matérielles et assurent la conformité avec les normes du réseau.

Incitations économiques et théorie des jeux

Le protocole utilise des incitations économiques pour encourager le comportement souhaitable parmi les nœuds :

  • Staking : Les nœuds mettent en jeu des jetons pour démontrer leur engagement et accroître leur crédibilité.
  • Construction de réputation : Les tâches réussies améliorent la réputation d'un nœud, le rendant plus attractif pour les tâches futures.
  • Mécanismes de jeu compétitifs : Les nœuds rivalisent pour fournir le meilleur service, assurant une amélioration continue et le respect des normes.

FAQ

Qu'est-ce que le protocole de preuve d'inférence ?

Le protocole de preuve d'inférence (PoIP) est un système conçu pour sécuriser et vérifier les calculs d'inférence d'IA sur des réseaux décentralisés. Il garantit que les nœuds matériels distribués renvoient des résultats précis et fiables.

Comment le PoIP assure-t-il l'intégrité des calculs d'IA ?

Le PoIP utilise des mécanismes tels que la validation par arbre de Merkle, les tables de hachage distribuées (DHT) et les tests de diagnostic pour vérifier l'intégrité des calculs d'IA. Ces outils aident à détecter les divergences et à assurer la justesse des données traitées à travers le réseau.

Quel rôle jouent les incitations économiques dans le PoIP ?

Les incitations économiques dans le PoIP encouragent le comportement souhaitable parmi les nœuds. Les nœuds mettent en jeu des jetons pour démontrer leur engagement, construisent leur réputation grâce à des tâches réussies et rivalisent pour fournir le meilleur service. Ce système assure une amélioration continue et le respect des normes du réseau.

Quelles sont les principales couches du PoIP ?

Le PoIP fonctionne sur cinq couches principales : la couche de service, la couche de contrôle, la couche de transaction, la couche de preuve probabiliste et la couche économique. Chaque couche joue un rôle crucial pour assurer la sécurité, l'intégrité et l'efficacité de l'inférence d'IA sur des réseaux décentralisés.

Conclusion

Le protocole 6079 de preuve d'inférence représente une avancée intéressante dans le domaine de l'IA décentralisée. En assurant la sécurité et la fiabilité des calculs d'IA sur des réseaux distribués, le PoIP indique une nouvelle voie pour une adoption plus large et une innovation dans les applications d'IA décentralisées. Alors que nous nous dirigeons vers un avenir plus décentralisé, des protocoles comme le PoIP seront utiles pour maintenir la confiance et l'intégrité dans les systèmes alimentés par l'IA.

Protocole de Preuve d'Échantillonnage : Incitation à l'Honnêteté et Pénalisation de la Malhonnêteté dans l'Inférence IA Décentralisée

· 6 minutes de lecture
Lark Birdy
Chief Bird Officer

Dans l'IA décentralisée, assurer l'intégrité et la fiabilité des fournisseurs de GPU est crucial. Le protocole de Preuve d'Échantillonnage (PoSP), tel que décrit dans les recherches récentes de Holistic AI, fournit un mécanisme sophistiqué pour inciter les bons acteurs tout en pénalisant les mauvais. Voyons comment fonctionne ce protocole, ses incitations économiques, ses pénalités et son application à l'inférence IA décentralisée.

Incitations pour un Comportement Honnête

Récompenses Économiques

Au cœur du protocole PoSP se trouvent des incitations économiques conçues pour encourager une participation honnête. Les nœuds, agissant en tant qu'asserteurs et validateurs, sont récompensés en fonction de leurs contributions :

  • Asserteurs : Reçoivent une récompense (RA) si leur sortie calculée est correcte et non contestée.
  • Validateurs : Partagent la récompense (RV/n) si leurs résultats s'alignent avec ceux de l'asserteur et sont vérifiés comme corrects.

Équilibre de Nash Unique

Le protocole PoSP est conçu pour atteindre un équilibre de Nash unique en stratégies pures, où tous les nœuds sont motivés à agir honnêtement. En alignant le profit individuel avec la sécurité du système, le protocole garantit que l'honnêteté est la stratégie la plus rentable pour les participants.

Pénalités pour un Comportement Malhonnête

Mécanisme de Pénalisation

Pour dissuader un comportement malhonnête, le protocole PoSP utilise un mécanisme de pénalisation. Si un asserteur ou un validateur est pris en flagrant délit de malhonnêteté, il subit des pénalités économiques significatives (S). Cela garantit que le coût de la malhonnêteté dépasse de loin tout gain potentiel à court terme.

Mécanisme de Défi

Des défis aléatoires sécurisent davantage le système. Avec une probabilité prédéterminée (p), le protocole déclenche un défi où plusieurs validateurs recalculent la sortie de l'asserteur. Si des divergences sont trouvées, les acteurs malhonnêtes sont pénalisés. Ce processus de sélection aléatoire rend difficile pour les mauvais acteurs de colluder et de tricher sans être détectés.

Étapes du Protocole PoSP

  1. Sélection de l'Asserteur : Un nœud est sélectionné aléatoirement pour agir en tant qu'asserteur, calculant et produisant une valeur.

  2. Probabilité de Défi :

    Le système peut déclencher un défi basé sur une probabilité prédéterminée.

    • Pas de Défi : L'asserteur est récompensé si aucun défi n'est déclenché.
    • Défi Déclenché : Un nombre défini (n) de validateurs est sélectionné aléatoirement pour vérifier la sortie de l'asserteur.
  3. Validation :

    Chaque validateur calcule indépendamment le résultat et le compare à la sortie de l'asserteur.

    • Correspondance : Si tous les résultats correspondent, l'asserteur et les validateurs sont récompensés.
    • Non-Correspondance : Un processus d'arbitrage détermine l'honnêteté de l'asserteur et des validateurs.
  4. Pénalités : Les nœuds malhonnêtes sont pénalisés, tandis que les validateurs honnêtes reçoivent leur part de récompense.

spML

Le protocole spML (Machine Learning basé sur l'échantillonnage) est une implémentation du protocole de Preuve d'Échantillonnage (PoSP) au sein d'un réseau d'inférence IA décentralisé.

Étapes Clés

  1. Entrée Utilisateur : L'utilisateur envoie son entrée à un serveur sélectionné aléatoirement (asserteur) avec sa signature numérique.
  2. Sortie du Serveur : Le serveur calcule la sortie et la renvoie à l'utilisateur avec un hachage du résultat.
  3. Mécanisme de Défi :
    • Avec une probabilité prédéterminée (p), le système déclenche un défi où un autre serveur (validateur) est sélectionné aléatoirement pour vérifier le résultat.
    • Si aucun défi n'est déclenché, l'asserteur reçoit une récompense (R) et le processus se termine.
  4. Vérification :
    • Si un défi est déclenché, l'utilisateur envoie la même entrée au validateur.
    • Le validateur calcule le résultat et le renvoie à l'utilisateur avec un hachage.
  5. Comparaison :
    • L'utilisateur compare les hachages des sorties de l'asserteur et du validateur.
    • Si les hachages correspondent, l'asserteur et le validateur sont récompensés, et l'utilisateur reçoit une réduction sur les frais de base.
    • Si les hachages ne correspondent pas, l'utilisateur diffuse les deux hachages au réseau.
  6. Arbitrage :
    • Le réseau vote pour déterminer l'honnêteté de l'asserteur et du validateur en fonction des divergences.
    • Les nœuds honnêtes sont récompensés, tandis que les malhonnêtes sont pénalisés (pénalisés).

Composants et Mécanismes Clés

  • Exécution ML Déterministe : Utilise l'arithmétique à virgule fixe et des bibliothèques de virgule flottante basées sur logiciel pour garantir des résultats cohérents et reproductibles.
  • Conception Sans État : Traite chaque requête comme indépendante, maintenant l'absence d'état tout au long du processus ML.
  • Participation Sans Permission : Permet à quiconque de rejoindre le réseau et de contribuer en exécutant un serveur IA.
  • Opérations Hors-chaine : Les inférences IA sont calculées hors-chaine pour réduire la charge sur la blockchain, avec les résultats et les signatures numériques relayés directement aux utilisateurs.
  • Opérations Sur-chaine : Les fonctions critiques, telles que les calculs de solde et les mécanismes de défi, sont gérées sur-chaine pour assurer transparence et sécurité.

Avantages de spML

  • Haute Sécurité : Atteint la sécurité grâce à des incitations économiques, garantissant que les nœuds agissent honnêtement en raison des pénalités potentielles pour malhonnêteté.
  • Faible Surcharge de Calcul : Les validateurs n'ont besoin que de comparer les hachages dans la plupart des cas, réduisant la charge de calcul lors de la vérification.
  • Scalabilité : Peut gérer une activité réseau étendue sans dégradation significative des performances.
  • Simplicité : Maintient la simplicité dans l'implémentation, améliorant la facilité d'intégration et de maintenance.

Comparaison avec d'Autres Protocoles

  • Preuve Optimiste de Fraude (opML) :
    • S'appuie sur des désincitations économiques pour le comportement frauduleux et un mécanisme de résolution des litiges.
    • Vulnérable à l'activité frauduleuse si pas assez de validateurs sont honnêtes.
  • Preuve à Connaissance Nulle (zkML) :
    • Assure une haute sécurité grâce à des preuves cryptographiques.
    • Confronte des défis en matière de scalabilité et d'efficacité en raison d'une surcharge de calcul élevée.
  • spML :
    • Combine haute sécurité grâce à des incitations économiques, faible surcharge de calcul et haute scalabilité.
    • Simplifie le processus de vérification en se concentrant sur les comparaisons de hachages, réduisant le besoin de calculs complexes lors des défis.

Résumé

Le protocole de Preuve d'Échantillonnage (PoSP) équilibre efficacement le besoin d'inciter les bons acteurs et de dissuader les mauvais, assurant la sécurité et la fiabilité globales des systèmes décentralisés. En combinant des récompenses économiques avec des pénalités strictes, PoSP favorise un environnement où le comportement honnête est non seulement encouragé mais nécessaire pour réussir. Alors que l'IA décentralisée continue de croître, des protocoles comme PoSP seront essentiels pour maintenir l'intégrité et la fiabilité de ces systèmes avancés.

Introduction à l'Architecture d'Arbitrum Nitro

· 4 minutes de lecture
Lark Birdy
Chief Bird Officer

Arbitrum Nitro, développé par Offchain Labs, est un protocole blockchain de deuxième génération de couche 2 conçu pour améliorer le débit, la finalité et la résolution des litiges. Il s'appuie sur le protocole Arbitrum original, apportant des améliorations significatives qui répondent aux besoins modernes de la blockchain.

Propriétés Clés d'Arbitrum Nitro

Arbitrum Nitro fonctionne comme une solution de couche 2 au-dessus d'Ethereum, prenant en charge l'exécution de contrats intelligents utilisant le code de la machine virtuelle Ethereum (EVM). Cela garantit la compatibilité avec les applications et outils Ethereum existants. Le protocole garantit à la fois la sécurité et le progrès, en supposant que la chaîne Ethereum sous-jacente reste sûre et active, et qu'au moins un participant au protocole Nitro se comporte honnêtement.

Approche de Conception

L'architecture de Nitro est construite sur quatre principes fondamentaux :

  • Séquençage Suivi d'une Exécution Déterministe : Les transactions sont d'abord séquencées, puis traitées de manière déterministe. Cette approche en deux phases assure un environnement d'exécution cohérent et fiable.
  • Geth au Cœur : Nitro utilise le package go-ethereum (geth) pour l'exécution principale et la maintenance de l'état, assurant une haute compatibilité avec Ethereum.
  • Séparation de l'Exécution et de la Preuve : La fonction de transition d'état est compilée pour une exécution native et en web assembly (wasm) afin de faciliter une exécution efficace et une preuve structurée et indépendante de la machine.
  • Rollup Optimiste avec Preuves de Fraude Interactives : S'appuyant sur le design original d'Arbitrum, Nitro utilise un protocole de rollup optimiste amélioré avec un mécanisme sophistiqué de preuve de fraude.

Séquençage et Exécution

Le traitement des transactions dans Nitro implique deux composants clés : le Séquenceur et la Fonction de Transition d'État (STF).

Architecture d'Arbitrum Nitro

  • Le Séquenceur : Ordonne les transactions entrantes et s'engage sur cet ordre. Il garantit que la séquence des transactions est connue et fiable, la publiant à la fois comme un flux en temps réel et comme des lots de données compressées sur la chaîne Ethereum de couche 1. Cette double approche améliore la fiabilité et empêche la censure.
  • Exécution Déterministe : La STF traite les transactions séquencées, mettant à jour l'état de la chaîne et produisant de nouveaux blocs. Ce processus est déterministe, ce qui signifie que le résultat dépend uniquement des données de transaction et de l'état précédent, assurant la cohérence à travers le réseau.

Architecture Logicielle : Geth au Cœur

Architecture d'Arbitrum Nitro, en Couches

L'architecture logicielle de Nitro est structurée en trois couches :

  • Couche de Base (Geth Core) : Cette couche gère l'exécution des contrats EVM et maintient les structures de données d'état Ethereum.
  • Couche Intermédiaire (ArbOS) : Logiciel personnalisé qui fournit des fonctionnalités de couche 2, y compris la décompression des lots de séquenceur, la gestion des coûts de gaz et le support des fonctionnalités inter-chaînes.
  • Couche Supérieure : Tirée de geth, cette couche gère les connexions, les requêtes RPC entrantes et d'autres fonctions de nœud de haut niveau.

Interaction Inter-Chaînes

Arbitrum Nitro prend en charge des interactions inter-chaînes sécurisées grâce à des mécanismes comme la Boîte de Sortie, la Boîte de Réception et les Tickets Réessayables.

  • La Boîte de Sortie : Permet les appels de contrat de la couche 2 à la couche 1, assurant que les messages sont transférés et exécutés en toute sécurité sur Ethereum.
  • La Boîte de Réception : Gère les transactions envoyées à Nitro depuis Ethereum, garantissant qu'elles sont incluses dans le bon ordre.
  • Tickets Réessayables : Permet la resoumission des transactions échouées, assurant la fiabilité et réduisant le risque de transactions perdues.

Gaz et Frais

Nitro utilise un mécanisme sophistiqué de mesure et de tarification du gaz pour gérer les coûts des transactions :

  • Mesure et Tarification du Gaz L2 : Suit l'utilisation du gaz et ajuste la redevance de base de manière algorithmique pour équilibrer la demande et la capacité.
  • Mesure et Tarification des Données L1 : Assure que les coûts associés aux interactions de couche 1 sont couverts, en utilisant un algorithme de tarification adaptatif pour répartir ces coûts avec précision entre les transactions.

Conclusion

Cuckoo Network est confiant dans l'investissement dans le développement d'Arbitrum. Les solutions avancées de couche 2 d'Arbitrum Nitro offrent une évolutivité inégalée, une finalité plus rapide et une résolution efficace des litiges. Sa compatibilité avec Ethereum assure un environnement sécurisé et efficace pour nos applications décentralisées, en accord avec notre engagement envers l'innovation et la performance.

Décentraliser l'IA : Un Aperçu

· 16 minutes de lecture
Dora Noda
Software Engineer

La combinaison de la blockchain et de l'IA attire une attention considérable sur le marché. Avec ChatGPT qui a rapidement rassemblé des centaines de millions d'utilisateurs et l'action de Nvidia qui a été multipliée par huit en 2023, l'IA s'est fermement imposée comme une tendance dominante. Cette influence se propage aux secteurs adjacents comme la blockchain, où les applications d'IA sont explorées.

Décentraliser l'IA : Un Aperçu

Actuellement, la crypto joue un rôle complémentaire dans l'IA, offrant un potentiel de croissance significatif. La plupart des organisations sont encore en phase exploratoire, se concentrant sur la tokenisation de la puissance de calcul (cloud et marketplace), des modèles (agents IA) et du stockage de données.

La technologie crypto décentralisée n'augmente pas directement l'efficacité ni ne réduit les coûts de l'entraînement de l'IA, mais elle facilite le trading d'actifs, attirant ainsi la puissance de calcul précédemment inutilisée. Cela est rentable dans l'environnement actuel où la puissance de calcul est rare. La tokenisation des modèles permet une propriété ou une utilisation communautaire décentralisée, réduisant les barrières et offrant une alternative à l'IA centralisée. Cependant, les données décentralisées restent difficiles à tokeniser, nécessitant une exploration plus approfondie.

Bien que le marché n'ait pas encore atteint de consensus sur l'IA et la crypto, l'écosystème prend forme. Voici quelques catégories que nous allons examiner aujourd'hui : Infrastructure-as-a-Service Cloud, marketplaces de calcul, tokenisation et entraînement de modèles, agents IA, tokenisation de données, ZKML et applications IA.

Cloud d'Infrastructure-as-a-Service

À mesure que le marché de l'IA se développe, les projets et les places de marché de cloud computing GPU sont parmi les premiers à en bénéficier. Ils visent à intégrer les ressources GPU inutilisées dans des réseaux centralisés, réduisant ainsi les coûts de calcul par rapport aux services traditionnels.

Ces services cloud ne sont pas considérés comme des solutions décentralisées, mais font partie intégrante de l'écosystème web3 + IA. L'idée est que les GPU sont des ressources rares et possèdent une valeur intrinsèque.

Projets Clés :

  • Akash Network : Place de marché décentralisée de cloud computing basée sur Cosmos SDK, utilisant Kubernetes pour l'orchestration et la tarification par enchères inversées pour la réduction des coûts. Se concentre sur le calcul CPU et GPU.
  • Ritual : Réseau d'infrastructure IA intégrant des modèles d'IA dans des protocoles blockchain. Sa plateforme Infernet permet aux contrats intelligents d'accéder directement aux modèles.
  • Render Network : Plateforme de rendu GPU décentralisée se concentrant à la fois sur le rendu et le calcul IA. A migré vers Solana pour de meilleures performances et des coûts réduits.
  • NetMind.AI : Écosystème IA offrant une place de marché pour les ressources de calcul, un chatbot et des services d'assistant de vie. Prend en charge une large gamme de modèles GPU et intègre Google Colab.
  • CUDOS : Réseau de calcul blockchain similaire à Akash, se concentrant sur le calcul GPU via Cosmos SDK.
  • Nuco.cloud : Service de cloud computing décentralisé basé sur Ethereum et Telos, offrant une gamme de solutions.
  • Dynex : Blockchain pour le calcul neuromorphique, utilisant la Preuve de Travail Utile (Proof-of-Useful-Work) pour l'efficacité.
  • OctaSpace : Cloud de calcul décentralisé, fonctionnant sur sa propre blockchain pour l'IA et le traitement d'images.
  • AIOZ Network : Plateforme de calcul décentralisée de couche 1 pour l'IA, le stockage et le streaming.
  • Phoenix : Infrastructure blockchain Web3 pour le calcul IA et les réseaux basés sur les données.
  • Aethir : Infrastructure cloud pour le jeu et l'IA, basée sur Arbitrum.
  • Iagon : Place de marché décentralisée de stockage et de calcul sur Cardano.
  • OpFlow : Plateforme cloud se concentrant sur l'IA et le rendu, utilisant des GPU NVIDIA.
  • OpSec : Plateforme cloud décentralisée émergente visant à construire le superordinateur de nouvelle génération.

Marchés de ressources informatiques

Les marchés décentralisés de ressources informatiques utilisent les ressources GPU et CPU fournies par les utilisateurs pour les tâches d'IA, l'entraînement et l'inférence. Ces marchés mobilisent la puissance de calcul inutilisée, récompensant les participants tout en réduisant les barrières à l'entrée.

Ces marchés de calcul GPU se concentrent souvent sur le récit de la décentralisation plutôt que sur l'utilité du service. Des projets comme io.net et Nosana, tirant parti des concepts de Solana et DePin, montrent un énorme potentiel de croissance. Investir tôt dans les marchés GPU pendant les phases de forte demande peut offrir des rendements élevés grâce aux incitations et au ROI.

Projets Clés :

  • Cuckoo AI : Un marché décentralisé qui récompense les mineurs de GPU servant des modèles d'IA avec des paiements quotidiens en ERC20. Il utilise des contrats intelligents blockchain et se concentre sur la transparence, la confidentialité et la modularité.
  • Clore.ai : Une plateforme de location de GPU utilisant le PoW. Les utilisateurs peuvent louer des GPU pour l'entraînement d'IA, le rendu et les tâches de minage. Les récompenses sont liées à la quantité de leur jeton détenu.
  • Nosana : Un fournisseur de cloud computing GPU open-source basé sur Solana. Il se concentre sur l'inférence d'IA et développe des connecteurs pour PyTorch, HuggingFace, TensorFlow et les bibliothèques communautaires.
  • io.net : Un réseau de cloud computing IA tirant parti de la technologie blockchain Solana. Il offre des ressources GPU rentables, prenant en charge l'inférence par lots et l'entraînement parallèle.
  • Gensyn : Un protocole L1 pour l'entraînement de modèles d'apprentissage profond. Il vise à améliorer l'efficacité de l'entraînement grâce à un système distribué et sans confiance. Axé sur la réduction des coûts d'entraînement et l'augmentation de l'accessibilité.
  • Nimble : Un écosystème d'IA décentralisé qui combine données, puissance de calcul et développeurs. Il vise à rendre l'entraînement d'IA plus accessible et dispose d'un cadre décentralisé et composable.
  • Morpheus AI : Un marché de calcul décentralisé construit sur Arbitrum. Il aide les utilisateurs à créer des agents IA pour interagir avec des contrats intelligents.
  • Kuzco : Un cluster GPU distribué pour l'inférence de LLM sur Solana. Il offre un hébergement de modèles locaux efficace et récompense les contributeurs avec des points KZO.
  • Golem : Un marché de calcul CPU basé sur Ethereum qui s'est étendu aux GPU. L'un des premiers réseaux de calcul pair-à-pair.
  • Node AI : Un marché de cloud GPU offrant des locations de GPU abordables via EyePerformance.
  • GPU.Net : Un réseau GPU décentralisé fournissant une infrastructure pour l'IA générative, le Web3 et le rendu graphique haut de gamme.
  • GamerHash : Une plateforme utilisant la puissance de calcul inutilisée des joueurs pour le minage de crypto tout en introduisant un modèle play-to-earn pour les appareils bas de gamme.
  • NodeSynapse : Un marché GPU offrant une infrastructure Web3, du calcul GPU, de l'hébergement de serveurs et un modèle unique de partage des revenus pour les détenteurs de jetons.

Tokenisation et entraînement des modèles

La tokenisation et l'entraînement des modèles impliquent la conversion des modèles d'IA en actifs de valeur et leur intégration dans les réseaux blockchain. Cette approche permet une propriété décentralisée, le partage des données et la prise de décision. Elle promet une transparence, une sécurité et des opportunités de monétisation améliorées, tout en créant de nouveaux canaux d'investissement.

Le facteur crucial est d'identifier les projets présentant une réelle innovation et des défis techniques. Le simple échange de droits de propriété ou d'utilisation de modèles d'IA n'est pas une véritable innovation. Les véritables avancées proviennent de la vérification efficace des sorties des modèles et de l'assurance d'un fonctionnement sécurisé et décentralisé des modèles.

Projets Clés :

  • SaharaLabs : Se concentre sur la confidentialité et le partage de données avec des outils comme Knowledge Agent et Data Marketplace, aidant à sécuriser les opérations de données et à attirer des clients tels que le MIT et Microsoft.
  • Bittensor : Construit un protocole décentralisé permettant aux modèles d'IA d'échanger de la valeur. Il utilise des validateurs et des mineurs pour classer les réponses et améliorer la qualité globale des applications basées sur l'IA.
  • iExec RLC : Une plateforme de cloud computing décentralisée qui assure la sécurité des ressources via un consensus de Preuve de Contribution tout en gérant les tâches computationnelles à court terme.
  • Allora : Récompense les agents d'IA pour des prédictions de marché précises, en utilisant des mécanismes de consensus pour valider les prévisions des agents dans un réseau décentralisé.
  • lPAAL AI : Fournit une plateforme pour la création de modèles d'IA personnalisés capables de gérer l'intelligence de marché, les stratégies de trading et d'autres tâches professionnelles.
  • MyShell : Offre une plateforme d'IA flexible pour le développement de chatbots et l'intégration de modèles tiers, incitant les développeurs via des jetons natifs.
  • Qubic : S'appuie sur le consensus de preuve de travail pour l'entraînement de l'IA, avec la couche logicielle Aigarth facilitant la création de réseaux neuronaux.

Agent IA

Les agents IA, ou agents intelligents, sont des entités capables de compréhension autonome, de mémoire, de prise de décision, d'utilisation d'outils et d'exécution de tâches complexes. Ces agents ne se contentent pas de guider les utilisateurs sur la manière d'effectuer des tâches, mais les aident activement à les accomplir. Plus précisément, il s'agit d'agents IA qui interagissent avec la technologie de la blockchain pour des activités telles que le trading, l'offre de conseils en investissement, l'exploitation de bots, l'amélioration des fonctionnalités de la finance décentralisée (DeFi) et l'analyse de données on-chain.

De tels agents IA sont étroitement intégrés à la technologie de la blockchain, ce qui leur permet de générer directement des revenus, d'introduire de nouveaux scénarios de trading et d'améliorer l'expérience utilisateur de la blockchain. Cette intégration représente un récit avancé dans la DeFi, générant des profits grâce aux activités de trading, attirant les investissements en capital et stimulant l'engouement, ce qui à son tour alimente un cycle d'investissement de type "schéma de Ponzi".

Projets Clés :

  • Morpheus : Un marché décentralisé de calcul IA construit sur Arbitrum qui permet la création d'agents IA opérant des contrats intelligents. Le projet est dirigé par David Johnston, qui a une expérience en investissement et en leadership exécutif. Morpheus se concentre sur l'engagement communautaire avec un lancement équitable, un code de staking audité pour la sécurité et un développement actif, bien que les mises à jour des codes des agents IA soient lentes et que les progrès des modules principaux ne soient pas clairs.
  • QnA3.AI : Fournit des services complets pour la gestion de l'information, la gestion des actifs et la gestion des droits tout au long de leur cycle de vie. En utilisant la technologie de Génération Augmentée par Récupération (RAG), QnA3 améliore la récupération et la génération d'informations. Le projet a connu une croissance rapide depuis sa création en 2023, avec des augmentations significatives de l'engagement des utilisateurs et de l'application.
  • Autonolas : Un marché ouvert pour la création et l'utilisation d'agents IA décentralisés, offrant des outils aux développeurs pour construire des agents IA capables de se connecter à plusieurs blockchains. Dirigé par David Minarsch, un économiste formé à Cambridge et spécialisé dans les services multi-agents.
  • SingularityNET : Un réseau de services IA ouvert et décentralisé qui vise à démocratiser et à décentraliser l'IA à usage général. Le réseau permet aux développeurs de monétiser leurs services IA en utilisant le jeton natif AGIX et a été fondé par le Dr Ben Goertzel et le Dr David Hanson, connus pour leur travail sur le robot humanoïde Sophia.
  • Fetch.AI : L'un des premiers protocoles d'agents IA, qui a développé un écosystème pour le déploiement d'agents utilisant le jeton FET. L'équipe est composée d'experts issus d'universités prestigieuses et de grandes entreprises, se concentrant sur l'IA et les solutions algorithmiques.
  • Humans.ai : Une plateforme blockchain IA qui rassemble les parties prenantes impliquées dans la création basée sur l'IA au sein d'une suite de studio créatif, permettant aux individus de créer et de posséder leurs sosies numériques pour la création d'actifs numériques.
  • Metatrust : Un réseau d'agents IA compatible avec la crypto qui offre une solution de sécurité Web3 complète couvrant l'ensemble du cycle de vie du développement logiciel, fondé par une équipe de recherche mondialement reconnue de l'Université Technologique de Nanyang.
  • AgentLayer : Développé par l'équipe Metatrust, ce réseau d'agents décentralisé utilise OP Stack et EigenDA pour améliorer l'efficacité des données ainsi que la performance et la sécurité globales.
  • DAIN : Construit une économie d'agent à agent sur Solana, se concentrant sur la facilitation des interactions fluides entre les agents de différentes entreprises via une API universelle, en mettant l'accent sur l'intégration avec les produits web2 et web3.
  • ChainGPT : Un modèle d'IA conçu pour la blockchain et la crypto, proposant des produits tels qu'un générateur de NFT IA, un générateur de nouvelles alimenté par l'IA, un assistant de trading, un générateur de contrats intelligents et un auditeur. ChainGPT a remporté le prix BNB Ecosystem Catalyst en septembre 2023.

Tokenisation des données

L'intersection de l'IA et de la cryptographie dans le secteur des données recèle un potentiel considérable, car les données et la puissance de calcul sont des ressources fondamentales pour l'IA. Bien que le calcul décentralisé puisse parfois réduire l'efficacité, la décentralisation des données est raisonnable car la production de données est intrinsèquement décentralisée. Ainsi, la combinaison de l'IA et de la blockchain dans le secteur des données offre un potentiel de croissance substantiel.

Un défi majeur dans ce domaine est l'absence d'un marché des données mature, ce qui rend difficile l'évaluation et la standardisation efficaces des données. Sans un mécanisme d'évaluation fiable, les projets ont du mal à attirer des capitaux par le biais d'incitations basées sur des jetons, ce qui pourrait briser l'« effet de volant » même pour les projets à fort potentiel.

Projets Clés :

  • Synesis One : Une plateforme de crowdsourcing sur Solana où les utilisateurs gagnent des jetons en accomplissant des micro-tâches pour l'entraînement de l'IA. En collaboration avec Mind AI, la plateforme prend en charge divers types de données et l'automatisation des processus robotiques. Mind AI a des accords avec GM et le gouvernement indien, ayant levé 9,5 millions de dollars de financement.
  • Grass.io : Un marché de bande passante décentralisé permettant aux utilisateurs de vendre leur bande passante excédentaire à des entreprises d'IA. Avec plus de 2 millions d'adresses IP, seuls les utilisateurs actifs gagnent des récompenses. Ils ont levé 3,5 millions de dollars en financement de démarrage, mené par Polychain et Tribe Capital.
  • GagaNode : Un marché de bande passante décentralisé de nouvelle génération, qui résout les pénuries d'IPv4 en utilisant la technologie Web 3.0. Il est compatible avec plusieurs plateformes, y compris mobiles, et le code est open source.
  • Ocean Protocol : Permet aux utilisateurs de tokeniser et d'échanger leurs données sur Ocean Market, en créant des NFT de données et des jetons de données. Le fondateur Bruce Pon, anciennement chez Mercedes-Benz, est conférencier sur les technologies blockchain et de décentralisation, soutenu par une équipe consultative mondiale.

Application de l'IA

Combiner les capacités de l'IA avec les entreprises crypto actuelles ouvre de nouvelles voies pour améliorer l'efficacité et la fonctionnalité dans divers secteurs tels que la DeFi, le jeu, les NFT, l'éducation et la gestion de systèmes.

DeFi

  • inSure DeFi: Un protocole d'assurance décentralisé où les utilisateurs achètent des jetons SURE pour assurer leurs actifs cryptographiques. Il utilise Chainlink pour la tarification dynamique.
  • Hera Finance: Un agrégateur de DEX inter-chaînes basé sur l'IA, intégré à plusieurs chaînes, telles qu'Ethereum, BNB et Arbitrum.
  • SingularityDAO: Un protocole DeFi alimenté par l'IA offrant la gestion d'investissements. En partenariat avec SingularityNET, ils ont obtenu 25 M$ pour développer leurs outils d'IA et leur écosystème.
  • Arc: Offre un écosystème DeFi basé sur l'IA via Reactor et DApp. A acquis Lychee AI, a rejoint le programme de démarrage d'IA de Google Cloud et a lancé les ARC Swaps alimentés par l'IA.
  • AQTIS: Un protocole de liquidité soutenu par l'IA visant à établir un écosystème durable avec $AQTIS, similaire au gaz sur Ethereum.
  • Jarvis Network: Utilise des algorithmes d'IA pour optimiser les stratégies de trading pour les cryptos et d'autres actifs. Leur jeton natif JRT circule activement.
  • LeverFi: Un protocole de trading à effet de levier développant une solution DeFi IA avec Microsoft. A obtenu 2 M$ de DWF Labs pour la gestion d'investissements IA.
  • Mozaic: Un protocole d'auto-farming mélangeant des concepts d'IA et la technologie LayerZero.

Jeux

  • Sleepless AI : Utilise la blockchain IA pour un jeu de compagnon virtuel. Le premier jeu, HIM, présente des personnages SBT uniques sur la chaîne. Binance a lancé le jeton de Sleepless AI via Launchpool.
  • Phantasma : Une blockchain de couche 1 axée sur le gaming, offrant des smartNFTs et des encodeurs de contrats intelligents IA.
  • Delysium : Un éditeur de jeux Web3 basé sur l'IA avec un cadre de monde ouvert. Ils proposent Lucy, un OS Web3 IA, et permettent la création d'IA-Jumeaux pour des jeux interactifs.
  • Mars4.me : Un projet de métavers 3D interactif soutenu par les données de la NASA. A obtenu un financement à long terme de DWF Labs.
  • GamerHash : Exploite la puissance de calcul excédentaire lors du gaming haut de gamme pour le minage de crypto. Leur fonctionnalité Play&Earn propose des tâches pour les ordinateurs moins performants.
  • Gaimin : Fondée par une équipe d'eSports, elle combine le cloud computing et le gaming pour construire une dApp qui offre des récompenses GPU supplémentaires.
  • Cerebrum Tech : Un fournisseur de solutions d'IA générative, de gaming et de Web3. A récemment levé 1,8 million de dollars pour l'expansion du gaming et de l'IA.
  • Ultiverse : Une plateforme de gaming métavers qui a levé des fonds auprès de Binance Labs pour lancer son protocole de métavers ouvert basé sur l'IA, Bodhi.

NFT

  • NFPrompt : Une plateforme alimentée par l'IA où les utilisateurs peuvent générer de l'art NFT. Le Launchpool de Binance prend en charge le staking de NFP pour des récompenses.
  • Vertex Labs : Un fournisseur d'infrastructure Web3 et IA avec la blockchain, le calcul IA et des marques Web3 comme Hape Prime.

Éducation

  • Hooked Protocol : Propose des jeux éducatifs sociaux et dispose de Hooked Academy, un outil éducatif alimenté par l'IA et propulsé par ChatGPT.

Système

  • Terminus OS : Un OS Web3 basé sur une architecture client-edge blockchain, conçu pour la preuve d'intelligence à l'ère de l'IA. ByteTrade a obtenu 50 millions de dollars de financement pour son développement.

Conclusion

La fusion de l'IA et de la cryptomonnaie ouvre des opportunités révolutionnaires dans divers secteurs, du cloud computing et des applications d'IA à la tokenisation des données et à l'apprentissage automatique à connaissance nulle. Cette combinaison de technologies démontre déjà son pouvoir de transformation. Avec davantage de projets innovants à l'horizon, l'avenir de l'IA et de la crypto sera diversifié, intelligent et sécurisé.

Nous sommes impatients de découvrir de nouvelles collaborations et des technologies de pointe qui étendront la portée de l'IA et de la blockchain à des applications encore plus vastes.