Pular para o conteúdo principal

4 posts marcado com "pesquisa"

Ver Todas as Tags

LinguaLinked: Capacitando Dispositivos Móveis com Modelos de Linguagem de Grande Escala Distribuídos

· 5 min de leitura
Lark Birdy
Chief Bird Officer

A demanda por implantar modelos de linguagem de grande escala (LLMs) em dispositivos móveis está aumentando, impulsionada pela necessidade de privacidade, redução de latência e uso eficiente de largura de banda. No entanto, os extensos requisitos de memória e computação dos LLMs representam desafios significativos. Surge então o LinguaLinked, um novo sistema, desenvolvido por um grupo de pesquisadores da UC Irvine, projetado para permitir inferência descentralizada e distribuída de LLMs em vários dispositivos móveis, aproveitando suas capacidades coletivas para realizar tarefas complexas de forma eficiente.

O Desafio

Implantar LLMs como GPT-3 ou BLOOM em dispositivos móveis é desafiador devido a:

  • Restrições de Memória: LLMs exigem memória substancial, muitas vezes excedendo a capacidade de dispositivos móveis individuais.
  • Limitações Computacionais: Dispositivos móveis geralmente têm poder de processamento limitado, dificultando a execução de modelos grandes.
  • Questões de Privacidade: Enviar dados para servidores centralizados para processamento levanta preocupações de privacidade.

A Solução do LinguaLinked

O LinguaLinked aborda esses desafios com três estratégias principais:

  1. Atribuição Otimizada de Modelos:

    • O sistema segmenta LLMs em subgrafos menores usando otimização linear para corresponder cada segmento às capacidades de um dispositivo.
    • Isso garante o uso eficiente dos recursos e minimiza a transmissão de dados entre dispositivos.
  2. Balanceamento de Carga em Tempo de Execução:

    • O LinguaLinked monitora ativamente o desempenho dos dispositivos e redistribui tarefas para evitar gargalos.
    • Essa abordagem dinâmica garante o uso eficiente de todos os recursos disponíveis, melhorando a capacidade de resposta geral do sistema.
  3. Comunicação Otimizada:

    • Mapas de transmissão de dados eficientes guiam o fluxo de informações entre dispositivos, mantendo a integridade estrutural do modelo.
    • Esse método reduz a latência e garante o processamento oportuno de dados na rede de dispositivos móveis.

Um único modelo de linguagem de grande escala (LLM) é dividido em diferentes partes (ou segmentos) e distribuído por vários dispositivos móveis. Essa abordagem permite que cada dispositivo lide apenas com uma fração dos requisitos totais de computação e armazenamento, tornando viável a execução de modelos complexos mesmo em dispositivos com recursos limitados. Aqui está um detalhamento de como isso funciona:

Segmentação e Distribuição de Modelos

  1. Segmentação de Modelos:
    • O modelo de linguagem de grande escala é transformado em um grafo computacional onde cada operação dentro da rede é representada como um nó.
    • Esse grafo é então particionado em subgrafos menores, cada um capaz de funcionar de forma independente.
  2. Atribuição Otimizada de Modelos:
    • Usando otimização linear, esses subgrafos (ou segmentos de modelo) são atribuídos a diferentes dispositivos móveis.
    • A atribuição considera as capacidades computacionais e de memória de cada dispositivo, garantindo o uso eficiente dos recursos e minimizando a sobrecarga de transmissão de dados entre dispositivos.
  3. Execução Colaborativa de Inferência:
    • Cada dispositivo móvel processa seu segmento atribuído do modelo.
    • Os dispositivos se comunicam entre si para trocar resultados intermediários conforme necessário, garantindo que a tarefa de inferência geral seja concluída corretamente.
    • Estratégias de comunicação otimizadas são empregadas para manter a integridade da estrutura original do modelo e garantir um fluxo eficiente de dados.

Cenário de Exemplo

Imagine um modelo de linguagem de grande escala como o GPT-3 sendo dividido em várias partes. Um dispositivo móvel pode lidar com as embeddings iniciais de tokens e as primeiras camadas do modelo, enquanto outro dispositivo processa as camadas intermediárias e um terceiro dispositivo completa as camadas finais e gera a saída. Ao longo desse processo, os dispositivos compartilham saídas intermediárias para garantir que a inferência completa do modelo seja executada perfeitamente.

Desempenho e Resultados

A eficácia do LinguaLinked é demonstrada por meio de testes extensivos em vários dispositivos Android, tanto de ponta quanto de entrada. As principais descobertas incluem:

  • Velocidade de Inferência: Comparado a uma linha de base, o LinguaLinked acelera o desempenho de inferência em 1,11× a 1,61× em configurações de thread único e 1,73× a 2,65× com multithreading.
  • Balanceamento de Carga: O balanceamento de carga em tempo de execução do sistema melhora ainda mais o desempenho, com uma aceleração geral de 1,29× a 1,32×.
  • Escalabilidade: Modelos maiores se beneficiam significativamente da atribuição otimizada de modelos do LinguaLinked, demonstrando sua escalabilidade e eficácia no tratamento de tarefas complexas.

Casos de Uso e Aplicações

O LinguaLinked é particularmente adequado para cenários onde privacidade e eficiência são fundamentais. As aplicações incluem:

  • Geração e Resumo de Texto: Geração de texto coerente e contextualmente relevante localmente em dispositivos móveis.
  • Análise de Sentimentos: Classificação de dados de texto de forma eficiente sem comprometer a privacidade do usuário.
  • Tradução em Tempo Real: Fornecimento de traduções rápidas e precisas diretamente no dispositivo.

Direções Futuras

O LinguaLinked abre caminho para mais avanços em IA móvel:

  • Eficiência Energética: As futuras iterações se concentrarão em otimizar o consumo de energia para evitar o esgotamento da bateria e o superaquecimento durante tarefas intensivas.
  • Privacidade Aprimorada: Melhorias contínuas no processamento descentralizado garantirão ainda mais a privacidade dos dados.
  • Modelos Multimodais: Expansão do LinguaLinked para suportar modelos multimodais para diversas aplicações no mundo real.

Conclusão

O LinguaLinked representa um avanço significativo na implantação de LLMs em dispositivos móveis. Ao distribuir a carga computacional e otimizar o uso de recursos, ele torna a IA avançada acessível e eficiente em uma ampla gama de dispositivos. Essa inovação não só melhora o desempenho, mas também garante a privacidade dos dados, preparando o terreno para aplicações de IA móvel mais personalizadas e seguras.

Compreendendo o Protocolo de Prova de Inferência

· 4 min de leitura
Lark Birdy
Chief Bird Officer

A ascensão de grandes modelos de linguagem (LLMs) e da computação descentralizada introduziu desafios significativos, especialmente em relação à verificação e integridade dos cálculos de IA em sistemas distribuídos. O Protocolo de Prova de Inferência (PoIP) 6079 aborda esses desafios ao estabelecer uma estrutura robusta para a inferência de IA descentralizada, garantindo cálculos confiáveis e seguros.

O Desafio: Segurança na Inferência de IA Descentralizada

A inferência de IA descentralizada enfrenta o problema único de garantir a integridade e a correção dos cálculos realizados em uma rede de nós distribuídos. Métodos tradicionais de verificação são insuficientes devido à natureza não determinística de muitos modelos de IA. Sem um protocolo robusto, é desafiador garantir que o hardware distribuído retorne resultados de inferência precisos.

Introduzindo o Protocolo de Prova de Inferência (PoIP)

O Protocolo de Prova de Inferência (PoIP) 6079 oferece uma solução inovadora para proteger a inferência de IA descentralizada. Ele utiliza uma combinação de mecanismos de segurança criptoeconômicos, provas criptográficas e abordagens de teoria dos jogos para incentivar comportamentos corretos e penalizar atividades maliciosas dentro da rede.

Componentes Centrais do PoIP

Padrão de Motor de Inferência

O Padrão de Motor de Inferência define os padrões e padrões de computação para executar tarefas de inferência de IA em redes descentralizadas. Essa padronização garante desempenho consistente e confiável dos modelos de IA em hardware distribuído.

Protocolo de Prova de Inferência

O protocolo opera em várias camadas:

  1. Camada de Serviço: Executa a inferência de modelos em hardware físico.
  2. Camada de Controle: Gerencia endpoints de API, coordena balanceamento de carga e lida com diagnósticos.
  3. Camada de Transação: Usa uma tabela hash distribuída (DHT) para rastrear metadados de transações.
  4. Camada de Prova Probabilística: Valida transações através de mecanismos criptográficos e econômicos.
  5. Camada Econômica: Lida com pagamento, staking, slashing, segurança, governança e financiamento público.

Garantindo Integridade e Segurança

O PoIP emprega vários mecanismos para garantir a integridade dos cálculos de inferência de IA:

  • Validação de Árvore de Merkle: Garante que os dados de entrada cheguem às GPUs sem alterações.
  • Tabela Hash Distribuída (DHT): Sincroniza dados de transações entre nós para detectar discrepâncias.
  • Testes Diagnósticos: Avaliam as capacidades do hardware e garantem conformidade com os padrões da rede.

Incentivos Econômicos e Teoria dos Jogos

O protocolo utiliza incentivos econômicos para encorajar comportamentos desejáveis entre os nós:

  • Staking: Nós apostam tokens para demonstrar compromisso e aumentar sua credibilidade.
  • Construção de Reputação: Tarefas bem-sucedidas melhoram a reputação de um nó, tornando-o mais atraente para tarefas futuras.
  • Mecanismos de Jogo Competitivo: Nós competem para fornecer o melhor serviço, garantindo melhoria contínua e adesão aos padrões.

FAQs

O que é o Protocolo de Prova de Inferência?

O Protocolo de Prova de Inferência (PoIP) é um sistema projetado para proteger e verificar cálculos de inferência de IA em redes descentralizadas. Ele garante que os nós de hardware distribuído retornem resultados precisos e confiáveis.

Como o PoIP garante a integridade dos cálculos de IA?

O PoIP utiliza mecanismos como validação de árvore de Merkle, tabelas hash distribuídas (DHT) e testes diagnósticos para verificar a integridade dos cálculos de IA. Essas ferramentas ajudam a detectar discrepâncias e garantir a correção dos dados processados na rede.

Qual o papel dos incentivos econômicos no PoIP?

Os incentivos econômicos no PoIP encorajam comportamentos desejáveis entre os nós. Nós apostam tokens para demonstrar compromisso, constroem reputação através de tarefas bem-sucedidas e competem para fornecer o melhor serviço. Este sistema garante melhoria contínua e adesão aos padrões da rede.

Quais são as principais camadas do PoIP?

O PoIP opera em cinco camadas principais: Camada de Serviço, Camada de Controle, Camada de Transação, Camada de Prova Probabilística e Camada Econômica. Cada camada desempenha um papel crucial na garantia da segurança, integridade e eficiência da inferência de IA em redes descentralizadas.

Conclusão

O Protocolo de Prova de Inferência (PoIP) 6079 representa um avanço interessante no campo da IA descentralizada. Ao garantir a segurança e a confiabilidade dos cálculos de IA em redes distribuídas, o PoIP indica um novo caminho para uma adoção mais ampla e inovação em aplicações de IA descentralizada. À medida que avançamos para um futuro mais descentralizado, protocolos como o PoIP serão úteis para manter a confiança e a integridade em sistemas impulsionados por IA.

Introdução à Arquitetura do Arbitrum Nitro

· 4 min de leitura
Lark Birdy
Chief Bird Officer

Arbitrum Nitro, desenvolvido pela Offchain Labs, é um protocolo blockchain de segunda geração Layer 2 projetado para melhorar a capacidade de processamento, a finalização e a resolução de disputas. Ele se baseia no protocolo Arbitrum original, trazendo melhorias significativas que atendem às necessidades modernas de blockchain.

Principais Propriedades do Arbitrum Nitro

O Arbitrum Nitro opera como uma solução Layer 2 sobre o Ethereum, suportando a execução de contratos inteligentes usando o código da Máquina Virtual Ethereum (EVM). Isso garante compatibilidade com as aplicações e ferramentas existentes no Ethereum. O protocolo garante tanto segurança quanto progresso, assumindo que a cadeia Ethereum subjacente permaneça segura e ativa, e que pelo menos um participante no protocolo Nitro se comporte de maneira honesta.

Abordagem de Design

A arquitetura do Nitro é construída sobre quatro princípios fundamentais:

  • Sequenciamento Seguido por Execução Determinística: As transações são primeiro sequenciadas e depois processadas de forma determinística. Essa abordagem em duas fases garante um ambiente de execução consistente e confiável.
  • Geth no Núcleo: O Nitro utiliza o pacote go-ethereum (geth) para execução central e manutenção de estado, garantindo alta compatibilidade com o Ethereum.
  • Separação de Execução e Prova: A função de transição de estado é compilada tanto para execução nativa quanto para web assembly (wasm) para facilitar a execução eficiente e a prova estruturada e independente de máquina.
  • Rollup Otimista com Provas de Fraude Interativas: Baseando-se no design original do Arbitrum, o Nitro emprega um protocolo de rollup otimista aprimorado com um sofisticado mecanismo de prova de fraude.

Sequenciamento e Execução

O processamento de transações no Nitro envolve dois componentes principais: o Sequenciador e a Função de Transição de Estado (STF).

Arquitetura do Arbitrum Nitro

  • O Sequenciador: Ordena as transações recebidas e compromete-se com essa ordem. Ele garante que a sequência de transações seja conhecida e confiável, postando-a tanto como um feed em tempo real quanto como lotes de dados compactados na cadeia Ethereum Layer 1. Essa abordagem dupla aumenta a confiabilidade e previne a censura.
  • Execução Determinística: A STF processa as transações sequenciadas, atualizando o estado da cadeia e produzindo novos blocos. Esse processo é determinístico, o que significa que o resultado depende apenas dos dados da transação e do estado anterior, garantindo consistência em toda a rede.

Arquitetura de Software: Geth no Núcleo

Arquitetura do Arbitrum Nitro, Estratificada

A arquitetura de software do Nitro é estruturada em três camadas:

  • Camada Base (Núcleo Geth): Esta camada lida com a execução de contratos EVM e mantém as estruturas de dados de estado do Ethereum.
  • Camada Intermediária (ArbOS): Software personalizado que fornece funcionalidade Layer 2, incluindo descompressão de lotes do sequenciador, gerenciamento de custos de gás e suporte a funcionalidades cross-chain.
  • Camada Superior: Derivada do geth, esta camada lida com conexões, solicitações RPC recebidas e outras funções de nó de alto nível.

Interação Cross-Chain

O Arbitrum Nitro suporta interações cross-chain seguras por meio de mecanismos como o Outbox, Inbox e Tickets Repetíveis.

  • O Outbox: Permite chamadas de contrato do Layer 2 para o Layer 1, garantindo que as mensagens sejam transferidas e executadas com segurança no Ethereum.
  • O Inbox: Gerencia transações enviadas para o Nitro a partir do Ethereum, garantindo que sejam incluídas na ordem correta.
  • Tickets Repetíveis: Permitem a reenvio de transações falhadas, garantindo confiabilidade e reduzindo o risco de transações perdidas.

Gás e Taxas

O Nitro emprega um sofisticado mecanismo de medição e precificação de gás para gerenciar os custos das transações:

  • Medição e Precificação de Gás L2: Acompanha o uso de gás e ajusta a taxa base de forma algorítmica para equilibrar demanda e capacidade.
  • Medição e Precificação de Dados L1: Garante que os custos associados às interações Layer 1 sejam cobertos, utilizando um algoritmo de precificação adaptativo para repartir esses custos com precisão entre as transações.

Conclusão

A Cuckoo Network está confiante em investir no desenvolvimento do Arbitrum. As soluções avançadas Layer 2 do Arbitrum Nitro oferecem escalabilidade incomparável, finalização mais rápida e resolução eficiente de disputas. Sua compatibilidade com o Ethereum garante um ambiente seguro e eficiente para nossas aplicações descentralizadas, alinhando-se com nosso compromisso com a inovação e o desempenho.

Descentralizando a IA: Uma Visão Geral

· 15 min de leitura
Dora Noda
Software Engineer

A combinação de blockchain e IA está ganhando atenção significativa no mercado. Com o ChatGPT acumulando rapidamente centenas de milhões de usuários e as ações da Nvidia disparando oito vezes em 2023, a IA se estabeleceu firmemente como uma tendência dominante. Essa influência está se espalhando para setores adjacentes, como o blockchain, onde as aplicações de IA estão sendo exploradas.

Descentralizando a IA: Uma Visão Geral

Atualmente, as criptomoedas desempenham um papel complementar na IA, oferecendo um potencial significativo de crescimento. A maioria das organizações ainda está na fase exploratória, focando na tokenização do poder de computação (nuvem e mercado), modelos (agentes de IA) e armazenamento de dados.

A tecnologia cripto descentralizada não aumenta diretamente a eficiência ou reduz os custos no treinamento de IA, mas facilita a negociação de ativos, atraindo poder de computação anteriormente não utilizado. Isso é lucrativo no ambiente atual de escassez de computação. A tokenização de modelos permite a propriedade ou uso comunitário descentralizado, reduzindo barreiras e oferecendo uma alternativa à IA centralizada. No entanto, os dados descentralizados ainda são desafiadores de tokenizar, exigindo mais exploração.

Embora o mercado ainda não tenha chegado a um consenso sobre IA e cripto, o ecossistema está se formando. Aqui estão algumas categorias que revisaremos hoje: Nuvem de Infraestrutura como Serviço, mercados de computação, tokenização e treinamento de modelos, agentes de IA, tokenização de dados, ZKML e aplicações de IA.

Nuvem de Infraestrutura como Serviço

À medida que o mercado de IA cresce, projetos de computação em nuvem com GPU e mercados estão entre os primeiros a se beneficiar. Eles visam incorporar recursos de GPU não utilizados em redes centralizadas, reduzindo os custos de computação em comparação com serviços tradicionais.

Esses serviços de nuvem não são considerados soluções descentralizadas, mas são partes integrais do ecossistema web3 + IA. A ideia é que as GPUs são recursos escassos e possuem valor intrínseco.

Projetos Principais:

  • Akash Network: Mercado de computação em nuvem descentralizado baseado no Cosmos SDK, usando Kubernetes para orquestração e precificação por leilão reverso para redução de custos. Foca em computação de CPU e GPU.
  • Ritual: Rede de infraestrutura de IA que integra modelos de IA em protocolos blockchain. Sua plataforma Infernet permite que contratos inteligentes acessem modelos diretamente.
  • Render Network: Plataforma descentralizada de renderização de GPU focada tanto em renderização quanto em computação de IA. Mudou-se para Solana para melhor desempenho e custo.
  • NetMind.AI: Ecossistema de IA que fornece um mercado para recursos de computação, chatbot e serviços de assistente de vida. Suporta uma ampla gama de modelos de GPU e integra o Google Colab.
  • CUDOS: Rede de computação blockchain semelhante ao Akash, focando em computação de GPU via Cosmos SDK.
  • Nuco.cloud: Serviço de nuvem de computação descentralizado baseado em Ethereum e Telos, oferecendo uma gama de soluções.
  • Dynex: Blockchain para computação neuromórfica, usando Prova de Trabalho Útil para eficiência.
  • OctaSpace: Nuvem de computação descentralizada, operando em seu próprio blockchain para IA e processamento de imagem.
  • AIOZ Network: Plataforma de computação descentralizada de camada 1 para IA, armazenamento e streaming.
  • Phoenix: Infraestrutura blockchain Web3 para computação de IA e redes orientadas por dados.
  • Aethir: Infraestrutura de nuvem para jogos e IA, baseada no Arbitrum.
  • Iagon: Mercado descentralizado de armazenamento e computação no Cardano.
  • OpFlow: Plataforma de nuvem focada em IA e renderização, usando GPUs NVIDIA.
  • OpSec: Plataforma emergente de nuvem descentralizada visando construir o supercomputador da próxima geração.

Mercados de recursos de computação

Os mercados descentralizados de recursos de computação utilizam recursos de GPU e CPU fornecidos pelos usuários para tarefas de IA, treinamento e inferência. Esses mercados mobilizam poder de computação não utilizado, recompensando os participantes enquanto reduzem as barreiras de entrada.

Esses mercados de computação de GPU muitas vezes se concentram na narrativa de descentralização em vez de utilidade de serviço. Projetos como io.net e Nosana, aproveitando Solana e conceitos DePin, mostram um enorme potencial de crescimento. Investir cedo em mercados de GPU durante fases de alta demanda pode oferecer altos retornos por meio de incentivos e ROI.

Projetos Principais:

  • Cuckoo AI: Um mercado descentralizado que recompensa mineradores de GPU que servem modelos de IA com pagamentos diários em ERC20. Usa contratos inteligentes blockchain e foca em transparência, privacidade e modularidade.
  • Clore.ai: Uma plataforma de aluguel de GPU usando PoW. Os usuários podem alugar GPUs para treinamento de IA, renderização e tarefas de mineração. As recompensas estão atreladas à quantidade de seu token mantido.
  • Nosana: Um provedor de computação em nuvem de GPU de código aberto baseado em Solana. Foca em inferência de IA e está desenvolvendo conectores para PyTorch, HuggingFace, TensorFlow e bibliotecas comunitárias.
  • io.net: Uma rede de computação em nuvem de IA que aproveita a tecnologia blockchain Solana. Oferece recursos de GPU econômicos, suportando inferência em lote e treinamento paralelo.
  • Gensyn: Um protocolo L1 para treinamento de modelos de aprendizado profundo. Visa melhorar a eficiência do treinamento por meio de um sistema distribuído sem confiança. Focado em reduzir custos de treinamento e aumentar a acessibilidade.
  • Nimble: Um ecossistema de IA descentralizado que combina dados, poder de computação e desenvolvedores. Visa tornar o treinamento de IA mais acessível e possui uma estrutura descentralizada e componível.
  • Morpheus AI: Um mercado de computação descentralizado construído no Arbitrum. Ajuda os usuários a criar agentes de IA para interagir com contratos inteligentes.
  • Kuzco: Um cluster de GPU distribuído para inferência de LLM no Solana. Oferece hospedagem local de modelos eficiente e recompensa os colaboradores com pontos KZO.
  • Golem: Um mercado de computação de CPU baseado em Ethereum que se expandiu para GPUs. Uma das primeiras redes de computação peer-to-peer.
  • Node AI: Um mercado de nuvem de GPU que oferece aluguéis de GPU acessíveis através do EyePerformance.
  • GPU.Net: Uma rede de GPU descentralizada que fornece infraestrutura para IA generativa, Web3 e renderização gráfica de alta qualidade.
  • GamerHash: Uma plataforma que utiliza o poder de computação ocioso dos jogadores para mineração de cripto, enquanto introduz um modelo de jogar-para-ganhar para dispositivos de baixo custo.
  • NodeSynapse: Um mercado de GPU que oferece infraestrutura Web3, computação de GPU, hospedagem de servidores e um modelo de compartilhamento de receita exclusivo para detentores de tokens.

Tokenização e treinamento de modelos

A tokenização e o treinamento de modelos envolvem a conversão de modelos de IA em ativos valiosos e sua integração em redes blockchain. Essa abordagem permite a propriedade descentralizada, compartilhamento de dados e tomada de decisões. Promete oportunidades de monetização, segurança e transparência aprimoradas, enquanto cria novos canais de investimento.

O fator crucial é reconhecer projetos com verdadeira inovação e desafios técnicos. Simplesmente negociar direitos de propriedade ou uso de modelos de IA não é verdadeira inovação. Os avanços reais vêm da verificação eficaz dos resultados dos modelos e da garantia de operação segura e descentralizada dos modelos.

Projetos Principais:

  • SaharaLabs: Foca em privacidade e compartilhamento de dados com ferramentas como Knowledge Agent e Data Marketplace, ajudando a garantir operações de dados e atrair clientes como MIT e Microsoft.
  • Bittensor: Constrói um protocolo descentralizado para modelos de IA trocarem valor. Usa validadores e mineradores para classificar respostas e melhorar a qualidade geral das aplicações impulsionadas por IA.
  • iExec RLC: Uma plataforma de computação em nuvem descentralizada que garante a segurança dos recursos via consenso de Prova de Contribuição enquanto gerencia tarefas computacionais de curto prazo.
  • Allora: Recompensa agentes de IA por previsões de mercado precisas, utilizando mecanismos de consenso para validar previsões de agentes em uma rede descentralizada.
  • lPAAL AI: Fornece uma plataforma para criar modelos de IA personalizados que podem lidar com inteligência de mercado, estratégias de negociação e outras tarefas profissionais.
  • MyShell: Oferece uma plataforma de IA flexível para desenvolvimento de chatbots e integração de modelos de terceiros, incentivando desenvolvedores por meio de tokens nativos.
  • Qubic: Aproveita o consenso de prova de trabalho para treinamento de IA, com a camada de software Aigarth facilitando a criação de redes neurais.

Agente de IA

Agentes de IA, ou agentes inteligentes, são entidades capazes de compreensão autônoma, memória, tomada de decisão, uso de ferramentas e execução de tarefas complexas. Esses agentes não apenas guiam os usuários sobre "como" realizar tarefas, mas também ajudam ativamente a completá-las. Especificamente, isso se refere a agentes de IA que interagem com a tecnologia blockchain para atividades como negociação, oferta de conselhos de investimento, operação de bots, aprimoramento de funcionalidades de finanças descentralizadas (DeFi) e análise de dados on-chain.

Tais agentes de IA estão intimamente integrados à tecnologia blockchain, permitindo que gerem receita diretamente, introduzam novos cenários de negociação e aprimorem a experiência do usuário blockchain. Essa integração representa uma narrativa avançada no DeFi, criando lucro por meio de atividades de negociação, atraindo investimento de capital e fomentando hype, que por sua vez impulsiona um ciclo de investimento semelhante a um esquema Ponzi.

Projetos Principais:

  • Morpheus: Um mercado de computação de IA descentralizado construído no Arbitrum que permite a criação de agentes de IA que operam contratos inteligentes. O projeto é liderado por David Johnston, que tem experiência em investimento e liderança executiva. Morpheus foca no engajamento comunitário com um lançamento justo, código de staking auditado em segurança e desenvolvimento ativo, embora as atualizações nos códigos de agentes de IA sejam lentas e o progresso do módulo central seja incerto.
  • QnA3.AI: Oferece serviços abrangentes para gestão de informações, gestão de ativos e gestão de direitos ao longo de seu ciclo de vida. Usando tecnologia de Geração Aumentada por Recuperação (RAG), o QnA3 aprimora a recuperação e geração de informações. O projeto cresceu rapidamente desde sua criação em 2023, com aumentos significativos no engajamento de usuários e aplicação.
  • Autonolas: Um mercado aberto para criar e usar agentes de IA descentralizados, oferecendo ferramentas para desenvolvedores construírem agentes de IA capazes de se conectar a múltiplas blockchains. Liderado por David Minarsch, um economista formado em Cambridge especializado em serviços multiagentes.
  • SingularityNET: Uma rede de serviços de IA aberta e descentralizada que visa democratizar e descentralizar a IA de propósito geral. A rede permite que desenvolvedores monetizem seus serviços de IA usando o token nativo AGIX e foi fundada pelo Dr. Ben Goertzel e Dr. David Hanson, conhecidos por seu trabalho no robô humanoide Sophia.
  • Fetch.AI: Um dos primeiros protocolos de agentes de IA, que desenvolveu um ecossistema para implantar agentes usando o token FET. A equipe é composta por especialistas de universidades prestigiadas e grandes empresas, focando em soluções de IA e algoritmos.
  • Humans.ai: Uma plataforma de blockchain de IA que reúne partes interessadas envolvidas na criação impulsionada por IA dentro de um conjunto de estúdios criativos, permitindo que indivíduos criem e possuam suas semelhanças digitais para a criação de ativos digitais.
  • Metatrust: Uma rede de agentes de IA habilitada para cripto que oferece uma solução abrangente de segurança Web3 cobrindo todo o ciclo de vida do desenvolvimento de software, fundada por uma equipe de pesquisa reconhecida globalmente da Universidade Tecnológica de Nanyang.
  • AgentLayer: Desenvolvido pela equipe Metatrust, esta rede de agentes descentralizada utiliza OP Stack e EigenDA para melhorar a eficiência de dados e o desempenho e segurança gerais.
  • DAIN: Construindo uma economia de agente para agente no Solana, focando em habilitar interações perfeitas entre agentes de diferentes empresas por meio de uma API universal, enfatizando a integração com produtos web2 e web3.
  • ChainGPT: Um modelo de IA projetado para blockchain e cripto, apresentando produtos como um gerador de NFT de IA, gerador de notícias impulsionado por IA, assistente de negociação, gerador de contratos inteligentes e auditor. ChainGPT ganhou o Prêmio Catalisador do Ecossistema BNB em setembro de 2023.

Tokenização de dados

A interseção de IA e criptografia no setor de dados possui um potencial significativo, pois dados e poder de computação são recursos fundamentais para a IA. Embora a computação descentralizada possa às vezes reduzir a eficiência, descentralizar dados é razoável porque a produção de dados é inerentemente descentralizada. Assim, a combinação de IA e blockchain no setor de dados oferece um potencial de crescimento substancial.

Um grande desafio neste campo é a falta de um mercado de dados maduro, tornando a avaliação e padronização eficazes dos dados difíceis. Sem um mecanismo de avaliação confiável, os projetos lutam para atrair capital por meio de incentivos de tokens, potencialmente quebrando o "efeito flywheel" mesmo para projetos de alto potencial.

Projetos Principais:

  • Synesis One: Uma plataforma de crowdsourcing no Solana onde os usuários ganham tokens completando micro-tarefas para treinamento de IA. Colaborando com a Mind AI, a plataforma suporta vários tipos de dados e automação de processos robóticos. A Mind AI tem acordos com a GM e o governo indiano, arrecadando $9,5 milhões em financiamento.
  • Grass.io: Um mercado descentralizado de largura de banda que permite aos usuários vender largura de banda excedente para empresas de IA. Com mais de 2 milhões de endereços IP, apenas usuários ativos ganham recompensas. Eles arrecadaram $3,5 milhões em financiamento inicial liderado por Polychain e Tribe Capital.
  • GagaNode: Um mercado de largura de banda descentralizado de próxima geração que aborda a escassez de IPv4 usando tecnologia Web 3.0. É compatível com várias plataformas, incluindo móveis, e o código é de código aberto.
  • Ocean Protocol: Permite que os usuários tokenizem e negociem seus dados no Ocean Market, criando NFTs de dados e tokens de dados. O fundador Bruce Pon, anteriormente com a Mercedes-Benz, é um palestrante sobre blockchain e tecnologias de descentralização, apoiado por uma equipe global de consultoria.

Aplicação de IA

Combinar capacidades de IA com negócios cripto atuais abre novas vias para melhorar a eficiência e funcionalidade em vários setores como DeFi, jogos, NFTs, educação e gestão de sistemas.

DeFi

  • inSure DeFi: Um protocolo de seguro descentralizado onde os usuários compram tokens SURE para segurar seus ativos cripto. Ele aproveita o Chainlink para precificação dinâmica.
  • Hera Finance: Um agregador DEX cross-chain impulsionado por IA integrado a múltiplas cadeias, como Ethereum, BNB e Arbitrum.
  • SingularityDAO: Um protocolo DeFi impulsionado por IA que oferece gestão de investimentos. Em parceria com a SingularityNET, eles garantiram $25M para escalar suas ferramentas e ecossistema de IA.
  • Arc: Oferece um ecossistema DeFi impulsionado por IA via Reactor e DApp. Adquiriu a Lychee AI, juntou-se ao Programa de Startups de IA do Google Cloud e lançou ARC Swaps impulsionados por IA.
  • AQTIS: Um protocolo de liquidez suportado por IA que visa estabelecer um ecossistema sustentável com $AQTIS semelhante ao gás no Ethereum.
  • Jarvis Network: Utiliza algoritmos de IA para otimizar estratégias de negociação para cripto e outros ativos. Seu token nativo JRT circula ativamente.
  • LeverFi: Um protocolo de negociação alavancada desenvolvendo uma solução DeFi de IA com a Microsoft. Garantiu $2M da DWF Labs para gestão de investimentos em IA.
  • Mozaic: Um protocolo de auto-farming que combina conceitos de IA e tecnologia LayerZero.

Jogos

  • Sleepless AI: Usa blockchain de IA para um jogo de companheiro virtual. O primeiro jogo, HIM, apresenta personagens SBT únicos on-chain. A Binance lançou o token da Sleepless AI via Launchpool.
  • Phantasma: Uma blockchain de camada 1 focada em jogos que oferece smartNFTs e codificadores de contratos inteligentes de IA.
  • Delysium: Um editor de jogos Web3 impulsionado por IA com uma estrutura de mundo aberto. Eles oferecem Lucy, um sistema operacional Web3 de IA, e permitem a criação de AI-Twins para jogos interativos.
  • Mars4.me: Um projeto de metaverso 3D interativo apoiado por dados da NASA. Garantiu financiamento de longo prazo da DWF Labs.
  • GamerHash: Aproveita o poder de computação excedente durante jogos de alta qualidade para mineração de cripto. Seu recurso Play&Earn fornece tarefas para computadores de especificações mais baixas.
  • Gaimin: Fundado por uma equipe de eSports, combina computação em nuvem com jogos para construir um dApp que fornece recompensas extras de GPU.
  • Cerebrum Tech: Um provedor de soluções de IA generativa, jogos e Web3. Recentemente arrecadou $1,8M para expansão de jogos e IA.
  • Ultiverse: Uma plataforma de jogos de metaverso que arrecadou fundos do Binance Labs para lançar seu protocolo de metaverso aberto impulsionado por IA, Bodhi.

NFT

  • NFPrompt: Uma plataforma impulsionada por IA onde os usuários podem gerar arte NFT. O Launchpool da Binance suporta o staking de NFP para recompensas.
  • Vertex Labs: Um provedor de infraestrutura Web3 e IA com blockchain, computação de IA e marcas Web3 como Hape Prime.

Educação

  • Hooked Protocol: Oferece jogos educacionais sociais e possui a Hooked Academy, uma ferramenta educacional impulsionada por IA apoiada pelo ChatGPT.

Sistema

  • Terminus OS: Um sistema operacional Web3 baseado em arquitetura cliente-borda-blockchain, projetado para a era da IA com prova de inteligência. A ByteTrade garantiu $50M em financiamento para seu desenvolvimento.

Conclusão

A fusão de IA e criptomoeda está abrindo oportunidades inovadoras em vários setores, desde computação em nuvem e aplicações de IA até tokenização de dados e aprendizado de máquina de conhecimento zero. Esta combinação de tecnologias já está mostrando seu poder transformador. Com mais projetos inovadores no horizonte, o futuro da IA e cripto será diversificado, inteligente e seguro.

Estamos ansiosos para ver novas colaborações e tecnologias de ponta que expandirão o alcance da IA e blockchain para aplicações ainda mais amplas.