Saltar al contenido principal

5 publicaciones etiquetados con "investigación"

Ver todas las etiquetas

LinguaLinked: Potenciando Dispositivos Móviles con Modelos de Lenguaje de Gran Escala Distribuidos

· 5 min de lectura
Lark Birdy
Chief Bird Officer

La demanda de implementar modelos de lenguaje de gran escala (LLMs) en dispositivos móviles está en aumento, impulsada por la necesidad de privacidad, reducción de latencia y uso eficiente del ancho de banda. Sin embargo, los extensos requisitos de memoria y computación de los LLMs plantean desafíos significativos. Entra LinguaLinked, un nuevo sistema desarrollado por un grupo de investigadores de UC Irvine, diseñado para habilitar la inferencia descentralizada y distribuida de LLMs a través de múltiples dispositivos móviles, aprovechando sus capacidades colectivas para realizar tareas complejas de manera eficiente.

El Desafío

Implementar LLMs como GPT-3 o BLOOM en dispositivos móviles es un desafío debido a:

  • Restricciones de Memoria: Los LLMs requieren una memoria considerable, a menudo superando la capacidad de los dispositivos móviles individuales.
  • Limitaciones Computacionales: Los dispositivos móviles suelen tener un poder de procesamiento limitado, lo que dificulta ejecutar modelos grandes.
  • Preocupaciones de Privacidad: Enviar datos a servidores centralizados para su procesamiento plantea problemas de privacidad.

La Solución de LinguaLinked

LinguaLinked aborda estos desafíos con tres estrategias clave:

  1. Asignación Optimizada de Modelos:

    • El sistema segmenta los LLMs en subgrafos más pequeños utilizando optimización lineal para emparejar cada segmento con las capacidades de un dispositivo.
    • Esto asegura un uso eficiente de los recursos y minimiza la transmisión de datos entre dispositivos.
  2. Balanceo de Carga en Tiempo de Ejecución:

    • LinguaLinked monitorea activamente el rendimiento de los dispositivos y redistribuye tareas para prevenir cuellos de botella.
    • Este enfoque dinámico asegura un uso eficiente de todos los recursos disponibles, mejorando la capacidad de respuesta del sistema en general.
  3. Comunicación Optimizada:

    • Mapas de transmisión de datos eficientes guían el flujo de información entre dispositivos, manteniendo la integridad estructural del modelo.
    • Este método reduce la latencia y asegura un procesamiento de datos oportuno a través de la red de dispositivos móviles.

Un único modelo de lenguaje de gran escala (LLM) se divide en diferentes partes (o segmentos) y se distribuye a través de múltiples dispositivos móviles. Este enfoque permite que cada dispositivo maneje solo una fracción de los requisitos totales de computación y almacenamiento, haciendo factible ejecutar modelos complejos incluso en dispositivos con recursos limitados. Aquí hay un desglose de cómo funciona esto:

Segmentación y Distribución del Modelo

  1. Segmentación del Modelo:
    • El modelo de lenguaje de gran escala se transforma en un grafo computacional donde cada operación dentro de la red se representa como un nodo.
    • Este grafo se divide en subgrafos más pequeños, cada uno capaz de funcionar de manera independiente.
  2. Asignación Optimizada del Modelo:
    • Utilizando optimización lineal, estos subgrafos (o segmentos del modelo) se asignan a diferentes dispositivos móviles.
    • La asignación considera las capacidades computacionales y de memoria de cada dispositivo, asegurando un uso eficiente de los recursos y minimizando la sobrecarga de transmisión de datos entre dispositivos.
  3. Ejecución Colaborativa de Inferencia:
    • Cada dispositivo móvil procesa su segmento asignado del modelo.
    • Los dispositivos se comunican entre sí para intercambiar resultados intermedios según sea necesario, asegurando que la tarea de inferencia general se complete correctamente.
    • Se emplean estrategias de comunicación optimizadas para mantener la integridad de la estructura original del modelo y asegurar un flujo de datos eficiente.

Escenario de Ejemplo

Imagina un modelo de lenguaje de gran escala como GPT-3 dividido en varias partes. Un dispositivo móvil podría manejar las incrustaciones de tokens iniciales y las primeras capas del modelo, mientras que otro dispositivo procesa las capas intermedias y un tercer dispositivo completa las capas finales y genera la salida. A lo largo de este proceso, los dispositivos comparten salidas intermedias para asegurar que la inferencia completa del modelo se ejecute sin problemas.

Rendimiento y Resultados

La eficacia de LinguaLinked se demuestra a través de pruebas extensivas en varios dispositivos Android, tanto de gama alta como baja. Los hallazgos clave incluyen:

  • Velocidad de Inferencia: En comparación con una línea base, LinguaLinked acelera el rendimiento de inferencia de 1.11× a 1.61× en configuraciones de un solo hilo y de 1.73× a 2.65× con multihilo.
  • Balanceo de Carga: El balanceo de carga en tiempo de ejecución del sistema mejora aún más el rendimiento, con una aceleración general de 1.29× a 1.32×.
  • Escalabilidad: Los modelos más grandes se benefician significativamente de la asignación optimizada de modelos de LinguaLinked, mostrando su escalabilidad y efectividad en el manejo de tareas complejas.

Casos de Uso y Aplicaciones

LinguaLinked es particularmente adecuado para escenarios donde la privacidad y la eficiencia son primordiales. Las aplicaciones incluyen:

  • Generación y Resumen de Texto: Generar texto coherente y contextualmente relevante localmente en dispositivos móviles.
  • Análisis de Sentimientos: Clasificar datos de texto de manera eficiente sin comprometer la privacidad del usuario.
  • Traducción en Tiempo Real: Proporcionar traducciones rápidas y precisas directamente en el dispositivo.

Direcciones Futuras

LinguaLinked allana el camino para futuros avances en IA móvil:

  • Eficiencia Energética: Las iteraciones futuras se centrarán en optimizar el consumo de energía para prevenir el agotamiento de la batería y el sobrecalentamiento durante tareas intensivas.
  • Privacidad Mejorada: Las mejoras continuas en el procesamiento descentralizado asegurarán una mayor privacidad de los datos.
  • Modelos Multimodales: Expansión de LinguaLinked para admitir modelos multimodales para diversas aplicaciones del mundo real.

Conclusión

LinguaLinked representa un avance significativo en la implementación de LLMs en dispositivos móviles. Al distribuir la carga computacional y optimizar el uso de recursos, hace que la IA avanzada sea accesible y eficiente en una amplia gama de dispositivos. Esta innovación no solo mejora el rendimiento, sino que también asegura la privacidad de los datos, sentando las bases para aplicaciones de IA móvil más personalizadas y seguras.

Entendiendo el Protocolo de Prueba de Inferencia

· 4 min de lectura
Lark Birdy
Chief Bird Officer

El auge de los modelos de lenguaje grande (LLMs) y la computación descentralizada ha introducido desafíos significativos, especialmente en cuanto a la verificación e integridad de los cálculos de IA en sistemas distribuidos. El Protocolo de Prueba de Inferencia 6079 (PoIP) aborda estos desafíos estableciendo un marco robusto para la inferencia de IA descentralizada, asegurando cálculos confiables y seguros.

El Desafío: Seguridad en la Inferencia de IA Descentralizada

La inferencia de IA descentralizada enfrenta el problema único de asegurar la integridad y corrección de los cálculos realizados en una red de nodos distribuidos. Los métodos tradicionales de verificación no son suficientes debido a la naturaleza no determinista de muchos modelos de IA. Sin un protocolo robusto, es difícil garantizar que el hardware distribuido devuelva resultados de inferencia precisos.

Introducción al Protocolo de Prueba de Inferencia (PoIP)

El Protocolo de Prueba de Inferencia 6079 (PoIP) proporciona una solución innovadora para asegurar la inferencia de IA descentralizada. Utiliza una combinación de mecanismos de seguridad criptoeconómicos, pruebas criptográficas y enfoques de teoría de juegos para incentivar el comportamiento correcto y penalizar la actividad maliciosa dentro de la red.

Componentes Principales de PoIP

Estándar del Motor de Inferencia

El Estándar del Motor de Inferencia establece los patrones y estándares de cómputo para ejecutar tareas de inferencia de IA en redes descentralizadas. Esta estandarización asegura un rendimiento consistente y confiable de los modelos de IA en hardware distribuido.

Protocolo de Prueba de Inferencia

El protocolo opera a través de múltiples capas:

  1. Capa de Servicio: Ejecuta la inferencia de modelos en hardware físico.
  2. Capa de Control: Gestiona los puntos finales de API, coordina el balanceo de carga y maneja diagnósticos.
  3. Capa de Transacción: Utiliza una tabla hash distribuida (DHT) para rastrear los metadatos de las transacciones.
  4. Capa de Prueba Probabilística: Valida las transacciones mediante mecanismos criptográficos y económicos.
  5. Capa Económica: Maneja el pago, staking, slashing, seguridad, gobernanza y financiamiento público.

Asegurando la Integridad y Seguridad

PoIP emplea varios mecanismos para asegurar la integridad de los cálculos de inferencia de IA:

  • Validación de Árbol de Merkle: Asegura que los datos de entrada lleguen a las GPUs sin alteraciones.
  • Tabla Hash Distribuida (DHT): Sincroniza los datos de transacción entre nodos para detectar discrepancias.
  • Pruebas Diagnósticas: Evalúan las capacidades del hardware y aseguran el cumplimiento con los estándares de la red.

Incentivos Económicos y Teoría de Juegos

El protocolo utiliza incentivos económicos para fomentar el comportamiento deseable entre los nodos:

  • Staking: Los nodos apuestan tokens para demostrar compromiso y aumentar su credibilidad.
  • Construcción de Reputación: Las tareas exitosas mejoran la reputación de un nodo, haciéndolo más atractivo para futuras tareas.
  • Mecanismos de Juego Competitivo: Los nodos compiten para proporcionar el mejor servicio, asegurando una mejora continua y adherencia a los estándares.

Preguntas Frecuentes

¿Qué es el Protocolo de Prueba de Inferencia?

El Protocolo de Prueba de Inferencia (PoIP) es un sistema diseñado para asegurar y verificar los cálculos de inferencia de IA en redes descentralizadas. Asegura que los nodos de hardware distribuidos devuelvan resultados precisos y confiables.

¿Cómo asegura PoIP la integridad de los cálculos de IA?

PoIP utiliza mecanismos como la validación de árbol de Merkle, tablas hash distribuidas (DHT) y pruebas diagnósticas para verificar la integridad de los cálculos de IA. Estas herramientas ayudan a detectar discrepancias y asegurar la corrección de los datos procesados en la red.

¿Qué papel juegan los incentivos económicos en PoIP?

Los incentivos económicos en PoIP fomentan el comportamiento deseable entre los nodos. Los nodos apuestan tokens para demostrar compromiso, construyen reputación a través de tareas exitosas y compiten para proporcionar el mejor servicio. Este sistema asegura una mejora continua y adherencia a los estándares de la red.

¿Cuáles son las principales capas de PoIP?

PoIP opera a través de cinco capas principales: Capa de Servicio, Capa de Control, Capa de Transacción, Capa de Prueba Probabilística y Capa Económica. Cada capa juega un papel crucial en asegurar la seguridad, integridad y eficiencia de la inferencia de IA en redes descentralizadas.

Conclusión

El Protocolo de Prueba de Inferencia 6079 representa un avance interesante en el campo de la IA descentralizada. Al asegurar la seguridad y confiabilidad de los cálculos de IA en redes distribuidas, PoIP indica un nuevo camino para una adopción más amplia e innovación en aplicaciones de IA descentralizadas. A medida que avanzamos hacia un futuro más descentralizado, protocolos como PoIP serán útiles para mantener la confianza e integridad en los sistemas impulsados por IA.

Protocolo de Prueba de Muestreo: Incentivando la Honestidad y Penalizando la Deshonestidad en la Inferencia de IA Descentralizada

· 6 min de lectura
Lark Birdy
Chief Bird Officer

En la IA descentralizada, asegurar la integridad y confiabilidad de los proveedores de GPU es crucial. El protocolo de Prueba de Muestreo (PoSP), como se describe en la reciente investigación de Holistic AI, proporciona un mecanismo sofisticado para incentivar a los buenos actores mientras penaliza a los malos. Veamos cómo funciona este protocolo, sus incentivos económicos, penalizaciones y su aplicación a la inferencia de IA descentralizada.

Incentivos para el Comportamiento Honesto

Recompensas Económicas

En el corazón del protocolo PoSP están los incentivos económicos diseñados para fomentar la participación honesta. Los nodos, actuando como afirmadores y validadores, son recompensados según sus contribuciones:

  • Afirmadores: Reciben una recompensa (RA) si su resultado computado es correcto y no es impugnado.
  • Validadores: Comparten la recompensa (RV/n) si sus resultados coinciden con los del afirmador y son verificados como correctos.

Equilibrio de Nash Único

El protocolo PoSP está diseñado para alcanzar un equilibrio de Nash único en estrategias puras, donde todos los nodos están motivados para actuar honestamente. Al alinear el beneficio individual con la seguridad del sistema, el protocolo asegura que la honestidad sea la estrategia más rentable para los participantes.

Penalizaciones por Comportamiento Deshonesto

Mecanismo de Penalización

Para disuadir el comportamiento deshonesto, el protocolo PoSP emplea un mecanismo de penalización. Si un afirmador o validador es sorprendido siendo deshonesto, enfrentan penalizaciones económicas significativas (S). Esto asegura que el costo de la deshonestidad supere con creces cualquier ganancia a corto plazo.

Mecanismo de Desafío

Los desafíos aleatorios aseguran aún más el sistema. Con una probabilidad predeterminada (p), el protocolo activa un desafío donde múltiples validadores vuelven a calcular el resultado del afirmador. Si se encuentran discrepancias, los actores deshonestos son penalizados. Este proceso de selección aleatoria dificulta que los malos actores se coludan y engañen sin ser detectados.

Pasos del Protocolo PoSP

  1. Selección de Afirmador: Se selecciona aleatoriamente un nodo para actuar como afirmador, computando y generando un valor.

  2. Probabilidad de Desafío:

    El sistema puede activar un desafío basado en una probabilidad predeterminada.

    • Sin Desafío: El afirmador es recompensado si no se activa un desafío.
    • Desafío Activado: Se selecciona aleatoriamente un número determinado (n) de validadores para verificar el resultado del afirmador.
  3. Validación:

    Cada validador calcula independientemente el resultado y lo compara con el resultado del afirmador.

    • Coincidencia: Si todos los resultados coinciden, tanto el afirmador como los validadores son recompensados.
    • Desajuste: Un proceso de arbitraje determina la honestidad del afirmador y los validadores.
  4. Penalizaciones: Los nodos deshonestos son penalizados, mientras que los validadores honestos reciben su parte de la recompensa.

spML

El protocolo spML (aprendizaje automático basado en muestreo) es una implementación del protocolo de Prueba de Muestreo (PoSP) dentro de una red de inferencia de IA descentralizada.

Pasos Clave

  1. Entrada del Usuario: El usuario envía su entrada a un servidor seleccionado aleatoriamente (afirmador) junto con su firma digital.
  2. Salida del Servidor: El servidor calcula el resultado y lo envía de vuelta al usuario junto con un hash del resultado.
  3. Mecanismo de Desafío:
    • Con una probabilidad predeterminada (p), el sistema activa un desafío donde otro servidor (validador) es seleccionado aleatoriamente para verificar el resultado.
    • Si no se activa un desafío, el afirmador recibe una recompensa (R) y el proceso concluye.
  4. Verificación:
    • Si se activa un desafío, el usuario envía la misma entrada al validador.
    • El validador calcula el resultado y lo envía de vuelta al usuario junto con un hash.
  5. Comparación:
    • El usuario compara los hashes de las salidas del afirmador y del validador.
    • Si los hashes coinciden, tanto el afirmador como el validador son recompensados, y el usuario recibe un descuento en la tarifa base.
    • Si los hashes no coinciden, el usuario transmite ambos hashes a la red.
  6. Arbitraje:
    • La red vota para determinar la honestidad del afirmador y el validador basándose en las discrepancias.
    • Los nodos honestos son recompensados, mientras que los deshonestos son penalizados (penalizados).

Componentes y Mecanismos Clave

  • Ejecución Determinista de ML: Utiliza aritmética de punto fijo y bibliotecas de punto flotante basadas en software para asegurar resultados consistentes y reproducibles.
  • Diseño Sin Estado: Trata cada consulta como independiente, manteniendo la ausencia de estado durante el proceso de ML.
  • Participación Sin Permiso: Permite que cualquiera se una a la red y contribuya ejecutando un servidor de IA.
  • Operaciones Fuera de Cadena: Las inferencias de IA se calculan fuera de la cadena para reducir la carga en la blockchain, con resultados y firmas digitales transmitidos directamente a los usuarios.
  • Operaciones en Cadena: Funciones críticas, como cálculos de saldo y mecanismos de desafío, se manejan en cadena para asegurar transparencia y seguridad.

Ventajas de spML

  • Alta Seguridad: Logra seguridad a través de incentivos económicos, asegurando que los nodos actúen honestamente debido a las posibles penalizaciones por deshonestidad.
  • Bajo Sobrecarga Computacional: Los validadores solo necesitan comparar hashes en la mayoría de los casos, reduciendo la carga computacional durante la verificación.
  • Escalabilidad: Puede manejar una actividad de red extensa sin una degradación significativa del rendimiento.
  • Simplicidad: Mantiene la simplicidad en la implementación, mejorando la facilidad de integración y mantenimiento.

Comparación con Otros Protocolos

  • Prueba de Fraude Optimista (opML):
    • Se basa en desincentivos económicos para el comportamiento fraudulento y un mecanismo de resolución de disputas.
    • Vulnerable a la actividad fraudulenta si no hay suficientes validadores honestos.
  • Prueba de Conocimiento Cero (zkML):
    • Asegura alta seguridad a través de pruebas criptográficas.
    • Enfrenta desafíos en escalabilidad y eficiencia debido a la alta sobrecarga computacional.
  • spML:
    • Combina alta seguridad a través de incentivos económicos, baja sobrecarga computacional y alta escalabilidad.
    • Simplifica el proceso de verificación al centrarse en comparaciones de hashes, reduciendo la necesidad de cálculos complejos durante los desafíos.

Resumen

El protocolo de Prueba de Muestreo (PoSP) equilibra efectivamente la necesidad de incentivar a los buenos actores y disuadir a los malos, asegurando la seguridad y confiabilidad general de los sistemas descentralizados. Al combinar recompensas económicas con penalizaciones estrictas, PoSP fomenta un entorno donde el comportamiento honesto no solo es alentado sino necesario para el éxito. A medida que la IA descentralizada continúa creciendo, protocolos como PoSP serán esenciales para mantener la integridad y confiabilidad de estos sistemas avanzados.

Introducción a la Arquitectura de Arbitrum Nitro

· 4 min de lectura
Lark Birdy
Chief Bird Officer

Arbitrum Nitro, desarrollado por Offchain Labs, es un protocolo blockchain de segunda generación de Capa 2 diseñado para mejorar el rendimiento, la finalización y la resolución de disputas. Se basa en el protocolo original de Arbitrum, aportando mejoras significativas que satisfacen las necesidades modernas de blockchain.

Propiedades Clave de Arbitrum Nitro

Arbitrum Nitro opera como una solución de Capa 2 sobre Ethereum, apoyando la ejecución de contratos inteligentes utilizando el código de la Máquina Virtual de Ethereum (EVM). Esto asegura la compatibilidad con las aplicaciones y herramientas existentes de Ethereum. El protocolo garantiza tanto la seguridad como el progreso, suponiendo que la cadena subyacente de Ethereum permanezca segura y activa, y al menos un participante en el protocolo Nitro actúe honestamente.

Enfoque de Diseño

La arquitectura de Nitro se basa en cuatro principios fundamentales:

  • Secuenciación seguida de Ejecución Determinista: Las transacciones se secuencian primero y luego se procesan de manera determinista. Este enfoque de dos fases asegura un entorno de ejecución consistente y confiable.
  • Geth en el Núcleo: Nitro utiliza el paquete go-ethereum (geth) para la ejecución central y el mantenimiento del estado, asegurando una alta compatibilidad con Ethereum.
  • Separación de Ejecución y Prueba: La función de transición de estado se compila tanto para la ejecución nativa como para el ensamblado web (wasm) para facilitar una ejecución eficiente y una prueba estructurada e independiente de la máquina.
  • Rollup Optimista con Pruebas de Fraude Interactivas: Basándose en el diseño original de Arbitrum, Nitro emplea un protocolo de rollup optimista mejorado con un sofisticado mecanismo de prueba de fraude.

Secuenciación y Ejecución

El procesamiento de transacciones en Nitro involucra dos componentes clave: el Secuenciador y la Función de Transición de Estado (STF).

Arquitectura de Arbitrum Nitro

  • El Secuenciador: Ordena las transacciones entrantes y se compromete con este orden. Asegura que la secuencia de transacciones sea conocida y confiable, publicándola tanto como un feed en tiempo real como en lotes de datos comprimidos en la cadena de Capa 1 de Ethereum. Este enfoque dual mejora la confiabilidad y previene la censura.
  • Ejecución Determinista: La STF procesa las transacciones secuenciadas, actualizando el estado de la cadena y produciendo nuevos bloques. Este proceso es determinista, lo que significa que el resultado depende solo de los datos de la transacción y del estado anterior, asegurando la consistencia en toda la red.

Arquitectura de Software: Geth en el Núcleo

Arquitectura de Arbitrum Nitro, en Capas

La arquitectura de software de Nitro está estructurada en tres capas:

  • Capa Base (Núcleo de Geth): Esta capa maneja la ejecución de contratos EVM y mantiene las estructuras de datos del estado de Ethereum.
  • Capa Media (ArbOS): Software personalizado que proporciona funcionalidad de Capa 2, incluyendo la descompresión de lotes del secuenciador, la gestión de costos de gas y el soporte de funcionalidades entre cadenas.
  • Capa Superior: Derivada de geth, esta capa maneja conexiones, solicitudes RPC entrantes y otras funciones de nodo de alto nivel.

Interacción entre Cadenas

Arbitrum Nitro admite interacciones seguras entre cadenas a través de mecanismos como el Outbox, Inbox y Boletos Reintentables.

  • El Outbox: Permite llamadas de contrato de Capa 2 a Capa 1, asegurando que los mensajes se transfieran y ejecuten de manera segura en Ethereum.
  • El Inbox: Gestiona las transacciones enviadas a Nitro desde Ethereum, asegurando que se incluyan en el orden correcto.
  • Boletos Reintentables: Permiten la reenvío de transacciones fallidas, asegurando la fiabilidad y reduciendo el riesgo de transacciones perdidas.

Gas y Tarifas

Nitro emplea un sofisticado mecanismo de medición y fijación de precios de gas para gestionar los costos de transacción:

  • Medición y Fijación de Precios de Gas L2: Rastrea el uso de gas y ajusta la tarifa base algorítmicamente para equilibrar la demanda y la capacidad.
  • Medición y Fijación de Precios de Datos L1: Asegura que los costos asociados con las interacciones de Capa 1 estén cubiertos, utilizando un algoritmo de precios adaptativo para repartir estos costos con precisión entre las transacciones.

Conclusión

Cuckoo Network confía en invertir en el desarrollo de Arbitrum. Las avanzadas soluciones de Capa 2 de Arbitrum Nitro ofrecen una escalabilidad inigualable, una finalización más rápida y una resolución de disputas eficiente. Su compatibilidad con Ethereum asegura un entorno seguro y eficiente para nuestras aplicaciones descentralizadas, alineándose con nuestro compromiso con la innovación y el rendimiento.

Descentralizando la IA: Una Visión General

· 16 min de lectura
Dora Noda
Software Engineer

La combinación de blockchain e IA está ganando una atención significativa en el mercado. Con ChatGPT acumulando rápidamente cientos de millones de usuarios y las acciones de Nvidia aumentando ocho veces en 2023, la IA se ha consolidado firmemente como una tendencia dominante. Esta influencia se está extendiendo a sectores adyacentes como el blockchain, donde se están explorando aplicaciones de IA.

Descentralizando la IA: Una Visión General

Actualmente, las criptomonedas juegan un papel complementario en la IA, ofreciendo un potencial significativo de crecimiento. La mayoría de las organizaciones aún están en la fase exploratoria, centrándose en la tokenización de la potencia de cálculo (nube y mercado), modelos (agentes de IA) y almacenamiento de datos.

La tecnología cripto descentralizada no mejora directamente la eficiencia ni reduce los costos en el entrenamiento de IA, pero facilita el comercio de activos, atrayendo potencia de cálculo previamente no utilizada. Esto es rentable en el entorno actual de escasez de computación. La tokenización de modelos permite la propiedad o uso comunitario descentralizado, reduciendo barreras y ofreciendo una alternativa a la IA centralizada. Sin embargo, los datos descentralizados siguen siendo un desafío para tokenizar, requiriendo más exploración.

Aunque el mercado no ha alcanzado un consenso sobre la IA y las criptomonedas, el ecosistema se está configurando. Aquí hay algunas categorías que revisaremos hoy: Infraestructura como Servicio en la Nube, mercados de computación, tokenización y entrenamiento de modelos, agentes de IA, tokenización de datos, ZKML y aplicaciones de IA.

Infraestructura como Servicio en la Nube

A medida que el mercado de la IA crece, los proyectos de computación en la nube con GPU y los mercados son de los primeros en beneficiarse. Buscan incorporar recursos de GPU no utilizados en redes centralizadas, reduciendo los costos de computación en comparación con los servicios tradicionales.

Estos servicios en la nube no se consideran soluciones descentralizadas, pero son partes integrales del ecosistema web3 + IA. La idea es que las GPUs son recursos escasos y tienen un valor intrínseco.

Proyectos Clave:

  • Akash Network: Mercado de computación en la nube descentralizado basado en Cosmos SDK, utilizando Kubernetes para la orquestación y precios de subasta inversa para la reducción de costos. Se centra en la computación con CPU y GPU.
  • Ritual: Red de infraestructura de IA que integra modelos de IA en protocolos blockchain. Su plataforma Infernet permite a los contratos inteligentes acceder directamente a los modelos.
  • Render Network: Plataforma de renderizado de GPU descentralizada centrada tanto en el renderizado como en la computación de IA. Se trasladó a Solana para mejorar el rendimiento y el costo.
  • NetMind.AI: Ecosistema de IA que proporciona un mercado para recursos de computación, chatbot y servicios de asistente de vida. Soporta una amplia gama de modelos de GPU e integra Google Colab.
  • CUDOS: Red de computación blockchain similar a Akash, centrada en la computación con GPU a través de Cosmos SDK.
  • Nuco.cloud: Servicio de computación en la nube descentralizado basado en Ethereum y Telos, que ofrece una gama de soluciones.
  • Dynex: Blockchain para computación neuromórfica, utilizando Prueba de Trabajo Útil para la eficiencia.
  • OctaSpace: Nube de computación descentralizada, operando en su propia blockchain para IA y procesamiento de imágenes.
  • AIOZ Network: Plataforma de computación descentralizada de capa 1 para IA, almacenamiento y streaming.
  • Phoenix: Infraestructura blockchain web3 para computación de IA y redes impulsadas por datos.
  • Aethir: Infraestructura en la nube para juegos e IA, basada en Arbitrum.
  • Iagon: Mercado de almacenamiento y computación descentralizado en Cardano.
  • OpFlow: Plataforma en la nube centrada en IA y renderizado, utilizando GPUs NVIDIA.
  • OpSec: Plataforma emergente de nube descentralizada que busca construir la supercomputadora de próxima generación.

Mercados de recursos de computación

Los mercados descentralizados de recursos de computación utilizan recursos de GPU y CPU proporcionados por los usuarios para tareas de IA, entrenamiento e inferencia. Estos mercados movilizan la potencia de cálculo no utilizada, recompensando a los participantes mientras reducen las barreras de entrada.

Estos mercados de computación con GPU a menudo se centran en la narrativa de la descentralización en lugar de la utilidad del servicio. Proyectos como io.net y Nosana, que aprovechan la tecnología blockchain de Solana y los conceptos DePin, muestran un gran potencial de crecimiento. Invertir temprano en mercados de GPU durante las fases de alta demanda puede ofrecer altos rendimientos a través de incentivos y ROI.

Proyectos Clave:

  • Cuckoo AI: Un mercado descentralizado que recompensa a los mineros de GPU que sirven modelos de IA con pagos diarios en ERC20. Utiliza contratos inteligentes en blockchain y se centra en la transparencia, privacidad y modularidad.
  • Clore.ai: Una plataforma de alquiler de GPU que utiliza Prueba de Trabajo. Los usuarios pueden alquilar GPUs para entrenamiento de IA, renderizado y tareas de minería. Las recompensas están vinculadas a la cantidad de su token mantenido.
  • Nosana: Un proveedor de computación en la nube con GPU de código abierto basado en Solana. Se centra en la inferencia de IA y está desarrollando conectores para PyTorch, HuggingFace, TensorFlow y bibliotecas comunitarias.
  • io.net: Una red de computación en la nube de IA que aprovecha la tecnología blockchain de Solana. Ofrece recursos de GPU rentables, apoyando la inferencia por lotes y el entrenamiento paralelo.
  • Gensyn: Un protocolo L1 para el entrenamiento de modelos de aprendizaje profundo. Busca mejorar la eficiencia del entrenamiento a través de un sistema distribuido sin confianza. Se centra en reducir los costos de entrenamiento y aumentar la accesibilidad.
  • Nimble: Un ecosistema de IA descentralizado que combina datos, potencia de cálculo y desarrolladores. Busca hacer que el entrenamiento de IA sea más accesible y tiene un marco descentralizado y componible.
  • Morpheus AI: Un mercado de computación descentralizado construido sobre Arbitrum. Ayuda a los usuarios a crear agentes de IA para interactuar con contratos inteligentes.
  • Kuzco: Un clúster de GPU distribuido para inferencia de LLM en Solana. Ofrece alojamiento eficiente de modelos locales y recompensa a los contribuyentes con puntos KZO.
  • Golem: Un mercado de computación con CPU basado en Ethereum que se ha expandido a GPUs. Una de las primeras redes de computación peer-to-peer.
  • Node AI: Un mercado de nubes de GPU que ofrece alquileres de GPU asequibles a través de EyePerformance.
  • GPU.Net: Una red de GPU descentralizada que proporciona infraestructura para IA generativa, Web3 y renderizado gráfico de alta gama.
  • GamerHash: Una plataforma que utiliza la potencia de cálculo sobrante de los jugadores para la minería de criptomonedas mientras introduce un modelo de juego para ganar para dispositivos de gama baja.
  • NodeSynapse: Un mercado de GPU que ofrece infraestructura Web3, computación con GPU, alojamiento de servidores y un modelo único de reparto de ingresos para los poseedores de tokens.

Tokenización y entrenamiento de modelos

La tokenización y el entrenamiento de modelos implican convertir modelos de IA en activos valiosos e integrarlos en redes blockchain. Este enfoque permite la propiedad descentralizada, el intercambio de datos y la toma de decisiones. Promete mejorar la transparencia, la seguridad y las oportunidades de monetización mientras crea nuevos canales de inversión.

El factor crucial es reconocer proyectos con verdadera innovación y desafíos técnicos. Simplemente comerciar con la propiedad o los derechos de uso de modelos de IA no es verdadera innovación. Los avances reales provienen de verificar efectivamente las salidas de los modelos y garantizar la operación segura y descentralizada de los modelos.

Proyectos Clave:

  • SaharaLabs: Se centra en la privacidad y el intercambio de datos con herramientas como Knowledge Agent y Data Marketplace, ayudando a asegurar las operaciones de datos y atrayendo clientes como MIT y Microsoft.
  • Bittensor: Construye un protocolo descentralizado para que los modelos de IA intercambien valor. Utiliza validadores y mineros para clasificar respuestas y mejorar la calidad general de las aplicaciones impulsadas por IA.
  • iExec RLC: Una plataforma de computación en la nube descentralizada que asegura la seguridad de los recursos a través del consenso de Prueba de Contribución mientras gestiona tareas computacionales a corto plazo.
  • Allora: Recompensa a los agentes de IA por predicciones precisas del mercado, utilizando mecanismos de consenso para validar las previsiones de los agentes en una red descentralizada.
  • lPAAL AI: Proporciona una plataforma para crear modelos de IA personalizados que pueden manejar inteligencia de mercado, estrategias de trading y otras tareas profesionales.
  • MyShell: Ofrece una plataforma de IA flexible para el desarrollo de chatbots e integración de modelos de terceros, incentivando a los desarrolladores a través de tokens nativos.
  • Qubic: Aprovecha el consenso de prueba de trabajo para el entrenamiento de IA, con la capa de software Aigarth facilitando la creación de redes neuronales.

Agente de IA

Los agentes de IA, o agentes inteligentes, son entidades capaces de comprensión autónoma, memoria, toma de decisiones, uso de herramientas y realización de tareas complejas. Estos agentes no solo guían a los usuarios sobre "cómo" realizar tareas, sino que también ayudan activamente a completarlas. Específicamente, esto se refiere a agentes de IA que interactúan con la tecnología blockchain para actividades como trading, ofreciendo asesoramiento de inversión, operando bots, mejorando las funcionalidades de finanzas descentralizadas (DeFi) y realizando análisis de datos en cadena.

Tales agentes de IA están estrechamente integrados con la tecnología blockchain, lo que les permite generar ingresos directamente, introducir nuevos escenarios de trading y mejorar la experiencia del usuario en blockchain. Esta integración representa una narrativa avanzada en DeFi, creando beneficios a través de actividades de trading, atrayendo inversión de capital y fomentando el entusiasmo, lo que a su vez impulsa un ciclo de inversión similar a un esquema Ponzi.

Proyectos Clave:

  • Morpheus: Un mercado de computación de IA descentralizado construido sobre Arbitrum que permite la creación de agentes de IA que operan contratos inteligentes. El proyecto está liderado por David Johnston, quien tiene experiencia en inversión y liderazgo ejecutivo. Morpheus se centra en el compromiso comunitario con un lanzamiento justo, código de staking auditado en seguridad y desarrollo activo, aunque las actualizaciones en los códigos de agentes de IA son lentas y el progreso de los módulos centrales no está claro.
  • QnA3.AI: Proporciona servicios integrales para la gestión de información, gestión de activos y gestión de derechos a lo largo de su ciclo de vida. Utilizando la tecnología de Generación Aumentada por Recuperación (RAG), QnA3 mejora la recuperación y generación de información. El proyecto ha crecido rápidamente desde su creación en 2023, con aumentos significativos en el compromiso de los usuarios y la aplicación.
  • Autonolas: Un mercado abierto para crear y usar agentes de IA descentralizados, ofreciendo herramientas para que los desarrolladores construyan agentes de IA capaces de conectarse a múltiples blockchains. Liderado por David Minarsch, un economista educado en Cambridge especializado en servicios de múltiples agentes.
  • SingularityNET: Una red de servicios de IA abierta y descentralizada que busca democratizar y descentralizar la IA de propósito general. La red permite a los desarrolladores monetizar sus servicios de IA utilizando el token nativo AGIX y fue fundada por el Dr. Ben Goertzel y el Dr. David Hanson, conocidos por su trabajo en el robot humanoide Sophia.
  • Fetch.AI: Uno de los primeros protocolos de agentes de IA, que ha desarrollado un ecosistema para desplegar agentes utilizando el token FET. El equipo está compuesto por expertos de universidades prestigiosas y empresas de primer nivel, centrándose en soluciones de IA y algorítmicas.
  • Humans.ai: Una plataforma de blockchain de IA que reúne a las partes interesadas involucradas en la creación impulsada por IA dentro de un conjunto de estudio creativo, permitiendo a las personas crear y poseer sus semejanzas digitales para la creación de activos digitales.
  • Metatrust: Una red de agentes de IA habilitada para criptomonedas que ofrece una solución integral de seguridad Web3 que cubre todo el ciclo de vida del desarrollo de software, fundada por un equipo de investigación reconocido a nivel mundial de la Universidad Tecnológica de Nanyang.
  • AgentLayer: Desarrollado por el equipo de Metatrust, esta red de agentes descentralizada utiliza OP Stack y EigenDA para mejorar la eficiencia de los datos y el rendimiento y seguridad general.
  • DAIN: Construyendo una economía de agente a agente en Solana, centrándose en habilitar interacciones fluidas entre agentes de diferentes empresas a través de una API universal, enfatizando la integración con productos tanto web2 como web3.
  • ChainGPT: Un modelo de IA diseñado para blockchain y criptomonedas, que presenta productos como un generador de NFT de IA, generador de noticias impulsado por IA, asistente de trading, generador de contratos inteligentes y auditor. ChainGPT ganó el Premio Catalizador del Ecosistema BNB en septiembre de 2023.

Tokenización de datos

La intersección de la IA y la criptografía en el sector de datos tiene un potencial significativo, ya que los datos y la potencia de cálculo son recursos fundamentales para la IA. Si bien la computación descentralizada a veces puede reducir la eficiencia, descentralizar los datos es razonable porque la producción de datos es inherentemente descentralizada. Por lo tanto, la combinación de IA y blockchain en el sector de datos ofrece un potencial de crecimiento sustancial.

Un desafío importante en este campo es la falta de un mercado de datos maduro, lo que dificulta la valoración efectiva y la estandarización de los datos. Sin un mecanismo de valoración confiable, los proyectos luchan por atraer capital a través de incentivos de tokens, lo que podría romper el "efecto volante" incluso para proyectos de alto potencial.

Proyectos Clave:

  • Synesis One: Una plataforma de crowdsourcing en Solana donde los usuarios ganan tokens completando microtareas para el entrenamiento de IA. Colaborando con Mind AI, la plataforma admite varios tipos de datos y automatización de procesos robóticos. Mind AI tiene acuerdos con GM y el gobierno de la India, recaudando $9.5 millones en fondos.
  • Grass.io: Un mercado de ancho de banda descentralizado que permite a los usuarios vender ancho de banda sobrante a empresas de IA. Con más de 2 millones de direcciones IP, solo los usuarios activos ganan recompensas. Han recaudado $3.5 millones en financiación inicial liderada por Polychain y Tribe Capital.
  • GagaNode: Un mercado de ancho de banda descentralizado de próxima generación que aborda la escasez de IPv4 utilizando tecnología Web 3.0. Es compatible con múltiples plataformas, incluidos dispositivos móviles, y el código es de código abierto.
  • Ocean Protocol: Permite a los usuarios tokenizar y comerciar sus datos en Ocean Market, creando NFTs de datos y tokens de datos. El fundador Bruce Pon, anteriormente con Mercedes-Benz, es conferencista sobre tecnologías blockchain y de descentralización, apoyado por un equipo asesor global.

Aplicación de IA

La combinación de capacidades de IA con negocios de criptomonedas actuales abre nuevas vías para mejorar la eficiencia y funcionalidad en varios sectores como DeFi, juegos, NFT, educación y gestión de sistemas.

DeFi

  • inSure DeFi: Un protocolo de seguros descentralizado donde los usuarios compran tokens SURE para asegurar sus activos criptográficos. Aprovecha Chainlink para precios dinámicos.
  • Hera Finance: Un agregador DEX de cadena cruzada impulsado por IA integrado con múltiples cadenas, como Ethereum, BNB y Arbitrum.
  • SingularityDAO: Un protocolo DeFi impulsado por IA que ofrece gestión de inversiones. En asociación con SingularityNET, aseguraron $25M para escalar sus herramientas y ecosistema de IA.
  • Arc: Ofrece un ecosistema DeFi impulsado por IA a través de Reactor y DApp. Adquirió Lychee AI, se unió al Programa de Startups de IA de Google Cloud y lanzó ARC Swaps impulsados por IA.
  • AQTIS: Un protocolo de liquidez respaldado por IA que busca establecer un ecosistema sostenible con $AQTIS similar al gas en Ethereum.
  • Jarvis Network: Utiliza algoritmos de IA para optimizar estrategias de trading para criptomonedas y otros activos. Su token nativo JRT circula activamente.
  • LeverFi: Un protocolo de trading apalancado que desarrolla una solución DeFi de IA con Microsoft. Aseguró $2M de DWF Labs para la gestión de inversiones en IA.
  • Mozaic: Un protocolo de auto-farming que combina conceptos de IA y tecnología LayerZero.

Juegos

  • Sleepless AI: Utiliza blockchain de IA para un juego de compañero virtual. El primer juego, HIM, presenta personajes SBT únicos en la cadena. Binance lanzó el token de Sleepless AI a través de Launchpool.
  • Phantasma: Una blockchain de capa 1 centrada en juegos que ofrece smartNFTs y codificadores de contratos inteligentes de IA.
  • Delysium: Un editor de juegos Web3 impulsado por IA con un marco de mundo abierto. Ofrecen a Lucy, un sistema operativo Web3 de IA, y permiten la creación de AI-Twins para juegos interactivos.
  • Mars4.me: Un proyecto de metaverso 3D interactivo respaldado por datos de la NASA. Aseguró financiación a largo plazo de DWF Labs.
  • GamerHash: Aprovecha la potencia de cálculo excedente durante los juegos de alta gama para la minería de criptomonedas. Su función Play&Earn proporciona tareas para computadoras de especificaciones más bajas.
  • Gaimin: Fundado por un equipo de eSports, combina computación en la nube con juegos para construir una dApp que proporciona recompensas adicionales de GPU.
  • Cerebrum Tech: Un proveedor de soluciones de IA generativa, juegos y Web3. Recientemente recaudó $1.8M para la expansión de juegos e IA.
  • Ultiverse: Una plataforma de juegos de metaverso que recaudó fondos de Binance Labs para lanzar su protocolo de metaverso abierto impulsado por IA, Bodhi.

NFT

  • NFPrompt: Una plataforma impulsada por IA donde los usuarios pueden generar arte NFT. Launchpool de Binance apoya el staking de NFP para recompensas.
  • Vertex Labs: Un proveedor de infraestructura Web3 e IA con blockchain, computación de IA y marcas Web3 como Hape Prime.

Educación

  • Hooked Protocol: Ofrece juegos educativos sociales y tiene Hooked Academy, una herramienta educativa impulsada por IA respaldada por ChatGPT.

Sistema

  • Terminus OS: Un sistema operativo Web3 basado en arquitectura cliente-borde-blockchain, diseñado para la era de la IA con prueba de inteligencia. ByteTrade aseguró $50M en financiación para su desarrollo.

Conclusión

La fusión de la IA y las criptomonedas está abriendo oportunidades innovadoras en varios sectores, desde la computación en la nube y aplicaciones de IA hasta la tokenización de datos y el aprendizaje automático de conocimiento cero. Esta combinación de tecnologías ya está mostrando su poder transformador. Con más proyectos innovadores en el horizonte, el futuro de la IA y las criptomonedas será diverso, inteligente y seguro.

Estamos ansiosos por ver nuevas colaboraciones y tecnologías de vanguardia que expandirán el alcance de la IA y blockchain a aplicaciones aún más amplias.