跳到主要内容

一篇文章 个标签为 "去中心化计算"

查看所有标签

打破 AI 上下文障碍:理解模型上下文协议

· 一分钟阅读
Lark Birdy
Chief Bird Officer

我们经常谈论更大的模型、更大的上下文窗口和更多的参数。但真正的突破可能根本不在于规模。模型上下文协议 (MCP) 代表了一种范式转变,改变了 AI 助手与周围世界互动的方式,而这一切正在发生。

MCP 架构

AI 助手的真正问题

这是每个开发者都知道的场景:你在使用 AI 助手调试代码,但它无法查看你的代码库。或者你询问市场数据,但它的知识已经过时几个月。根本的限制不是 AI 的智能,而是它无法访问真实世界。

大型语言模型 (LLM) 就像被锁在房间里的聪明学者,只有他们的训练数据陪伴。无论他们变得多聪明,他们都无法查看当前的股票价格、查看你的代码库或与工具互动。直到现在。

引入模型上下文协议 (MCP)

MCP 从根本上重新构想了 AI 助手与外部系统的互动方式。与其试图在越来越大的参数模型中塞入更多上下文,MCP 创造了一种标准化的方法,让 AI 可以根据需要动态访问信息和系统。

架构优雅而强大:

  • MCP 主机:像 Claude Desktop 这样的程序或工具,AI 模型在其中操作并与各种服务互动。主机为 AI 助手提供运行时环境和安全边界。

  • MCP 客户端:AI 助手中的组件,发起请求并处理与 MCP 服务器的通信。每个客户端维护一个专用连接,以执行特定任务或访问特定资源,管理请求-响应周期。

  • MCP 服务器:轻量级、专门化的程序,公开特定服务的能力。每个服务器都专门用于处理一种类型的集成,无论是通过 Brave 搜索网络、访问 GitHub 仓库还是查询本地数据库。这里有开源服务器

  • 本地和远程资源:MCP 服务器可以访问的底层数据源和服务。本地资源包括计算机上的文件、数据库和服务,而远程资源则包括服务器可以安全连接的外部 API 和云服务。

可以将其视为为 AI 助手提供了一个 API 驱动的感官系统。与其在训练期间尝试记住所有内容,它们现在可以查询所需的信息。

为什么这很重要:三个突破

  1. 实时智能:AI 助手不再依赖过时的训练数据,而是可以从权威来源获取当前信息。当你询问比特币的价格时,你得到的是今天的数字,而不是去年的。
  2. 系统集成:MCP 使得与开发环境、业务工具和 API 的直接互动成为可能。你的 AI 助手不仅仅是在谈论代码——它实际上可以查看和与代码库互动。
  3. 设计安全性:客户端-主机-服务器模型创建了明确的安全边界。组织可以实施细粒度的访问控制,同时保持 AI 辅助的好处。不再需要在安全性和能力之间做出选择。

眼见为实:MCP 的实际应用

让我们使用 Claude Desktop App 和 Brave Search MCP 工具设置一个实际示例。这将使 Claude 能够实时搜索网络:

1. 安装 Claude Desktop

2. 获取一个 Brave API 密钥

3. 创建一个配置文件

open ~/Library/Application\ Support/Claude
touch ~/Library/Application\ Support/Claude/claude_desktop_config.json

然后将文件修改为如下内容:


{
"mcpServers": {
"brave-search": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-brave-search"
],
"env": {
"BRAVE_API_KEY": "YOUR_API_KEY_HERE"
}
}
}
}

4. 重新启动 Claude Desktop App

在应用程序的右侧,你会注意到两个新的工具(在下图中的红色圆圈中突出显示),用于使用 Brave Search MCP 工具进行互联网搜索。

一旦配置完成,转换是无缝的。询问 Claude 关于曼联最近的比赛,而不是依赖过时的训练数据,它会执行实时网络搜索以提供准确、最新的信息。

更大的图景:为什么 MCP 改变一切

这里的影响远远超出了简单的网络搜索。MCP 为 AI 辅助创造了一个新的范式:

  1. 工具集成:AI 助手现在可以使用任何具有 API 的工具。想想 Git 操作、数据库查询或 Slack 消息。
  2. 现实基础:通过访问当前数据,AI 的响应变得基于现实而非训练数据。
  3. 可扩展性:协议设计用于扩展。随着新工具和 API 的出现,它们可以快速集成到 MCP 生态系统中。

MCP 的未来

我们只是看到了 MCP 可能性的开始。想象一下 AI 助手可以:

  • 获取和分析实时市场数据
  • 直接与开发环境互动
  • 访问和总结公司内部文档
  • 在多个业务工具之间协调以自动化工作流程

前进的道路

MCP 代表了我们对 AI 能力思考方式的根本转变。与其构建具有更大上下文窗口的更大模型,我们正在创造更智能的方法,让 AI 与现有系统和数据互动。

对于开发者、分析师和技术领导者来说,MCP 为 AI 集成开辟了新的可能性。这不仅仅是关于 AI 知道什么,而是关于它能做什么。

AI 的真正革命可能不是让模型变得更大,而是让它们更具连接性。随着 MCP,这场革命已经到来。

DeepSeek 的开源革命:闭门 AI 峰会的见解

· 一分钟阅读
Lark Birdy
Chief Bird Officer

DeepSeek 的开源革命:闭门 AI 峰会的见解

DeepSeek 正在迅速席卷 AI 世界。就在关于 DeepSeek-R1 的讨论尚未平息时,团队又投下了一颗重磅炸弹:一个开源的多模态模型 Janus-Pro。步伐令人眼花缭乱,雄心昭然若揭。

DeepSeek 的开源革命:闭门 AI 峰会的见解

两天前,一群顶尖的 AI 研究人员、开发者和投资者聚集在由 Shixiang 主办的闭门讨论会上,专注于 DeepSeek。在三个多小时的时间里,他们剖析了 DeepSeek 的技术创新、组织结构及其崛起的广泛影响——对 AI 商业模式、二级市场以及 AI 研究的长期轨迹。

遵循 DeepSeek 的开源透明原则,我们将集体思考向公众开放。以下是讨论中提炼出的见解,涵盖了 DeepSeek 的战略、技术突破及其对 AI 行业可能产生的影响。

DeepSeek:谜团与使命

  • DeepSeek 的核心使命: CEO 梁文峰不仅仅是另一个 AI 企业家——他本质上是一个工程师。与 Sam Altman 不同,他专注于技术执行,而不仅仅是愿景。
  • DeepSeek 赢得尊重的原因: 其 MoE(专家混合)架构是一个关键的差异化因素。早期复制 OpenAI 的 o1 模型只是开始——真正的挑战是如何在有限资源下进行扩展。
  • 在没有 NVIDIA 支持下的扩展: 尽管声称拥有 50,000 个 GPU,DeepSeek 可能只使用了大约 10,000 个老化的 A100 和 3,000 个禁令前的 H800。与美国实验室不同,DeepSeek 被迫追求效率。
  • DeepSeek 的真正关注点: 与 OpenAI 或 Anthropic 不同,DeepSeek 并不执着于“AI 服务人类”。相反,它追求的是智能本身。这可能是它的秘密武器。

探索者与追随者:AI 的幂律法则

  • AI 发展是一个阶跃函数: 追赶的成本比领先低 10 倍。“追随者”以计算成本的一小部分利用过去的突破,而“探索者”必须盲目推进,承担巨大的研发费用。
  • DeepSeek 会超越 OpenAI 吗? 这是可能的——但前提是 OpenAI 出现失误。AI 仍然是一个开放性问题,DeepSeek 对推理模型的方法是一个强有力的赌注。

DeepSeek 背后的技术创新

1. 监督微调(SFT)的终结?

  • DeepSeek 最具颠覆性的主张: SFT 可能不再是推理任务所必需的。如果属实,这标志着范式的转变。
  • 但不要太快下结论… DeepSeek-R1 仍然依赖 SFT,特别是在对齐方面。真正的转变在于如何更有效地使用 SFT 来提炼推理任务。

2. 数据效率:真正的护城河

  • 为什么 DeepSeek 优先考虑数据标注: 据报道,梁文峰亲自标注数据,强调其重要性。特斯拉在自动驾驶方面的成功来自于细致的人类标注——DeepSeek 正在应用同样的严格标准。
  • 多模态数据:尚未准备好——尽管 Janus-Pro 已发布,多模态学习仍然昂贵得令人望而却步。尚无实验室展示出令人信服的收益。

3. 模型蒸馏:一把双刃剑

  • 蒸馏提高了效率但降低了多样性: 这可能在长期内限制模型能力。
  • 蒸馏的“隐藏债务”: 在不了解 AI 训练的基本挑战的情况下,依赖蒸馏可能会在下一代架构出现时导致意想不到的陷阱。

4. 过程奖励:AI 对齐的新前沿

  • 结果监督定义了上限: 基于过程的强化学习可能防止黑客攻击,但智能的上限仍取决于结果驱动的反馈。
  • RL 悖论: 大型语言模型(LLM)没有像国际象棋那样明确的胜利条件。AlphaZero 之所以有效,是因为胜利是二元的。AI 推理缺乏这种清晰度。

为什么 OpenAI 没有使用 DeepSeek 的方法?

  • 关注点的不同: OpenAI 优先考虑规模,而不是效率。
  • 美国的“隐藏 AI 战争”: OpenAI 和 Anthropic 可能忽视了 DeepSeek 的方法,但他们不会再忽视太久。如果 DeepSeek 被证明是可行的,预计研究方向将发生变化。

2025 年的 AI 未来

  • 超越 Transformers? AI 可能会分化为不同的架构。该领域仍然专注于 Transformers,但替代模型可能会出现。
  • RL 的未开发潜力: 除了数学和编码等狭窄领域,强化学习仍未得到充分利用。
  • AI 代理的年份? 尽管炒作不断,但尚无实验室推出突破性的 AI 代理。

开发者会迁移到 DeepSeek 吗?

  • 还没有。 OpenAI 在编码和指令执行能力上仍然占据优势。
  • 但差距正在缩小。 如果 DeepSeek 保持势头,开发者可能会在 2025 年转向。

OpenAI Stargate 5000 亿美元赌注:是否仍然有意义?

  • DeepSeek 的崛起对 NVIDIA 的主导地位提出质疑。 如果效率胜过蛮力扩展,OpenAI 的 5000 亿美元超级计算机可能显得过于奢侈。
  • OpenAI 是否真的会花费 5000 亿美元? 软银是资金支持者,但缺乏流动性。执行仍不确定。
  • Meta 正在逆向工程 DeepSeek。 这证实了其重要性,但 Meta 是否能调整其路线图仍不明确。

市场影响:赢家与输家

  • 短期: AI 芯片股票,包括 NVIDIA,可能面临波动。
  • 长期: AI 的增长故事依然完整——DeepSeek 只是证明了效率与原始计算力同样重要。

开源与闭源:新的战场

  • 如果开源模型达到闭源性能的 95%, 整个 AI 商业模式将发生转变。
  • DeepSeek 正在迫使 OpenAI 作出回应。 如果开源模型继续改进,专有 AI 可能难以为继。

DeepSeek 对全球 AI 战略的影响

  • 中国的追赶速度比预期快。 中美之间的 AI 差距可能只有 3-9 个月,而不是之前认为的两年。
  • DeepSeek 是中国 AI 战略的概念验证。 尽管计算能力有限,效率驱动的创新正在发挥作用。

最后的话:愿景比技术更重要

  • DeepSeek 的真正差异化在于其雄心。 AI 突破来自于推动智能的边界,而不仅仅是改进现有模型。
  • 下一个战场是推理。 谁能率先开发下一代 AI 推理模型,谁就能定义行业的轨迹。

一个思维实验: 如果你有一次机会向 DeepSeek CEO 梁文峰提问,你会问什么?你对公司扩展的最佳建议是什么?分享你的想法——出色的回答可能会赢得下次闭门 AI 峰会的邀请。

DeepSeek 已经在 AI 领域开启了新篇章。它是否会重写整个故事还有待观察。

2025 年 AI 行业分析:赢家、输家和关键赌注

· 一分钟阅读
Lark Birdy
Chief Bird Officer

引言

AI 领域正在经历一场剧变。在过去的两周里,我们与领先的 AI 研究人员和开发者进行了闭门讨论,揭示了关于 2025 年行业轨迹的迷人见解。浮现的是权力的复杂重组、老牌企业面临的意外挑战,以及将塑造技术未来的关键转折点。

这不仅仅是一份报告,而是行业未来的地图。让我们深入了解定义 2025 年的赢家、输家和关键赌注。

2025 年 AI 行业分析:赢家、输家和关键赌注

赢家:新权力结构的崛起

Anthropic:务实的先锋

Anthropic 在 2025 年脱颖而出,凭借明确而务实的战略:

  • 模型控制协议 (MCP):MCP 不仅是一个技术规范,而是旨在为编码和代理工作流创建行业标准的基础协议。可以将其视为代理时代的 TCP/IP——这是一个雄心勃勃的举措,将 Anthropic 置于 AI 互操作性的中心。
  • 基础设施掌握:Anthropic 专注于 计算效率定制芯片设计,展示了在解决 AI 部署的可扩展性挑战方面的远见。
  • 战略合作伙伴关系:通过专注于构建强大的模型并将互补能力外包给合作伙伴,Anthropic 促进了一个协作的生态系统。他们的 Claude 3.5 Sonnet 模型在编码应用中保持了六个月的领先地位——在 AI 领域,这是一段漫长的时间。

Google:垂直整合的冠军

Google 的主导地位源于其对整个 AI 价值链的无与伦比的控制:

  • 端到端基础设施:Google 的 定制 TPU、广泛的数据中心,以及在硅、软件和应用之间的紧密集成,创造了无可匹敌的竞争壁垒。
  • Gemini Exp-1206 性能:Gemini Exp-1206 的早期试验设定了新的基准,强化了 Google 在整个堆栈中优化的能力。
  • 企业解决方案:Google 丰富的内部生态系统作为工作流自动化解决方案的测试场。他们的垂直整合使他们能够在企业 AI 中占据主导地位,这是纯 AI 公司和传统云提供商都无法匹敌的。

输家:面临的挑战

OpenAI:在十字路口

尽管早期取得了成功,OpenAI 正面临越来越多的挑战:

  • 组织困境:Alec Radford 等高管的离职表明可能存在内部不一致。OpenAI 向消费应用的转型是否正在削弱其对 AGI 的关注?
  • 战略局限:ChatGPT 的成功虽然在商业上有价值,但可能限制了创新。当竞争对手探索代理工作流和企业级应用时,OpenAI 有可能被局限于聊天机器人领域。

Apple:错过 AI 浪潮

Apple 在 AI 方面的有限进展威胁到其在移动创新中的长期主导地位:

  • 战略盲点:随着 AI 成为移动生态系统的核心,Apple 在 AI 驱动的端到端解决方案 方面缺乏有影响力的贡献可能会削弱其核心业务。
  • 竞争脆弱性:如果不能在将 AI 集成到其生态系统中取得重大进展,Apple 可能会落后于快速创新的竞争对手。

2025 年的关键赌注

模型能力:大分化

AI 行业正处于一个十字路口,有两种可能的未来:

  1. AGI 突破:AGI 的突破可能会使当前的应用程序过时,瞬间重塑行业。
  2. 渐进演变:更有可能的是,渐进式改进将推动实际应用和端到端自动化,偏向于专注于可用性而非基础突破的公司。

公司必须在维持基础研究和提供即时价值之间取得平衡。

代理进化:下一个前沿

代理代表了 AI-人类互动的变革性转变。

  • 上下文管理:企业正在超越简单的提示响应模型,将 上下文理解 纳入工作流。这简化了架构,使应用程序能够随着模型能力的发展而演变。
  • 人机协作:平衡自主性与监督是关键。像 Anthropic 的 MCP 这样的创新可能为 代理应用商店 奠定基础,实现代理与企业系统之间的无缝通信。

展望未来:下一个巨型平台

AI 操作系统时代

AI 准备重新定义平台范式,为数字时代创建新的“操作系统”:

  • 基础模型作为基础设施:模型本身正在成为平台,API 优先开发标准化代理协议 推动创新。
  • 新交互范式:AI 将超越传统界面,融入设备和环境中。机器人和可穿戴 AI 代理 的时代即将到来。
  • 硬件演变:专用芯片、边缘计算和优化的硬件形式将加速 AI 在各行业的采用。

结论

AI 行业正进入一个决定性的阶段,实际应用、基础设施和人机互动成为中心。赢家将擅长于:

  • 提供解决实际问题的 端到端解决方案
  • 专注于 垂直应用 以超越竞争对手。
  • 构建强大、可扩展的 基础设施 以实现高效部署。
  • 定义 人机互动范式,在自主性与监督之间取得平衡。

这是一个关键时刻。成功的公司将是那些将 AI 的潜力转化为切实的、变革性价值的公司。随着 2025 年的展开,定义下一个巨型平台和生态系统的竞争已经开始。

你怎么看?我们是朝着 AGI 突破前进,还是渐进式进步将占据主导地位?分享你的想法并加入讨论。

Ritual:让区块链思考的 2500 万美元赌注

· 一分钟阅读
Lark Birdy
Chief Bird Officer

Ritual 由前 Polychain 投资者 Niraj Pant 和 Akilesh Potti 于 2023 年创立,是一个雄心勃勃的项目,位于区块链和 AI 的交汇点。该公司获得了由 Archetype 领投、Polychain Capital 战略投资的 2500 万美元 A 轮融资,旨在解决实现复杂链上和链下交互的关键基础设施缺口。Ritual 拥有来自领先机构和公司的 30 名专家团队,正在构建一个将 AI 能力直接集成到区块链环境中的协议,目标应用包括自然语言生成的智能合约和动态市场驱动的借贷协议。

Ritual:让区块链思考的 2500 万美元赌注

为什么客户需要 Web3 来实现 AI

Web3 和 AI 的集成可以缓解传统中心化 AI 系统中的许多限制。

  1. 去中心化基础设施有助于降低操控风险:当 AI 计算和模型输出由多个独立操作的节点执行时,任何单一实体(无论是开发者还是企业中介)都更难以篡改结果。这增强了用户对 AI 驱动应用的信心和透明度。

  2. Web3 原生 AI 扩展了链上智能合约的范围,超越了基本的金融逻辑。有了 AI 的参与,合约可以响应实时市场数据、用户生成的提示,甚至复杂的推理任务。这使得诸如算法交易、自动化借贷决策和聊天交互(例如 FrenRug)等用例成为可能,而这些在现有的、孤立的 AI API 下是不可能实现的。由于 AI 输出是可验证的并与链上资产集成,这些高价值或高风险的决策可以以更大的信任和更少的中介执行。

  3. 将 AI 工作负载分布在网络中可以潜在地降低成本并增强可扩展性。尽管 AI 计算可能很昂贵,但设计良好的 Web3 环境从全球计算资源池中汲取资源,而不是单一的中心化提供商。这带来了更灵活的定价、改进的可靠性,以及持续的链上 AI 工作流程的可能性——所有这些都由节点运营商提供计算能力的共同激励机制支持。

Ritual 的方法

该系统有三个主要层次——Infernet OracleRitual Chain(基础设施和协议)和原生应用——每个层次都旨在解决 Web3 x AI 领域的不同挑战。

1. Infernet Oracle

  • 功能 Infernet 是 Ritual 的第一个产品,作为链上智能合约和链下 AI 计算之间的桥梁。它不仅仅是获取外部数据,而是协调 AI 模型推理任务,收集结果,并以可验证的方式将其返回链上。
  • 关键组件
    • 容器:用于托管任何 AI/ML 工作负载的安全环境(例如 ONNX、Torch、Hugging Face 模型、GPT-4)。
    • infernet-ml:用于部署 AI/ML 工作流程的优化库,提供与流行模型框架的即用型集成。
    • Infernet SDK:提供标准化接口,使开发者可以轻松编写请求和消费 AI 推理结果的智能合约。
    • Infernet 节点:部署在 GCP 或 AWS 等服务上,这些节点监听链上推理请求,在容器中执行任务,并将结果返回链上。
    • 支付与验证:管理计算和验证节点之间的费用分配,并支持各种验证方法以确保任务诚实执行。
  • 重要性 Infernet 超越了传统的预言机,通过验证链下 AI 计算,而不仅仅是数据馈送。它还支持调度重复或时间敏感的推理任务,减少了将 AI 驱动任务链接到链上应用的复杂性。

2. Ritual Chain

Ritual Chain 在基础设施和协议层面集成了 AI 友好的功能。它旨在处理智能合约和链下计算之间的频繁、自动化和复杂交互,远远超出典型 L1 的管理能力。

2.1 基础设施层

  • 功能 Ritual Chain 的基础设施支持比标准区块链更复杂的 AI 工作流程。通过预编译模块、调度器和称为 EVM++ 的 EVM 扩展,它旨在促进频繁或流式 AI 任务、强大的账户抽象和自动化合约交互。

  • 关键组件

    • 预编译模块

      • **EIP 扩展(例如 EIP-665、EIP-5027)**消除代码长度限制,减少签名的 gas,并在链和链下 AI 任务之间建立信任。
      • 计算预编译标准化智能合约内的 AI 推理、零知识证明和模型微调框架。
    • 调度器:通过允许任务按固定时间表运行(例如每 10 分钟),消除对外部“Keeper”合约的依赖。对于持续的 AI 驱动活动至关重要。

    • EVM++:通过原生账户抽象(EIP-7702)增强 EVM,使合约可以在设定期限内自动批准交易。这支持无需人工干预的持续 AI 驱动决策(例如自动交易)。

  • 重要性 通过直接在其基础设施中嵌入 AI 关注的功能,Ritual Chain 简化了复杂、重复或时间敏感的 AI 计算。开发者获得了一个更强大和自动化的环境来构建真正“智能”的 dApps。

2.2 共识协议层

  • 功能 Ritual Chain 的协议层解决了高效管理多样 AI 任务的需求。大型推理任务和异构计算节点需要特殊的费用市场逻辑和新颖的共识方法,以确保顺利执行和验证。
  • 关键组件
    • Resonance(费用市场):
      • 引入“拍卖师”和“经纪人”角色,以匹配不同复杂度的 AI 任务与合适的计算节点。
      • 采用近乎穷尽或“捆绑”任务分配,以最大化网络吞吐量,确保强大节点处理复杂任务而不滞后。
    • Symphony(共识):
      • 将 AI 计算拆分为并行子任务进行验证。多个节点分别验证过程步骤和输出。
      • 通过在多个节点间分配验证工作负载,防止大型 AI 任务过载网络。
    • vTune:
      • 通过使用“后门”数据检查,展示如何在链上验证节点执行的模型微调。
      • 展示 Ritual Chain 处理更长、更复杂 AI 任务的更广泛能力,且信任假设最小化。
  • 重要性 传统费用市场和共识模型难以应对繁重或多样的 AI 工作负载。通过重新设计两者,Ritual Chain 可以动态分配任务并验证结果,将链上可能性扩展到基本代币或合约逻辑之外。

3. 原生应用

  • 功能 基于 Infernet 和 Ritual Chain,原生应用包括模型市场和验证网络,展示了如何将 AI 驱动功能本地集成和货币化到链上。
  • 关键组件
    • 模型市场:
      • 将 AI 模型(及可能的微调变体)标记为链上资产。
      • 允许开发者购买、出售或许可 AI 模型,收益奖励给模型创建者和计算/数据提供者。
    • 验证网络和“Rollup-as-a-Service”:
      • 为外部协议(例如 L2s)提供可靠的环境,用于计算和验证复杂任务,如零知识证明或 AI 驱动查询。
      • 提供定制的 rollup 解决方案,利用 Ritual 的 EVM++、调度功能和费用市场设计。
  • 重要性 通过使 AI 模型直接可交易和可验证到链上,Ritual 将区块链功能扩展到 AI 服务和数据集的市场。更广泛的网络还可以利用 Ritual 的基础设施进行专业计算,形成一个统一的生态系统,其中 AI 任务和证明既便宜又透明。

Ritual 的生态系统发展

Ritual 的“开放 AI 基础设施网络”愿景与构建强大的生态系统密不可分。除了核心产品设计,团队还在模型存储、计算、证明系统和 AI 应用方面建立了合作伙伴关系,以确保网络的每一层都能获得专家支持。同时,Ritual 大力投资于开发者资源和社区增长,以促进其链上的实际用例。

  1. 生态系统合作
  • 模型存储与完整性:通过 Arweave 存储 AI 模型,确保其防篡改。
  • 计算合作伙伴:IO.net 提供去中心化计算,满足 Ritual 的扩展需求。
  • 证明系统与 Layer-2:与 Starkware 和 Arbitrum 合作,扩展 EVM 任务的证明生成能力。
  • AI 消费应用:与 Myshell 和 Story Protocol 合作,将更多 AI 驱动服务带到链上。
  • 模型资产层:Pond、Allora 和 0xScope 提供额外的 AI 资源,推动链上 AI 边界。
  • 隐私增强:Nillion 加强 Ritual Chain 的隐私层。
  • 安全与质押:EigenLayer 帮助保护和质押网络。
  • 数据可用性:EigenLayer 和 Celestia 模块增强数据可用性,对 AI 工作负载至关重要。
  1. 应用扩展
  • 开发者资源:综合指南详细说明如何启动 AI 容器、运行 PyTorch,并将 GPT-4 或 Mistral-7B 集成到链上任务中。动手示例——如通过 Infernet 生成 NFT——降低了新手的入门门槛。
  • 资金与加速:Ritual Altar 加速器和 Ritual Realm 项目为在 Ritual Chain 上构建 dApps 的团队提供资金和指导。
  • 重要项目:
    • Anima:多代理 DeFi 助手,处理贷款、兑换和收益策略的自然语言请求。
    • Opus:AI 生成的 meme 代币,具有计划的交易流程。
    • Relic:将 AI 驱动的预测模型整合到 AMM 中,旨在实现更灵活和高效的链上交易。
    • Tithe:利用 ML 动态调整借贷协议,提高收益同时降低风险。

通过对齐产品设计、合作伙伴关系和多样化的 AI 驱动 dApps,Ritual 将自己定位为 Web3 x AI 的多方面中心。其生态系统优先的方法——辅以充足的开发者支持和实际的资金机会——为链上更广泛的 AI 采用奠定了基础。

Ritual 的展望

Ritual 的产品计划和生态系统看起来很有前景,但仍然存在许多技术空白。开发者仍需解决诸如设置模型推理端点、加速 AI 任务以及协调多个节点以进行大规模计算等基本问题。目前,核心架构可以处理较简单的用例;真正的挑战在于激励开发者在链上构建更具想象力的 AI 驱动应用。

未来,Ritual 可能会更少关注金融,而更多关注使计算或模型资产可交易。这将吸引参与者并通过将链的代币与实际 AI 工作负载联系起来来增强网络安全性。尽管代币设计的细节仍不清楚,但显然 Ritual 的愿景是激发新一代复杂、去中心化、AI 驱动的应用——将 Web3 推向更深、更具创造性的领域。