跳到主要内容

一篇文章 个标签为 "AI"

查看所有标签

Reddit 用户对主要 LLM 聊天工具的反馈

· 一分钟阅读
Lark Birdy
Chief Bird Officer

概述: 本报告分析了 Reddit 上关于四个流行 AI 聊天工具的讨论——OpenAI 的 ChatGPTAnthropic 的 ClaudeGoogle 的 Gemini (Bard)开源 LLMs(例如基于 LLaMA 的模型)。总结了用户对每个工具常见的痛点、最常请求的功能、未满足的需求或感到未被服务的用户群体,以及开发者、普通用户和商业用户之间的感知差异。包括 Reddit 线程中的具体示例和引用以说明这些观点。

Reddit 用户对主要 LLM 聊天工具的反馈

ChatGPT(OpenAI)

常见痛点和限制

  • 有限的上下文记忆: 一个主要的抱怨是 ChatGPT 无法处理长对话或大型文档而不忘记之前的细节。用户经常遇到上下文长度限制(几千个标记),必须截断或总结信息。一位用户指出 “增加上下文窗口的大小将是最大的改进……这是我最常遇到的限制”。当超过上下文时,ChatGPT 会忘记初始指令或内容,导致会话中途质量下降。

  • GPT-4 的消息限制: ChatGPT Plus 用户抱怨 GPT-4 使用的 25 条消息/3 小时限制(2023 年的限制)。达到此限制迫使他们等待,打断工作。重度用户发现这种限制是一个主要痛点。

  • 严格的内容过滤(“削弱”): 许多 Reddit 用户认为 ChatGPT 变得过于严格,经常拒绝以前版本能处理的请求。一个高票帖子抱怨 “现在几乎任何你问它的问题都会返回‘抱歉,无法帮助你’……这怎么从最有用的工具变成了 Google 助手的等价物?” 用户举例说明 ChatGPT 拒绝重新格式化他们自己的文本(例如登录凭证)因为假设的误用。付费订阅者认为 “一些模糊的概念认为用户可能做‘坏事’……不应该成为不显示结果的理由”,因为他们想要模型的输出并会负责任地使用它。

  • 幻觉和错误: 尽管具有先进的能力,ChatGPT 仍可能自信地产生错误或虚构的信息。一些用户观察到这种情况随着时间的推移变得更糟,怀疑模型被“削弱”了。例如,一位金融用户表示 ChatGPT 过去能正确计算像 NPV 或 IRR 这样的指标,但更新后 “我得到了很多错误答案……即使在纠正后,它仍然产生错误答案。我真的相信它自从更改后变得更笨了。” 这种不可预测的不准确性削弱了对需要事实精确任务的信任。

  • 不完整的代码输出: 开发人员经常使用 ChatGPT 来获取编码帮助,但他们报告有时会遗漏解决方案的一部分或截断长代码。一位用户分享说 ChatGPT 现在 “遗漏代码,产生无用的代码,并且在我需要它做的事情上表现糟糕……它经常遗漏太多代码,我甚至不知道如何整合它的解决方案。” 这迫使用户提出后续提示以引出其余部分,或者手动拼接答案——这是一个繁琐的过程。

  • 性能和正常运行时间问题: 存在一种看法,即随着企业使用增加,ChatGPT 对个人用户的性能下降。一位沮丧的 Plus 订阅者表示 “我认为他们正在将带宽和处理能力分配给企业,并从用户那里剥离,这在考虑到订阅费用时是无法忍受的!”。在高峰时段的停机或减速已被非正式地注意到,这可能会中断工作流程。

常见请求的功能或改进

  • 更长的上下文窗口/记忆: 最常请求的改进是更大的上下文长度。用户希望进行更长的对话或提供大型文档而无需重置。许多人建议将 ChatGPT 的上下文扩展到与 GPT-4 的 32K 标记能力(目前通过 API 可用)或更高。一位用户表示,“GPT 在上下文中表现最好,当它不记得初始上下文时,我会感到沮丧……如果关于上下文 PDF 的传言属实,那将解决我所有的问题。” 对于上传文档或链接个人数据以便 ChatGPT 能够在整个会话中记住和引用它们的功能有很高的需求。

  • 文件处理和集成: 用户经常要求更简单的方法将文件或数据输入 ChatGPT。在讨论中,人们提到希望 “复制并粘贴我的 Google Drive 并让它工作” 或者有插件可以让 ChatGPT 直接从个人文件中获取上下文。一些人尝试了变通方法(如 PDF 阅读器插件或链接 Google Docs),但抱怨错误和限制。一位用户描述了他们理想的插件是一个 “像 Link Reader 一样但用于个人文件……选择我的驱动器中的哪些部分用于对话……这将解决我目前与 GPT-4 的所有问题。” 简而言之,对外部知识(超出训练数据)的更好本地支持是一个受欢迎的请求。

  • 减少对付费用户的限制: 由于许多 Plus 用户达到 GPT-4 消息限制,他们呼吁提高限制或提供更多支付选项以获得无限访问。25 条消息限制被视为任意的,并阻碍了密集使用。人们更希望使用基于使用的模型或更高的上限,以便长时间的问题解决会话不会被中断。

  • “非审查”或自定义审核模式: 一部分用户希望能够切换内容过滤的严格性,特别是在为自己使用 ChatGPT 时(而不是面向公众的内容)。他们认为“研究”或“非审查”模式——带有警告但没有硬性拒绝——会让他们更自由地探索。正如一位用户所说,付费客户将其视为一种工具,并相信 “我为[它]付钱。” 他们希望能够即使在边缘查询上也能得到答案。虽然 OpenAI 必须平衡安全性,但这些用户建议在私人聊天中放松政策的标志或设置。

  • 改进的事实准确性和更新: 用户通常要求更及时的知识和更少的幻觉。ChatGPT 的知识截止(早期版本为 2021 年 9 月)是 Reddit 上经常提出的限制。OpenAI 随后引入了浏览和插件,一些用户利用了这些功能,但其他人只是要求基础模型更频繁地更新新数据。减少明显错误——特别是在数学和编码等领域——是一个持续的愿望。一些开发人员在 ChatGPT 出错时提供反馈,希望模型改进。

  • 更好的代码输出和工具: 开发人员有功能请求,例如改进的代码解释器,不会遗漏内容,并与 IDE 或版本控制的集成。(OpenAI 的代码解释器插件——现在是“高级数据分析”的一部分——是朝这个方向迈出的一步,并受到赞扬。)尽管如此,用户经常请求在代码生成中有更细致的控制:例如,即使代码很长,也可以选择输出完整的、未过滤的代码,或者在 AI 出错时轻松修复代码的机制。基本上,他们希望 ChatGPT 更像一个可靠的编码助手,而无需多次提示来完善答案。

  • 持久的用户档案或记忆: 另一个改进是让 ChatGPT 在会话之间记住用户的事情(在同意的情况下)。例如,记住一个人的写作风格,或者他们是一名软件工程师,而不必在每次新聊天时重述。这可以与 API 微调或“档案”功能结合起来。用户现在手动将重要上下文复制到新聊天中,因此内置的个人偏好记忆将节省时间。

未满足的需求或用户群体

  • 研究人员和拥有长文档的学生: 希望 ChatGPT 分析长篇研究论文、书籍或大型数据集的人感到未被满足。当前的限制迫使他们切割文本或满足于摘要。这个群体将从更大的上下文窗口或处理长文档的功能中受益匪浅(如众多帖子所证实,试图绕过标记限制)。

  • 寻求超出限制的创造性故事或角色扮演的用户: 虽然 ChatGPT 经常用于创意写作,但一些故事讲述者感到模型在长篇故事中忘记早期情节或拒绝成人/恐怖内容时受到限制。他们转向替代模型或黑客继续他们的叙述。这些创意用户将更好地由具有更长记忆和在合理范围内对虚构暴力或成熟主题更灵活的 ChatGPT 版本服务。正如一位小说作家所说,当 AI 失去对故事的跟踪时,“我必须提醒它确切的格式或上下文……我感到沮丧,因为它在两个提示前还很棒,但现在我必须让 AI 赶上。”

  • 高级用户和领域专家: 在专业领域(金融工程医学)的专业人士有时发现 ChatGPT 的答案在他们的领域缺乏深度或准确性,特别是如果问题涉及最近的发展。这些用户希望获得更可靠的专家知识。一些人尝试通过 API 或自定义 GPT 进行微调。那些无法微调的人会欣赏 ChatGPT 的领域特定版本或嵌入可信数据库的插件。在默认形式中,ChatGPT 可能未能满足需要高度准确、领域特定信息的用户(他们经常需要仔细检查其工作)。

  • 需要非审查或边缘案例内容的用户: 一小部分用户(测试安全场景的黑客、极端小说的作家等)发现 ChatGPT 的内容限制对他们的需求过于限制。官方产品目前未能满足他们的需求(因为它明确避免某些内容)。这些用户经常尝试越狱提示或使用开源模型以获得他们想要的响应。这是 OpenAI 的故意差距(以维护安全性),但这意味着这些用户寻找其他地方。

  • 注重隐私的个人和企业: 一些用户(尤其是在企业环境中)由于隐私问题而不愿将敏感数据发送到 ChatGPT。OpenAI 的政策是不使用 API 数据进行训练,但 ChatGPT 的 Web UI 历史上没有提供这样的保证,直到添加了选择退出功能。处理机密数据的公司(法律、医疗保健等)通常觉得他们无法充分利用 ChatGPT,除非他们构建自托管解决方案。例如,一位 Reddit 用户提到他们的公司出于隐私原因转向本地 LLM。在 ChatGPT 的本地或私有实例可用之前,这个群体仍然谨慎或使用较小的专业供应商。

不同用户类型的感知差异

  • 开发者/技术用户: 开发者往往是 ChatGPT 的最大支持者和最严厉的批评者。他们喜欢它解释代码、生成样板和协助调试的能力。然而,他们敏锐地感受到其在更长上下文和代码准确性方面的限制。正如一位开发者抱怨的那样,ChatGPT 开始*“产生无用的代码”并遗漏重要部分,这“让我很生气……我不想告诉它‘不要懒惰’——我只想要完整的结果”*。开发者经常注意到模型更新后质量的细微变化,并在 Reddit 上非常直言不讳地表达对“削弱”或编码能力下降的看法。他们还推动极限(构建复杂提示、链接工具),因此他们渴望扩展上下文、减少消息限制和更好地与编码工具集成的功能。总之,开发者重视 ChatGPT 加快日常任务的速度,但也迅速指出逻辑或代码中的错误——他们将其视为仍需监督的初级助手。

  • 普通/日常用户: 更多普通用户——那些寻求一般知识、建议或乐趣的人——通常对 ChatGPT 的能力感到惊讶,但他们也有自己的不满。普通用户常见的挫折是当 ChatGPT 拒绝一个在他们看来无害的请求时(可能触发了政策规则)。一个线程中的原始发帖人就此举例,“当我写一个它不应该有问题的提示而它现在拒绝时,我感到非常生气”。普通用户也可能遇到知识截止(发现机器人无法处理非常当前的事件,除非明确更新)并有时注意到 ChatGPT 给出明显错误的答案。与开发者不同,他们可能不会总是仔细检查 AI,这可能导致如果他们根据错误采取行动而失望。积极的一面是,许多普通用户发现 ChatGPT Plus 的更快响应和 GPT-4 的改进输出值得每月 20 美元——除非“拒绝”问题或其他限制破坏了体验。他们通常希望一个有用的、通用的助手,当 ChatGPT 回复政策声明或需要复杂提示才能得到简单答案时会感到沮丧。

  • 商业/专业用户: 商业用户通常从生产力和可靠性的角度接触 ChatGPT。他们欣赏快速起草电子邮件、总结文档或生成想法。然而,他们关心数据安全性、一致性和工作流程集成。在 Reddit 上,专业人士讨论了希望 ChatGPT 集成到 Outlook、Google Docs 或作为其内部系统中的 API 中。一些人注意到,随着 OpenAI 转向服务企业客户,产品的重点似乎发生了转变:有一种感觉,免费或个人用户体验略有下降(例如,变得更慢或“更不聪明”),因为公司扩大规模以服务更大的客户。无论这是否属实,它突显了一种感知:商业用户希望获得可靠性和优先服务,而个人用户担心他们现在是二等公民。此外,专业人士需要正确的输出——一个华而不实但错误的答案可能比没有答案更糟。因此,这个群体对准确性很敏感。对他们来说,像更长的上下文(用于阅读合同、分析代码库)和保证的正常运行时间这样的功能至关重要。他们可能会为高级服务水平支付更多费用,前提是他们的合规性和隐私要求得到满足。一些企业甚至探索本地部署或使用 OpenAI 的 API 进行严格的数据处理规则以满足其 IT 政策。


Claude(Anthropic)

常见痛点和限制

  • 使用限制和访问限制: Claude 因免费提供强大的模型(Claude 2)而受到赞扬,但用户很快遇到了使用限制(尤其是在免费层)。在一定数量的提示或大量文本后,Claude 可能会停止并说类似 “对不起,我现在必须结束这次对话。请稍后再来。” 这种限制让那些将 Claude 视为扩展编码或写作伙伴的用户感到沮丧。即使是 Claude Pro(付费)用户也*“不保证无限时间”*,正如一位用户指出的那样;达到配额仍然会产生“稍后再来”的消息。此外,Claude 曾经长期受到地理限制(最初仅在美国/英国可用)。国际用户在 Reddit 上不得不使用 VPN 或第三方平台来访问它,这是一种不便。这让许多非美国用户感到被排除在外,直到访问范围扩大。

  • 在非常大的输入中偏离轨道的倾向: Claude 的头条功能是其100k 标记上下文窗口,允许极长的提示。然而,一些用户注意到,当你向 Claude 塞入数万个标记时,其响应可能变得不那么集中。“100k 非常有用,但如果它不能正确遵循指令并偏离轨道,那就不那么有用了,” 一位用户观察到。这表明在巨大的上下文中,Claude 可能会漂移或开始漫无边际,需要仔细提示以保持任务。这是将上下文推向极限的固有限制——模型保留了很多,但有时“忘记”哪些细节最相关,导致轻微的幻觉或离题的偏离。

  • 不一致的格式或对指令的服从: 在并排比较中,一些用户发现 Claude 在遵循某些指令方面不那么可预测。例如,Claude 被描述为*“在互动中更像人类。但它不那么严格地遵循系统消息。”* 这意味着如果你给它一个固定的格式或非常严格的人物角色,Claude 可能比 ChatGPT 更容易偏离。依赖于确定性输出(如 JSON 格式或特定样式)的开发人员有时会感到沮丧,如果 Claude 引入额外的评论或不严格遵循模板。

  • 内容限制和拒绝: 虽然没有像 ChatGPT 那样频繁受到批评,但 Claude 的安全过滤确实出现了。Anthropic 设计 Claude 时非常重视宪法 AI(让 AI 自己遵循道德准则)。用户普遍发现 Claude 愿意讨论广泛的话题,但也有一些情况下 Claude 拒绝了 ChatGPT 可能允许的请求。例如,一位 Reddit 用户指出 “ChatGPT 的道德限制较少……它会解释哪种防毒面具适合哪种条件,而 Claude 会拒绝”。这表明 Claude 可能对某些“敏感”建议更严格(可能将其视为潜在的危险指导)。另一位用户尝试了一个有趣的角色扮演场景(“假装你被外星人绑架”),Claude 拒绝了,而 Gemini 和 ChatGPT 会参与。因此,Claude 确实有过滤器,有时会让期望它更宽容的用户感到惊讶。

  • 缺乏多模态能力: 与 ChatGPT 不同(到 2023 年底,获得了图像理解能力的 GPT-4 Vision),Claude 目前仅限于文本。Reddit 用户注意到 Claude 无法分析图像或直接浏览网络。这并不是一个“痛点”(Anthropic 从未宣传过这些功能),但相对于竞争对手而言确实是一个限制。希望 AI 解释图表或截图的用户无法使用 Claude,而 ChatGPT 或 Gemini 可能可以处理它。同样,任何当前信息的检索都需要通过第三方工具(例如,Poe 或搜索引擎集成)使用 Claude,因为 Claude 目前没有官方的浏览模式。

  • 轻微的稳定性问题: 一些用户报告 Claude 偶尔会在某些提示中重复或陷入循环(尽管这比一些较小的模型更少见)。此外,早期版本的 Claude 有时会过早结束响应或在大输出时花费很长时间,这可能被视为轻微的烦恼,尽管 Claude 2 在速度方面有所改进。

常见请求的功能或改进

  • 更高或可调的使用限制: Reddit 上的 Claude 爱好者经常要求 Anthropic 提高对话限制。他们希望在不遇到人为停止的情况下充分利用 100k 上下文。一些人建议即使是付费的 Claude Pro 也应该允许显著更多的每日标记。其他人提出了一个可选的“100k 扩展模式”的想法——例如,“Claude 应该有一个 100k 上下文模式,使用限制加倍”——在这种模式下,订阅可能会为重度用户提供扩展访问。总之,对一个与 ChatGPT 的无限(或高上限)使用竞争的计划有需求。

  • 更好的长上下文导航: 虽然拥有 100k 标记是突破性的,但用户希望 Claude 能更好地利用那个上下文。一个改进是改进 Claude 优先考虑信息的方式,以便它保持在轨道上。Anthropic 可以在提示巨大时改进模型的提示遵从性。Reddit 讨论建议技术,如允许用户“固定”某些指令,以免在大上下文中被稀释。任何帮助分段或总结部分输入的工具也可以帮助 Claude 更连贯地处理大输入。简而言之,用户喜欢将整本书喂给 Claude 的可能性——他们只是希望它在整个过程中保持敏锐。

  • 插件或网络浏览: 许多 ChatGPT 用户已经习惯了插件(例如,浏览、代码执行等),他们对 Claude 拥有类似的可扩展性表示兴趣。一个常见的请求是让 Claude 拥有一个官方的网络搜索/浏览功能,以便它可以按需获取最新信息。目前,Claude 的知识大多是静态的(训练数据截至 2023 年初,有一些更新)。如果 Claude 能够查询网络,这将缓解这一限制。同样,一个 Claude 可以使用第三方工具(如计算器或数据库连接器)的插件系统可以扩展其对高级用户的实用性。这仍然是 Claude 缺乏的一个功能,Reddit 用户经常提到 ChatGPT 的插件生态系统在某些任务中给它带来了优势。

  • 多模态输入(图像或音频): 一些用户也想知道 Claude 是否会支持图像输入或生成图像。Google 的 Gemini 和 OpenAI 的 GPT-4 具有多模态能力,因此为了保持竞争力,用户期望 Anthropic 探索这一点。一个常见的请求是:“我可以上传一个 PDF 或图像让 Claude 分析吗?” 目前答案是否定的(除了将图像转换为文本的变通方法)。即使只是允许图像到文本(OCR 和描述)也会满足许多希望一站式助手的用户。这在愿望清单上,尽管截至 2025 年初,Anthropic 尚未宣布类似的计划。

  • 微调或定制化: 高级用户和企业有时会问他们是否可以在自己的数据上微调 Claude 或获得自定义版本。OpenAI 提供了一些模型的微调(尚未针对 GPT-4,但针对 GPT-3.5)。Anthropic 早些时候发布了 Claude 1.3 的微调界面,但对于 Claude 2 并未广泛宣传。Reddit 用户询问是否可以在公司知识或个人写作风格上训练 Claude。除了每次提示注入之外,更简单的方法将非常受欢迎,因为它可以将 Claude 转变为记住特定知识库或人物角色的个性化助手。

  • 更广泛的可用性: 非美国用户经常要求 Claude 在他们的国家正式推出。来自加拿大、欧洲、印度等地的帖子询问他们何时可以在没有 VPN 的情况下使用 Claude 的网站,或者 Claude API 何时会更广泛开放。Anthropic 一直很谨慎,但需求是全球性的——在许多人看来,可能的改进只是“让更多人使用它”。该公司逐步扩展访问权限已经部分解决了这一问题。

未满足的需求或用户群体

  • 国际用户群体: 如前所述,Claude 的主要用户群体长期以来受到地理限制。这让许多潜在用户未被满足。例如,一位对 Claude 的 100k 上下文感兴趣的德国开发者没有官方途径使用它。虽然存在变通方法(第三方平台,或 VPN + 在受支持国家的电话验证),但这些障碍意味着普通国际用户实际上被锁定在外。相比之下,ChatGPT 在大多数国家都可用。因此,非美国英语使用者,尤其是非英语使用者,由于 Claude 的有限推出而未被满足。他们可能仍然依赖 ChatGPT 或本地模型,仅仅因为访问问题。

  • 需要严格输出格式的用户: 如前所述,Claude 有时在响应中采取自由。需要高度结构化输出的用户(如应用程序的 JSON,或遵循精确格式的答案)可能会发现 Claude 在这方面不如 ChatGPT 可靠。这些用户——通常是将 AI 集成到系统中的开发人员——是一个可以更好地服务的群体,如果 Claude 允许“严格模式”或改进其对指令的遵从性。他们目前可能会避免在此类任务中使用 Claude,而是坚持使用已知更严格遵循格式的模型。

  • 普通问答用户(与创意用户相比): Claude 经常因创意任务而受到赞扬——它产生流畅、类人类的散文和深思熟虑的文章。然而,一些 Reddit 用户指出,对于简单的问题回答或事实查询,Claude 有时会给出冗长的答案,而简洁就足够了。比较 ChatGPT 和 Claude 的用户表示,ChatGPT 倾向于简洁和要点,而 Claude 默认给出更多叙述。只想要快速事实答案的用户(如“X 的首都和人口是多少?”)可能会觉得 Claude 有点间接。这些用户更适合像准确搜索或简洁模型这样的东西。Claude 可以做到这一点,如果被要求,但其风格可能不符合简洁问答的期望,这意味着这个群体可能会转向其他工具(如 Bing Chat 或 Google)。

  • 安全关键用户: 相反,一些需要非常小心遵循安全的用户(例如,与学生一起使用 AI 的教育工作者,或希望零风险输出的企业客户)可能会认为 Claude 的对齐是一个优点,但由于 ChatGPT 也相当对齐并且具有更多企业功能,那些用户可能不会特别选择 Claude。这是一个小群体,但可以说 Claude 尚未明确捕获它。他们可能未被满足,因为他们没有简单的方法来增加 Claude 的保障或查看其“思维链”(Anthropic 通过宪法 AI 方法在内部拥有,但最终用户无法直接与之交互,除了注意到 Claude 的通常礼貌语气)。

  • 非英语使用者(输出质量): Claude 主要用英语训练(像大多数大型 LLM 一样)。一些用户在其他语言中测试了它;它可以用多种语言响应,但质量可能会有所不同。如果说,用户希望用法语或印地语得到非常细致的答案,Claude 的能力可能没有像 ChatGPT 那样在这些语言中精细调整(GPT-4 在某些基准测试中表现出强大的多语言性能,通常高于其他模型)。主要用非英语交流的用户可能会发现 Claude 的流利度或准确性略弱。这个群体有些未被满足,仅仅因为 Anthropic 尚未公开强调多语言训练作为优先事项。

不同用户类型的感知差异

  • 开发者/技术用户: Reddit 上的开发者越来越赞赏 Claude,尤其是 Claude 2 / Claude 3.5,用于编码任务。2024 年末的感知变化显著:许多开发者开始更喜欢 Claude 而不是 ChatGPT 用于编程协助。他们引用*“在编码方面表现出色”*的性能和一次性处理更大代码库的能力。例如,一位用户写道 “Claude Sonnet 3.5 在与代码(分析、生成)方面比 ChatGPT 更好。” 开发者欣赏 Claude 能够处理大量项目代码或日志并产生连贯的分析或改进,这要归功于其巨大的上下文。然而,他们也注意到其怪癖——如有时注入更多对话性废话或不严格遵循规范。总的来说,许多开发者手头同时保留 ChatGPT 和 Claude:一个用于严格的逐步逻辑(ChatGPT),一个用于广泛的上下文和富有同情心的理解(Claude)。一个评论者说 “如果我必须选择一个,我会选择 Claude”,这表明高级用户中非常积极的感知,尤其是用于头脑风暴、代码审查或架构建议等用例。开发者唯一常见的抱怨是当他们尝试大力推动 Claude 时(例如,提供 50K 标记提示以分析整个存储库)达到 Claude 的使用限制。总之,开发者将 Claude 视为一个非常强大的工具——在某些情况下优于 ChatGPT——仅受可用性和格式不确定性限制。

  • 普通/非技术用户: 试用过 Claude 的普通用户经常评论它友好和清晰。Claude 的风格倾向于对话性、礼貌和详细。一个新用户将其与 ChatGPT 比较时观察到 “Claude 更富有同情心,并遵循对话语气……ChatGPT 太频繁地默认使用要点”。这种类人类的温暖使 Claude 对于使用它进行创意写作、建议或只是聊天以获取信息的人具有吸引力。有些人甚至将 Claude 人格化为具有“个性”的同情心。普通用户还喜欢 Claude 的免费版本允许访问相当于 GPT-4 级别的智能,而无需订阅(至少在速率限制内)。另一方面,普通用户确实会遇到 Claude 在某些主题上的拒绝,并可能不理解为什么(因为 Claude 会礼貌但坚定地表达)。如果普通用户询问一些边缘问题并从 Claude 那里得到拒绝,他们可能会认为它不那么有能力或过于受限,而没有意识到这是一种政策立场。另一个方面是 Claude 缺乏知名度——许多普通用户可能甚至不知道尝试它,除非他们与 AI 社区有联系。那些尝试过的人通常评论说它感觉*“像在和人交谈”,以一种好的方式。他们对 Claude 处理开放式或个人问题的能力感到非常满意。因此,普通用户对 Claude 的输出质量和语气*的感知大多是积极的,对其可用性(必须在特定应用程序或地区使用)和偶尔的“不能这样做”时刻感到困惑或沮丧。

  • 商业/专业用户: 从公共 Reddit 上很难判断商业对 Claude 的看法(因为很少有企业用户详细发布),但有一些趋势浮现。首先,Anthropic 将 Claude 定位为更注重隐私并愿意签署企业协议——这对担心 OpenAI 数据的公司很有吸引力。确实,一些 Reddit 讨论提到 Claude 在 Slack 或 Notion 等工具中的上下文中,作为助手进行集成。使用这些集成的专业人士可能甚至没有意识到 Claude 是引擎,但当他们意识到时,他们在写作风格和消化大型企业文档的能力方面对其进行积极比较。例如,一个团队可能会将长季度报告提供给 Claude 并获得不错的摘要——这是 ChatGPT 的较小上下文难以处理的事情。也就是说,商业用户也注意到缺乏某些生态系统功能;例如,OpenAI 提供系统消息控制、函数调用等,而 Anthropic 的支持较少。一位开发人员在开发商业解决方案时表示 Claude 在对话中更易于引导,而 ChatGPT 更倾向于更严格……[但] ChatGPT 具有网络访问功能,这可能非常有帮助。这意味着对于商业用户可能需要的研究或数据查找任务(如竞争情报),ChatGPT 可以直接获取信息,而 Claude 需要单独的步骤。总体而言,商业用户认为 Claude 是一个非常有能力的 AI——在某些情况下更好用于内部分析任务——但可能尚未在集成方面达到功能丰富。成本是另一个因素:Claude 的 API 定价和条款不像 OpenAI 那样公开,一些 Reddit 上的初创公司提到对 Claude 的定价或稳定性的不确定性。总之,专业人士尊重 Claude 的能力(尤其是在遵循高级指令和总结大型输入方面的可靠性),但他们密切关注其在集成、支持和全球可用性方面的发展,然后才完全承诺使用它而不是更成熟的 ChatGPT。


Google Gemini(Bard)

常见痛点和限制

  • 不准确或“愚蠢”的响应: 当 Google 推出其由 Gemini 驱动的 Bard 升级时,出现了大量的 Reddit 反馈,其中大部分是负面的。用户抱怨 Gemini 在基本问答中表现不佳,与 ChatGPT 相比。一篇题为“对 Google Gemini 的 100% 诚实评价”的直率评估指出:“这是一个破碎、不准确的 LLM 聊天机器人”。另一位沮丧的用户问道:“Gemini 怎么还这么糟糕?我问 Gemini 的次数,它要么给我错误答案,要么给我不完整答案,真是荒谬”。他们将其与 ChatGPT-4 并排比较,发现 ChatGPT 给出了*“完美、正确、有效的答案,一次就搞定”*,而 Gemini 则冗长,需要多次提示才能得到一个半满意的答案。实质上,早期用户认为 Gemini 经常产生幻觉或错过问题的重点,需要过多的提示努力才能提取正确的信息。鉴于对 Gemini 的炒作,这种质量不一致是一个重大失望。

  • 过多的冗长和废话: 许多用户注意到 Gemini(以新 Bard 的形式)倾向于产生冗长的答案,而不是直奔主题。正如一个人所描述的,“它冗长……3 段 AI 垃圾……即便如此,它[仅]最终在废话段落中提到了答案”。这与 ChatGPT 形成鲜明对比,ChatGPT 通常在适当时提供更简洁的答案或要点。当用户必须在大量文本中筛选简单事实时,冗长成为一个痛点。一些人推测 Google 可能调整它以便更具对话性或“有帮助”,但过度解释而没有实质内容。

  • 与 Google 自有服务的集成不佳: Google 的 AI 助手的卖点之一应该是与 Google 生态系统(Gmail、Docs、Drive 等)的集成。然而,早期用户体验在这方面非常令人失望。一位用户发泄道:“别让我开始谈论它几乎无法与 Google 自己的产品集成,这应该是一个‘功能’(它显然不知道它有)。” 例如,人们会尝试要求 Gemini(通过 Bard)总结 Google Doc 或根据一些信息起草电子邮件——Google 广告的功能——而机器人会回答它无法访问该数据。一位 r/GooglePixel 上的用户写道:“每次我尝试使用 Gemini 与我的 Google Docs 或 Drive 时,它告诉我无法对其做任何事情。有什么意义呢?” 这表明承诺的能力与实际表现之间存在显著差距,让用户感到“AI 助手”在 Google 自己的生态系统中没有提供太多帮助。

  • 拒绝和能力混乱: 用户还遇到了 Gemini 的奇怪拒绝或矛盾。同一位 Reddit 用户指出 Gemini “无缘无故地拒绝做事情,忘记它可以做其他事情……前几天它告诉我它没有互联网/实时数据访问。什么。” 这表明 Gemini 有时会拒绝它应该能够做的任务(如检索实时信息,Bard 已连接到)或对其自身能力做出不正确的声明。这样的经历给人的印象是一个不仅不太聪明,而且不太可靠或自知的 AI。另一位用户的生动评论:“Gemini 是绝对的垃圾。你有没有过那种时刻,你只想举起双手说,‘他们在想什么?’” 概括了这种挫折感。本质上,Gemini 的产品集成和一致性问题让许多早期用户感到它半成品

  • 不显著的编码能力: 虽然不像一般问答那样广泛讨论,但有几位用户测试了 Gemini(Bard)的编码任务,发现其表现不佳。在 AI 论坛中,Gemini 的编码能力通常被评为低于 GPT-4,甚至低于 Claude。例如,一位用户简单地表示 “Claude 3.5 Sonnet 在编码方面明显优于 ChatGPT 4o……Gemini 在那种情况下绝对是垃圾”。共识是,Gemini 可以编写简单代码或解释基本算法,但在更复杂的问题上经常绊倒或产生错误代码。其缺乏广泛的开发工具集(例如,它没有 Code Interpreter 或强大的函数调用等同)也意味着它不是程序员的首选。因此,虽然并非所有普通用户都关心代码,但这是该群体的一个限制。

  • 移动设备限制: Gemini 作为 Google 助手的一部分在 Pixel 手机上推出(品牌为“Assistant with Bard”)。一些 Pixel 用户注意到将其用作语音助手替代品存在问题。与旧版 Google 助手相比,它有时无法准确接收语音提示或响应时间过长。还有关于需要选择加入并失去一些经典助手功能的评论。这创造了一种Gemini 在设备上的集成尚未完全准备好的印象,让 Google 生态系统的高级用户感到他们必须在智能助手和功能助手之间做出选择。

常见请求的功能或改进

  • 显著提高准确性和推理能力: 用户对 Gemini 的首要改进要求是变得更聪明和更可靠。Reddit 反馈明确表示,Google 需要缩小答案质量的差距。用户期望 Gemini 利用 Google 的广泛信息访问来提供事实、直接的答案,而不是冗长或不正确的答案。因此,要求(通常以讽刺的方式表达)归结为:让它在一般知识和推理方面与 GPT-4 一样好或更好。 这包括更好地处理后续问题和复杂提示。基本上,“修复 Gemini 的大脑”——利用那些所谓的多模态训练优势,使其不再错过明显的细节。Google 可能已经听到了这一点:许多帖子比较了 ChatGPT 表现出色而 Gemini 失败的具体答案,这为改进提供了非正式的错误报告。

  • 更好的集成和上下文意识: 用户希望 Gemini 实现无缝 Google 生态系统助手的承诺。这意味着它应该正确地与 Gmail、Calendar、Docs、Drive 等接口。如果用户要求“总结我打开的文档”或“起草对我老板最后一封电子邮件的回复”,AI 应该做到——并且做到安全。目前,要求是 Google 启用这些功能并让 Gemini 实际识别何时可以执行此类任务。Bard 被宣传为可以连接到用户内容(在获得许可的情况下),因此用户实际上要求 Google“打开”或修复此集成。这是商业用户的一个关键功能。此外,在网络浏览方面:Bard(Gemini)可以搜索网络,但一些用户希望它更清楚地引用来源或更及时地纳入突发新闻。因此,改进 Gemini 的连接特性是一个常见请求。

  • 简洁性控制: 鉴于冗长的抱怨,一些用户建议添加一个切换响应风格的功能。例如,一个*“简短模式”*,默认情况下 Gemini 给出简短、直截了当的答案,除非要求详细说明。相反,也许是一个“详细模式”适合那些想要非常全面答案的人。ChatGPT 通过用户提示隐含地允许其中一些(“保持简短”);对于 Gemini,用户感到即使他们没有要求详细说明,它也过度解释。因此,内置设置或更好地调整以在适当时生成简洁答案将是一个受欢迎的改进。本质上,调整冗长的刻度。

  • 与 ChatGPT 的功能对等(编码、插件等): Reddit 上的高级用户明确比较功能。他们要求 Google 的 Gemini/Bard 提供类似于 ChatGPT 的 Code Interpreter 的代码执行沙箱,上传图像/PDF 进行分析的能力(因为 Gemini 是多模态的,用户希望实际提供自定义图像,而不仅仅是描述提供的图像)。另一个经常提到的功能是更好的会话内记忆——虽然 Bard 确实记住了一些过去的互动,但用户希望它像 ChatGPT 一样好地引用早期上下文,甚至拥有像 ChatGPT 的聊天历史那样的持久会话存储,可以滚动查看和重新访问。基本上,Google 被要求赶上所有 ChatGPT Plus 用户拥有的生活质量功能:聊天历史、插件生态系统(或至少强大的第三方集成)、编码协助等。

  • 移动应用和语音改进: 许多普通用户请求一个专用的 Bard/Gemini 移动应用程序(类似于 ChatGPT 移动应用程序)。依赖于 Web 界面或仅限于 Pixel 助手是有限的。一个跨 iOS/Android 的官方应用程序,具有语音输入、语音响应(以获得真正的助手感觉)和紧密集成可以大大改善用户体验。除此之外,Pixel 用户希望 Assistant with Bard 更快更实用——基本上,他们希望旧版 Google 助手的最佳功能(快速、精确的操作)与 Gemini 的智能相结合。例如,继续允许“Hey Google”智能家居语音命令,而不仅仅是聊天响应。Google 可以改进 Gemini 的语音模式,以真正取代传统助手而不失去功能。

  • 透明度和控制: 一些用户要求 Bard 的来源更多的洞察力或一种微调其风格的方法。例如,显示 Bard 从哪个 Google 结果中提取信息(以验证准确性)——Bing Chat 就通过引用链接做到这一点。此外,由于 Bard 偶尔会产生错误信息,用户希望能够标记或纠正它,理想情况下 Bard 应该从这些反馈中学习。拥有一个简单的反馈机制(“不喜欢——这是不正确的,因为……”)可以快速改进模型,将增强用户对 Google 正在倾听的信心。基本上,功能使 AI 更像一个协作助手而不是一个黑盒子。

未满足的需求或用户群体

  • 寻求可靠个人助手的用户: 具有讽刺意味的是,Google 目标的群体——希望强大个人助手的人——在当前形式的 Gemini 中感到最未被满足。切换到新 Bard 基于助手的早期采用者期望升级,但许多人觉得在实际意义上是降级。例如,如果有人希望语音助手准确回答琐事、设置提醒、控制设备并从他们的帐户中集成信息,Gemini 表现不佳。这让非常依赖助手提高生产力的繁忙专业人士或小工具爱好者感到他们的需求没有得到满足。一位用户评论说,如果 Pixel 的“Assistant with Bard”“超过 Google 助手”,他们会考虑付费,暗示它还没有。因此,这个群体仍在等待一个可靠、真正有帮助的 AI 助手——如果 Gemini 改进,他们会立即使用。

  • 非母语英语使用者/本地化: Google 产品通常具有出色的本地化,但尚不清楚 Bard/Gemini 在推出时是否在所有语言中同样强大。一些国际用户报告说 Bard 用他们的母语回答的答案不够流利或有用,将他们推回到本地竞争对手。如果 Gemini 的训练数据或优化偏向英语,那么非英语用户未被满足。他们可能更喜欢 ChatGPT 或本地模型,这些模型明确优化了多语言能力。这是 Google 传统上可以擅长的领域(鉴于其翻译技术),但用户对此的反馈很少——可能表明 Gemini 尚未令这些社区惊艳。

  • 企业客户(迄今为止): 大型组织尚未广泛采用 Bard/Gemini,基于公开讨论,通常是因为信任和能力差距。企业需要一致性、引用和与其工作流程的集成(Office 365 通过 MS Copilot 深度集成了 OpenAI 的技术)。Google 的等效产品(Duet AI with Gemini)仍在发展中。直到 Gemini/Bard 证明它可以可靠地起草电子邮件、创建幻灯片或在 Google Sheets 中分析数据,达到或超过 GPT-4 的水平,企业用户会觉得 Google 的解决方案没有完全满足他们的需求。一些 r/Bard 上的专业人士的帖子是这样的:“我尝试过 Bard 进行工作任务,它不如 ChatGPT,所以我们会观望。” 这表明企业用户目前是未被满足的群体——他们想要一个可以插入 Google Workspace 并真正提高生产力的 AI,而无需不断验证输出。

  • 在 Google 生态系统中偏好一站式解决方案的用户: 有一部分用户使用 Google 做所有事情(搜索、电子邮件、文档),如果它一样好,他们会乐意使用 Google AI 满足所有聊天机器人需求。现在,这些用户有些未被满足,因为他们最终在某些事情上使用 ChatGPT,而在其他事情上使用 Bard。他们可能会问 ChatGPT 事实问题,因为他们更信任其答案质量,但使用 Bard 进行其浏览或集成尝试。这种分裂的体验并不理想。这些用户真的只想留在一个应用程序/助手中。如果 Gemini 改进,他们会围绕它整合,但在此之前,他们的“一个助手统治一切”的用例没有得到满足。

  • Google Cloud 上的开发者/数据科学家: Google 确实通过其 Vertex AI 平台发布了 Gemini 模型供开发者使用。然而,早期报告和基准测试表明 Gemini(特别是可用的“Gemini Pro”模型)没有击败 GPT-4。偏好 Google Cloud 进行 AI 服务的开发者因此在模型质量方面有些未被满足——他们要么接受稍微逊色的模型,要么单独集成 OpenAI 的 API。这个企业开发者群体渴望一个强大的 Google 模型,以便他们可以将一切保持在一个堆栈中。直到 Gemini 的性能在某些领域明显超越,或者定价提供了令人信服的理由,它尚未完全满足这个群体的需求。

不同用户类型的感知差异

  • 开发者/技术爱好者: 技术用户对 Gemini 寄予厚望(毕竟是 Google)。他们的感知在动手测试后迅速恶化。许多 Reddit 上的开发者运行基准测试或他们最喜欢的棘手问题通过 Gemini,发现它落后。一位程序员直言不讳地表示,“Gemini 是绝对的垃圾,就像 Llama 3.0 曾经是”,表明他们甚至将其排在一些开放模型之下。开发者对逻辑错误和冗长特别敏感。因此,当 Gemini 给出冗长但不正确的答案时,它很快失去了信誉。另一方面,开发者认识到 Google 的潜力;一些人抱有希望,“通过更多的微调,Gemini 会变得更好”,并在更新后定期重新测试它。目前,然而,大多数开发者认为它在几乎所有严肃任务中劣于 GPT-4(编码、复杂问题解决)。他们确实欣赏某些东西:例如,Gemini 可以访问实时信息(通过 Google 搜索)而无需插件,这对于最新查询很有用。开发者可能会使用 Bard 进行类似“搜索并总结最新论文 X”的事情,在那里它可以引用网络数据。但对于自包含的推理,他们倾向于其他模型。总之,技术爱好者将 Gemini 视为一个有前途的未完成作品,目前感觉落后一代。它尚未赢得他们的完全信任,他们经常发布并排比较,突出其错误以刺激 Google 改进它。

  • 普通/日常用户: 包括那些通过手机或网络获得新 Bard 访问权限的普通用户,感受混杂。许多普通用户最初接触 Bard(Gemini),因为它是免费的,使用 Google 帐户很容易访问,而 GPT-4 是收费的。一些普通用户实际上报告了简单用途的不错体验:例如,r/Bard 中的一位 Reddit 用户给出了积极的评价,指出 Gemini 帮助他们处理法律文件审查、文案写作,甚至是识别照片中的衣服尺码的有趣用例。他们说 “Gemini 一直是回答我问题的宝贵资源……最新信息……我已经习惯了付费版本,以至于我不记得免费版本的表现如何。”——这表明至少一些投入时间(和金钱)到 Bard Advanced 的普通用户发现它在日常生活中有用。这些用户倾向于将其用于实用、日常帮助,可能不会将模型推向极限。然而,许多其他普通用户(尤其是那些也尝试过 ChatGPT 的用户)感到失望。询问旅行建议、琐事或任务帮助的普通人发现 Bard 的答案不够清晰或有用。这里的感知是分裂的:品牌忠诚的 Google 用户已经被 ChatGPT 宠坏的用户。前者群体,如果他们没有太多使用 ChatGPT,有时发现 Bard/Gemini 对他们的需求“相当不错”,并欣赏它与搜索集成且免费。后者群体几乎总是比较并发现 Gemini 不如人意。他们可能会说,“为什么我会使用 Bard,当 ChatGPT 90% 的时间更好?” 因此,普通用户的感知真的取决于他们的先前参考框架。那些对 AI 助手不熟悉的人可能会将 Gemini 评为一个有用的新奇事物;那些对竞争对手有经验的人则将其视为一个失望,“仍然表现得如此糟糕”,需要改进。

  • 商业/专业用户: 许多专业人士在 Google Workspace 集成(Duet AI)推出时试用了 Bard。这个群体的感知是谨慎的怀疑。一方面,他们信任 Google 的企业承诺,关于数据隐私和集成(例如,通过 AI 编辑文档,从日历邀请中总结会议等)。另一方面,早期测试经常显示 Gemini 制造事实错误或提供通用输出,这对商业用途来说并不令人放心。例如,专业人士可能会要求 Bard 起草客户报告——如果 Bard 插入错误数据或弱见解,可能会比帮助更麻烦。因此,专业用户倾向于在非关键任务上试用 Bard,但仍依赖 GPT-4 或 Claude 进行重要输出。还有一种感知是 Google 在追赶:许多人认为 Bard“尚未准备好”,决定等待。一些积极的感知存在于实时数据查询等领域——例如,r/Bard 上的一位金融分析师指出 Bard 可以通过 Google 搜索提取最新市场信息,而 ChatGPT 除非启用插件,否则无法做到。因此,在当前数据是关键的领域,一些专业人士看到了优势。另一个细微差别:在 Google 生态系统中的人(例如,专门使用 Google Workspace 的公司)对其的看法略微更积极,因为 Bard/Gemini 是适合他们环境的选项。他们希望它改进,而不是切换到完全不同的生态系统。总之,商业用户将 Gemini 视为潜在非常有用(鉴于 Google 的数据和工具集成),但截至 2025 年初,它尚未赢得完全信任。他们将其视为“尚未完全准备好的新竞争者”——值得关注,但尚未成为关键任务的首选。Google 的声誉为这个群体赢得了一些耐心,但不是无限的;如果 Gemini 没有显著改进,专业人士可能不会广泛采用它,而是坚持使用其他解决方案。


开源 LLMs(例如基于 LLaMA 的模型)

常见痛点和限制

  • 硬件和设置要求: 与云聊天机器人不同,开源 LLMs 通常需要用户在本地硬件或服务器上运行它们。这立即带来了一个痛点:许多模型(例如,70 亿参数的 LLaMA 模型)需要一个强大的 GPU 和大量 VRAM 才能顺利运行。正如一位 Reddit 用户简洁地说,“在大多数消费者硬件上运行本地 LLMs 不会有复杂开发所需的精度。” 对于只有 8GB 或 16GB GPU(或仅 CPU)的普通人来说,运行高质量模型可能很慢或根本不可行。用户可能会求助于适合的小型模型,但这些模型通常会产生较低质量的输出(“更愚蠢”的响应)。设置的复杂性是另一个问题——安装模型权重、设置环境(如 Oobabooga 或 LangChain)、管理标记化库等,对于非开发者来说可能是令人生畏的。即使是技术娴熟的用户也描述它为跟上新模型版本、GPU 驱动程序怪癖等的麻烦。一篇题为“说真的,你如何实际使用本地 LLMs?”的帖子中,人们分享说许多模型*“要么表现不佳,要么在我的硬件上运行不顺利”*,并寻求实际建议。

  • 性能低于最先进的封闭模型: 开源模型取得了快速进展,但截至 2025 年,许多用户注意到它们在复杂推理、编码和事实准确性方面仍落后于顶级专有模型(GPT-4、Claude)。一个生动的例子:r/LocalLLaMA 上的一位用户在其母语中比较输出并说 “我尝试过的其他模型都失败了……它们甚至接近不了 [GPT-4]。ChatGPT 4 在写作方面绝对令人惊叹”。这种情绪广泛存在:虽然较小的开放模型(如微调的 13B 或 7B)对于其大小来说令人印象深刻,但它们在需要深刻理解或多步骤逻辑的任务中表现不佳。即使是较大的开放模型(65B、70B)接近 GPT-3.5 水平,仍然可能在 GPT-4 处理的棘手问题上绊倒。用户观察到开放模型中更多的幻觉和错误,尤其是在利基知识或提示略微偏离训练分布时。因此,原始能力的差距是一个痛点——使用本地模型时必须降低期望,这对于习惯于 ChatGPT 可靠性的人来说可能令人沮丧。

  • 有限的上下文长度: 大多数开源 LLMs 传统上具有较小的上下文窗口(2048 个标记,可能 4k 个标记),与 ChatGPT 或 Claude 提供的相比。一些较新的微调和架构正在扩展这一点(例如,有 LLaMA-2 的 8K 或 16K 标记版本,研究如 MPT-7B 具有 16K 上下文)。然而,非常长上下文开放模型的实际使用仍处于早期阶段。这意味着本地模型用户面临类似的记忆问题——除非他们实施外部记忆方案(如用于检索的向量数据库),否则模型会忘记对话或文本的早期部分。在 Reddit 讨论中,用户经常提到必须手动总结或截断历史以保持在限制内,这很费力。这是一个显著的限制,特别是因为专有模型正在进一步推动上下文长度(如 Claude 的 100k)。

  • 某些模型中缺乏微调的指令遵循: 虽然许多开放模型经过指令调优(Alpaca、LLaMA-2-Chat 等),但并非所有模型都像 ChatGPT 那样经过严格的 RLHF 训练。这可能导致本地模型有时对指令或系统提示的响应较差。例如,原始 LLaMA 模型只会继续文本,完全忽略用户提示格式——必须使用聊天调优版本。即便如此,调优数据的质量也很重要。一些 Reddit 用户注意到某些指令模型要么过度拒绝(因为它们经过重安全调优,例如一些 Facebook LLaMA-2 聊天会回复类似于 ChatGPT 的政策拒绝)或表现不佳(不精确遵循查询)。GitHub 上关于 CodeLlama-70B-instruct 的用户抱怨说它 “被审查得基本上无用”,显示了对开放模型采用相同严格性而没有关闭它的替代方案的沮丧。因此,根据选择的模型,用户可能会面临要么模型过于松散(并给出不相关的延续),要么过于严格/受限。获得良好的指令遵循行为通常需要尝试多个微调。

  • 碎片化和快速变化: 开源 LLM 领域发展极快,每周都有新模型和技术(量化、LoRA 微调等)出现。虽然令人兴奋,但对于不想不断调整设置的用户来说,这是一个痛点。上个月有效的东西可能在这个月就过时了。一位 Reddit 用户幽默地将其比作狂野西部,称社区正在*“寻找‘假装’它感觉像是类似 [GPT-4]”*,但通常这些是权宜之计。对于普通用户来说,从数十个模型名称(Vicuna、Alpaca、Mythomax、Mistral 等)中选择是令人生畏的,每个都有多个版本和分支。没有一个统一的平台,用户依赖社区指南——这可能会令人困惑——来决定哪个模型适合他们的需求。工具和模型质量的这种碎片化是一个间接的痛点:它提高了进入门槛和维护努力。

  • 没有官方支持或保证: 当本地 LLM 出现问题时(例如,模型输出冒犯性内容或崩溃),没有客户支持可以求助。用户只能依靠自己或社区帮助。对于爱好者来说,这很好,但对于专业用途来说,这种缺乏正式支持是一个障碍。一些在公司工作的 Reddit 用户指出,虽然他们喜欢开放模型的隐私,但他们担心如果模型出现故障或需要更新时该找谁。基本上,使用开源是 DIY——既是优点也是缺点。

常见请求的功能或改进

  • 更好的效率(量化和优化): 社区的一个主要关注点(因此是一个常见请求)是让大型模型在较小的硬件上运行。用户热切期待能够让 70B 模型像 7B 模型一样顺畅运行的技术。已经有 4 位或 8 位量化,线程经常讨论新的方法,如 AWQ 或类似 RNN 的适配器。一位用户引用研究表明改进的量化可以在较低的位精度下保持质量。愿望本质上是:“让我在我的 PC 上运行一个 GPT-4 级别的模型而不卡顿。” 每一个接近的突破(如更高效的变压器架构或 GPU 卸载到 CPU)都受到庆祝。因此,对更好的工具(如下一代 llama.cpp 或其他加速器)的请求很常见——任何减少硬件障碍的东西。

  • 更大和更好的模型(缩小质量差距): 社区不断推动新的最先进开放模型。用户对 LLaMA 3 等项目(如果/当 Meta 发布一个)或可能产生 100B+ 开放模型的合作感到兴奋。许多人对*“到今年年底我们将在我们的机器上拥有本地 GPT-4 模型”*感到乐观。在那句话中,用户押注 LLaMA 3 加上微调可以提供 GPT-4 级别的性能。因此,可以说“请求的功能”只是:更多权重,更多训练——社区希望科技公司或研究小组开源更大、更好的模型,以便他们可以本地运行它们。每次新模型(如 Mistral 7B 或 Falcon 40B)出现时,用户都会测试它是否击败了上一个。最终请求是一个真正与 GPT-4 竞争的开放模型,消除了那些可以托管它的人对封闭 AI 的需求。

  • 用户友好的界面和一键设置: 为了扩大采用,许多用户要求更简单的方法来使用本地 LLMs。这包括 GUI 界面,用户可以在其中下载模型并开始聊天,而无需命令行工作。有项目正在解决这一问题(Oobabooga 的 text-generation-webui、LM Studio 等),但新手仍然感到困难。最近的 Reddit 线程可能会问,“如何在本地设置一个类似 ChatGPT 的 LLM?”,用户请求分步指南。因此,一个频繁的愿望是简化安装——也许是一个官方应用程序或 Docker 容器,捆绑所有需要的东西,或者集成到流行软件中(想象一个扩展,将本地 LLM 引入 VSCode 或 Chrome 中)。基本上,减少技术开销,以便不太精通技术的人也能享受私人 LLMs。

  • 更长的上下文和本地模型的记忆: 开源开发者和用户正在尝试扩展上下文(通过位置嵌入调整或专用模型)。许多用户请求新模型默认具有更长的上下文窗口——例如,一个具有 32k 上下文的开放模型将非常有吸引力。在此之前,一些人依赖于外部“检索”解决方案(LangChain 与向量存储一起提供相关信息到提示中)。r/LocalLLaMA 上的用户经常讨论他们的伪长上下文设置,但也表达了对模型本身处理更多的愿望。因此,他们寻求的改进是:“给我们一个本地 Claude——一个具有数万标记上下文的东西。” 这将允许他们在本地进行书籍分析、长对话或大型代码库工作。

  • 改进的微调工具和模型定制: 另一个要求是使微调或个性化模型更容易。虽然存在用于在新数据上微调模型的库(Alpaca 用 52K 指令完成,低秩适应(LoRA)允许有限计算的微调等),但仍然有些复杂。用户希望有更多可访问的工具,例如,提供他们所有的写作或公司文档给模型并让其适应。LoRA 等项目是朝这个方向迈出的一步,但更自动化的解决方案(也许是一个向导 UI:“在这里上传您的文档以进行微调”)将受到欢迎。基本上,将 OpenAI 通过 API 提供的能力(在自定义数据上微调模型)带到本地领域,以用户友好的方式。

  • 社区驱动的安全和审核工具: 鉴于开放模型可以产生任何内容(包括不允许的内容),一些用户请求或开始开发用户可以切换或调整的审核层。这有点小众,但想法是拥有可选的过滤器,以捕捉如果有人想要的极端输出(例如,如果孩子或学生可能在本地与模型互动)。由于开放模型不会自行停止,拥有一个插件或脚本来扫描输出以查找极端内容可能会有用。社区中的一些人正在开发“道德护栏”,您可以选择加入,这很有趣,因为它赋予用户控制权。因此,围绕控制模型行为的功能——无论是为了使其更安全还是移除安全——经常被讨论和请求,具体取决于用户的目标。

未满足的需求或用户群体

  • 重视隐私的非技术用户: 目前,本地 LLMs 主要迎合技术爱好者。一个不精通计算机但关心数据隐私的人(例如,想要 AI 帮助分析笔记但无法将其上传到云的心理治疗师)未被满足。他们需要一个简单且安全的本地解决方案,但复杂性是一个障碍。在本地 AI 变得像安装应用程序一样容易之前,这些用户仍然处于边缘——要么妥协使用云 AI 并冒隐私风险,要么根本不使用 AI。这个群体——注重隐私但不太技术的个人——显然未被当前的开源产品满足。

  • 预算有限的用户在互联网不佳的地区: 另一个受益于本地模型的群体是没有可靠互联网或无法负担 API 调用的人。如果有人可以在低端机器上获得一个不错的离线聊天机器人,那将是有价值的(想象一下偏远地区的教育工作者或学生)。目前,离线质量可能不够好,除非你有高端 PC。有一些非常小的模型可以在手机上运行,但它们的能力有限。因此,需要离线 AI 的用户——由于连接或成本——是一个开源可以服务的群体,但当前的模型可能在弱设备上太慢。他们将随着模型变得更高效而得到更好的服务。

  • NSFW 或专业内容的创作者: 开放模型流行的一个原因是它们可以不受审查,支持封闭 AI 禁止的用例(色情角色扮演、探索暴力小说等)。虽然这个“未被满足”的群体有争议,但它是真实存在的——许多 Reddit 社区(例如,AI Dungeon 或角色聊天机器人)在 OpenAI 和其他公司收紧内容规则后转向本地模型。这些用户现在部分依赖于开放模型,但他们通常必须找到或微调专门用于此目的的模型(如 Mythomax 用于讲故事等)。他们偶尔会抱怨许多开放模型仍然有安全训练的残余(拒绝某些请求)。因此,他们希望明确调整用于不受审查创意的模型。可以说他们正在被服务(因为他们有解决方案),但不是通过主流默认设置——他们依赖于小众社区分支。

  • 语言和文化社区: 开源模型可以针对特定语言或本地知识进行微调,但大多数知名模型都是以英语为中心的。来自非英语社区的用户可能未被满足,因为 OpenAI 或开放模型都不能完美地满足他们的语言/俚语/文化背景。有努力(如 BLOOM 和 XLM 变体)构建多语言开放模型,本地用户请求西班牙语、阿拉伯语等语言的微调。如果有人想要一个在他们的区域方言中流利或在他们的语言中了解最新本地新闻的聊天机器人,主要模型可能无法提供。这是一个开放模型可以很好服务的群体(通过社区微调)——在 Reddit 上我们确实看到人们合作,例如,开发一个日语调优的 LLM。但在此类模型普遍可用且高质量之前,这些用户仍然有些未被满足。

  • 小企业和自托管者: 一些小公司或高级用户希望在内部部署 AI 模型,以避免发送数据出去。他们在某种程度上被开源服务,因为这是可能的,但他们在确保质量和维护方面面临挑战。与大企业不同(可以支付 OpenAI 或托管解决方案),小企业可能尝试自托管以节省成本并保护知识产权。当他们这样做时,他们可能会发现模型不如预期,或者很难保持更新。这个群体处于中间地带——不够大,无法从头开始构建自己的模型,但足够有能力尝试使用开放模型。他们经常在 Reddit 上分享关于哪个模型适合客户服务机器人的提示等。他们可以从更多基于开放模型的即用型解决方案中受益(一些初创公司正在这个领域出现)。

不同用户类型的感知差异

  • 开发者/爱好者: 这个群体是 Reddit 上开源 LLM 社区的支柱(例如,r/LocalLLaMA 充满了他们)。他们的感知通常是乐观和热情的。他们像收藏家一样交换模型和基准。许多开发者对开放模型在短时间内取得的进展感到兴奋。例如,一位用户分享说,一个泄露的 70B 模型经过微调(Miqu-1 70B)感觉*“对于我需要的东西来说与 GPT-4 相当……我几个月前取消了我的 ChatGPT+ 订阅,从未回头”。这体现了设法定制一个满足个人用例的开放解决方案的开发者子集——他们将开放模型视为解放和节省成本。另一方面,开发者对限制有清醒的认识。另一位用户回应说他们很想取消 ChatGPT,“如果有任何东西可以与 ChatGPT 4 相比……[但]其他模型都失败了……它们接近不了”*,特别提到创意写作质量。因此,在这个群体中,感知因他们使用 AI 的目的而异。一般来说:如果任务是头脑风暴或编码,容忍一些错误,许多开发者已经对本地模型感到满意。如果任务是高风险准确性或顶级创意,他们承认开放模型尚未达到。但即使承认不足,语气是充满希望的——他们经常说“我们几乎到了”或只是时间问题。重要的是,开发者享受开放模型的自由和控制。他们可以调整、微调,甚至窥探模型的工作原理,而封闭的 API 不允许这样做。这培养了一种社区所有权感。因此,他们的感知是开放 LLMs 是一个值得的努力,快速改进,并在哲学上与技术自由一致。他们接受粗糙的边缘作为这种自由的代价。

  • 普通用户: 纯普通用户(不是特别注重隐私或技术)通常根本不麻烦使用开源 LLMs——如果他们这样做,也是通过一些简化的应用程序。因此,他们的感知有些缺席或由传闻塑造。如果一个非技术人员尝试一个本地 LLM,它很慢或给出奇怪的答案,他们可能会得出结论,它不值得麻烦。例如,一个游戏玩家或学生可能会出于乐趣尝试一个 7B 模型,看到它与 ChatGPT 相比表现不佳,然后放弃。因此,在普通观察者中,开放模型的感知可能是*“极客的玩具”*或仅适用于那些真正关心不使用云服务的人。这种情况正在慢慢改变,因为更多用户友好的应用程序出现,但总体上典型的普通用户在 Reddit 上并不热衷于开放 LLMs——他们通常在讨论 ChatGPT 或 Bard,因为这些是可访问的。也就是说,主要想要不受审查角色扮演的普通用户子集已经学会下载类似 TavernAI 的东西,并且他们将其视为适合那个特定用途的好东西。他们甚至可能不知道模型的名称(只知道它是一个“不会评判我的不受审查的 AI”)。总之,普通用户的平均感知要么是冷漠(他们没有尝试过),要么是开放源码对于日常使用来说有点太原始和复杂。

  • 商业/专业用户: 专业用户对开放 LLMs 的态度是务实的。一些

伟大的 AI 隐私平衡:全球公司如何在新的 AI 环境中航行

· 一分钟阅读
Lark Birdy
Chief Bird Officer

在 AI 监管的世界中,出现了一个意想不到的转变:传统公司,而不仅仅是科技巨头,发现自己处于欧洲 AI 隐私辩论的中心。虽然头条新闻经常关注像 Meta 和 Google 这样的公司,但更具启发性的是主流全球公司如何在 AI 部署和数据隐私的复杂环境中航行。

AI 隐私平衡

AI 监管的新常态

爱尔兰数据保护委员会(DPC)已成为欧洲最具影响力的 AI 隐私监管机构,通过欧盟的《通用数据保护条例》(GDPR)行使非凡的权力。作为大多数主要科技公司在都柏林设有欧洲总部的主要监督机构,DPC 的决定在全球科技领域引起了连锁反应。在 GDPR 的一站式机制下,DPC 关于数据保护的裁决可以有效地约束公司在所有 27 个欧盟成员国的运营。罚款高达全球年收入的 4% 或 2000 万欧元(以较高者为准),DPC 对 AI 部署的加强监督不仅仅是另一个监管障碍——它正在重塑全球公司对 AI 开发的态度。这种审查超越了传统的数据保护,进入了新领域:公司如何训练和部署 AI 模型,特别是在将用户数据重新用于机器学习时。

这尤其有趣的是,许多这些公司并不是传统的科技玩家。他们是使用 AI 来改善运营和客户体验的成熟公司——从客户服务到产品推荐。这正是他们的故事重要的原因:他们代表了每家公司都将成为 AI 公司的未来。

Meta 效应

要理解我们如何走到这一步,我们需要看看 Meta 最近的监管挑战。当 Meta 宣布他们使用公共 Facebook 和 Instagram 帖子来训练 AI 模型时,引发了一连串反应。DPC 的反应迅速而严厉,有效地阻止了 Meta 在欧洲数据上训练 AI 模型。巴西迅速跟进。

这不仅仅是关于 Meta。它创造了一个新的先例:任何使用客户数据进行 AI 训练的公司,即使是公共数据,也需要谨慎行事。“快速行动并打破常规”的日子已经过去,至少在 AI 和用户数据方面是如此。

新的企业 AI 策略

全球公司如何应对的特别启发之处在于他们正在形成的负责任 AI 开发框架:

  1. 预先简报监管机构:公司现在在部署重要 AI 功能之前主动与监管机构接触。虽然这可能会减缓开发速度,但它创造了一条可持续的前进道路。

  2. 用户控制:实施强大的选择退出机制,使用户能够控制他们的数据在 AI 训练中的使用方式。

  3. 去识别化和隐私保护:采用差分隐私和复杂的去识别技术等技术解决方案来保护用户数据,同时仍然能够进行 AI 创新。

  4. 文档和理由说明:广泛的文档和影响评估正在成为开发过程的标准部分,创造了问责制和透明度。

前进的道路

让我感到乐观的是:我们正在看到负责任 AI 开发的实用框架的出现。是的,有新的约束和流程需要导航。但这些护栏并没有阻止创新——它们正在以更可持续的方式引导创新。

那些正确理解这一点的公司将拥有显著的竞争优势。他们将与用户和监管机构建立信任,从而在长期内更快地部署 AI 功能。早期采用者的经验告诉我们,即使在强烈的监管审查下,也可以在尊重隐私问题的同时继续进行 AI 创新。

这对未来意味着什么

影响远远超出了科技行业。随着 AI 的普及,每家公司都需要应对这些问题。那些蓬勃发展的公司将是那些:

  • 从第一天起就在 AI 开发中构建隐私考虑因素
  • 投资于数据保护的技术解决方案
  • 创建用户控制和数据使用的透明流程
  • 与监管机构保持开放对话

更大的图景

这里发生的事情不仅仅是关于合规或监管。这是关于构建人们可以信任的 AI 系统。这对于 AI 技术的长期成功至关重要。

那些将隐私法规视为设计约束而不是障碍的公司将在这个新时代中取得成功。他们将构建更好的产品,赢得更多的信任,并最终创造更多的价值。

对于那些担心隐私法规会扼杀 AI 创新的人,早期的证据表明情况并非如此。它告诉我们,通过正确的方法,我们可以同时拥有强大的 AI 系统和强大的隐私保护。这不仅仅是良好的道德——这也是良好的商业。

环境:AI 与 Web3 的交汇点 - 当前市场整合的关键分析

· 一分钟阅读
Lark Birdy
Chief Bird Officer

随着技术的发展,很少有趋势能像人工智能(AI)和 Web3 一样具有变革性和相互关联性。近年来,行业巨头和初创企业都在努力将这些技术融合在一起,以重塑不仅是金融和治理模式,还有创意生产的格局。AI 和 Web3 的整合在其核心挑战现状,承诺提高运营效率、增强安全性和创新商业模式,将权力重新交还给创作者和用户。该报告分解了当前的市场整合,审视了关键案例研究,并讨论了这一融合的机遇和挑战。始终保持前瞻性、数据驱动且批判性的视角,这将引起聪明、成功的决策者和创新创作者的共鸣。

环境:AI 与 Web3 的交汇点 - 当前市场整合的关键分析

引言

数字时代以不断的重塑为特征。随着去中心化网络(Web3)的出现和人工智能的快速加速,我们与技术的互动方式正在被彻底重塑。Web3 的用户控制和区块链支持的信任承诺现在与 AI 的分析能力和自动化能力形成了独特的互补。这种联盟不仅是技术上的——它也是文化和经济上的,重新定义了从金融和消费者服务到艺术和沉浸式数字体验的行业。

在 Cuckoo Network,我们的使命是通过去中心化 AI 工具推动创意革命,这种整合为建设者和创作者打开了一个充满活力的生态系统。我们正在见证一种环境转变,创造力成为艺术、代码和智能自动化的结合体——为任何人都能利用去中心化 AI 的磁力铺平了道路。在这种环境中,AI 驱动的艺术生成和去中心化计算资源等创新不仅提高了效率;它们正在重塑数字文化的基本结构。

AI 和 Web3 的融合:协作项目和市场动向

关键举措和战略合作伙伴关系

最近的发展突显了跨学科合作加速的趋势:

  • 德国电信和 Fetch.ai 基金会的合作伙伴关系: 在一个象征传统电信与下一代科技初创公司融合的举动中,德国电信的子公司 MMS 于 2024 年初与 Fetch.ai 基金会合作。通过在去中心化网络中部署 AI 驱动的自主代理作为验证者,他们旨在提高去中心化服务的效率、安全性和可扩展性。这一举措向市场发出了明确的信号:将 AI 与区块链结合可以改善去中心化网络的运营参数和用户信任。了解更多

  • Petoshi 和 EMC 协议的合作: 同样,Petoshi——一个“点击赚钱”平台——与 EMC 协议联手。他们的合作重点是帮助开发者弥合 AI 驱动的去中心化应用程序(dApps)与运行它们所需的计算能力之间的差距。作为快速扩展的 dApp 生态系统中可扩展性挑战的解决方案,这一合作伙伴关系突显了当由 AI 驱动时,性能如何显著提升创意和商业活动。发现整合

  • 行业对话: 在 2024 年纽约 Axios BFD 等重大活动中,以太坊联合创始人 Joseph Lubin 等行业领袖强调了 AI 和 Web3 的互补角色。这些讨论巩固了这样一种观念:虽然 AI 可以通过个性化内容和智能分析推动参与,但 Web3 提供了一个安全、用户管理的空间,让这些创新蓬勃发展。查看活动回顾

风险投资和投资趋势

投资趋势进一步揭示了这种融合:

  • AI 投资激增: 2023 年,AI 初创公司获得了大量支持——推动美国风险投资资金增加了 30%。值得注意的是,OpenAI 和 Elon Musk 的 xAI 等公司的主要融资轮次突显了投资者对 AI 颠覆性潜力的信心。预计主要科技公司将在 2024 年及以后将 AI 相关项目的资本支出推至 2000 亿美元以上。路透社

  • Web3 资金动态: 相反,Web3 行业在 2023 年第一季度的风险投资中面临暂时下滑——下跌 79%,这一低迷被视为调整而非长期下降。尽管如此,2023 年的总融资达到了 90.43 亿美元,大量资金流入企业基础设施和用户安全。比特币的强劲表现,包括 160% 的年度增长,进一步证明了区块链领域的市场韧性。RootData

这些趋势共同描绘了一幅技术生态系统的图景,其中的动能正转向在去中心化框架中整合 AI——这一策略不仅解决了现有的效率问题,还解锁了全新的收入来源和创意潜力。

AI 和 Web3 融合的好处

增强的安全性和去中心化数据管理

将 AI 与 Web3 整合的最引人注目的好处之一是对安全性和数据完整性的深远影响。AI 算法嵌入在去中心化网络中时,可以监控和分析区块链交易,实时识别和阻止欺诈活动。异常检测、自然语言处理(NLP)和行为分析等技术用于识别异常,确保用户和基础设施的安全。例如,AI 在保护智能合约免受重入攻击和上下文操纵等漏洞方面的作用在保护数字资产方面被证明是无价的。

此外,去中心化系统依赖于透明性。Web3 的不可变账本为 AI 决策提供了可审计的记录,有效地揭开了许多算法“黑箱”的神秘面纱。这种协同作用在创意和金融应用中尤为重要,因为信任是一种关键货币。了解更多关于 AI 增强安全性的信息

革新运营效率和可扩展性

AI 不仅是安全的工具——它是运营效率的强大引擎。在去中心化网络中,AI 代理可以优化计算资源的分配,确保工作负载平衡并最大限度地减少能源消耗。例如,通过预测交易验证的最佳节点,AI 算法提高了区块链基础设施的可扩展性。这种效率不仅降低了运营成本,还为区块链环境中的可持续实践铺平了道路。

此外,随着平台寻求利用分布式计算能力,Petoshi 和 EMC 协议之间的合作伙伴关系展示了 AI 如何简化去中心化应用程序访问计算资源的方式。这种能力对于快速扩展和在用户采用增长时保持服务质量至关重要——这是开发人员和企业希望构建强大 dApps 的关键因素。

变革性的创意应用:艺术、游戏和内容自动化的案例研究

也许最令人兴奋的前沿是 AI 和 Web3 融合对创意产业的变革性影响。让我们探索一些案例研究:

  1. 艺术和 NFT: 平台如 Art AI 的“Eponym”已经在数字艺术世界掀起了风暴。最初作为电子商务解决方案推出,Eponym 转向 Web3 模式,使艺术家和收藏家能够在以太坊区块链上铸造 AI 生成的艺术作品作为不可替代的代币(NFT)。仅在 10 小时内,该平台就创造了 300 万美元的收入,并在二级市场上产生了超过 1600 万美元的交易量。这一突破不仅展示了 AI 生成艺术的财务可行性,还通过去中心化艺术市场实现了创意表达的民主化。阅读案例研究

  2. 内容自动化: 领先的开发者平台 Thirdweb 展示了 AI 在扩展内容生产中的实用性。通过整合 AI 将 YouTube 视频转化为 SEO 优化指南,从客户反馈生成案例研究,并制作引人入胜的新闻通讯,Thirdweb 实现了内容输出和 SEO 性能的十倍增长。对于希望放大数字存在而不成比例增加手动努力的创意专业人士来说,这种模式尤其具有共鸣。发现影响

  3. 游戏: 在游戏的动态领域,去中心化和 AI 正在打造沉浸式、不断发展的虚拟世界。一个 Web3 游戏集成了多代理 AI 系统,自动生成新的游戏内内容——从角色到广阔的环境。这种方法不仅增强了游戏体验,还减少了对持续人类开发的依赖,确保游戏可以随着时间的推移有机地发展。查看集成

  4. 数据交换和预测市场: 除了传统的创意应用,数据中心平台如 Ocean Protocol 使用 AI 分析共享的供应链数据,优化运营并为各行业的战略决策提供信息。类似地,预测市场如 Augur 利用 AI 从多样化来源中稳健地分析数据,提高事件结果的准确性——这反过来又增强了对去中心化金融系统的信任。探索更多示例

这些案例研究作为具体证据表明,去中心化 AI 的可扩展性和创新潜力不限于一个行业,而是在创意、金融和消费者领域产生了连锁反应。

挑战和考虑

虽然 AI 和 Web3 整合的前景广阔,但有几个挑战需要仔细考虑:

数据隐私和监管复杂性

Web3 因其对数据所有权和透明度的强调而受到赞誉。然而,AI 的成功依赖于对大量数据的访问——这一要求可能与隐私保护的区块链协议相冲突。随着政府努力在创新与消费者保护之间取得平衡,SAFE 创新框架等倡议和 Bletchley 宣言等国际努力正在为谨慎而协调的监管行动铺平道路。了解更多关于监管努力的信息

去中心化世界中的中心化风险

最矛盾的挑战之一是 AI 开发的潜在中心化。尽管 Web3 的精神是分散权力,但许多 AI 创新集中在少数大型科技公司手中。这些开发的中心枢纽可能无意中在本质上去中心化的网络上施加等级结构,破坏透明度和社区控制等核心 Web3 原则。解决这一问题需要开源努力和多样化的数据来源,以确保 AI 系统保持公平和无偏。发现更多见解

技术复杂性和能源消耗

将 AI 集成到 Web3 环境中绝非易事。结合这两个复杂的系统需要大量的计算资源,这反过来又引发了对能源消耗和环境可持续性的担忧。开发人员和研究人员正在积极探索节能的 AI 模型和分布式计算方法,但这些仍然是初步研究领域。关键将是在创新与可持续性之间取得平衡——这一挑战需要持续的技术改进和行业合作。

去中心化 AI 在创意领域的未来

AI 和 Web3 的融合不仅是技术升级;它是一种范式转变——涉及文化、经济和创意维度。在 Cuckoo Network,我们通过去中心化 AI 激发乐观的使命指向一个未来,在这个未来中,创意专业人士将获得前所未有的好处:

赋能创作者经济

想象一个世界,每个创意个体都能获得强大的 AI 工具,这些工具与支持它们的去中心化网络一样民主。这是 Cuckoo Chain 等平台的承诺——一个去中心化的基础设施,允许创作者使用个人计算资源生成令人惊叹的 AI 艺术、参与丰富的对话体验,并为下一代 Gen AI 应用程序提供动力。在去中心化的创意生态系统中,艺术家、作家和建设者不再受制于中心化平台。相反,他们在一个由社区管理的环境中运作,在那里创新被更公平地分享和货币化。

弥合技术与创意之间的差距

AI 和 Web3 的整合正在消除技术与艺术之间的传统界限。随着 AI 模型从庞大的去中心化数据集中学习,它们不仅在理解创意输入方面变得更好,而且在生成推动传统艺术界限的输出方面也变得更好。这种演变正在创造一种新的数字工艺——在这种工艺中,创造力通过 AI 的计算能力和区块链的透明性得到增强,确保每个创作都是创新的并且可以证明是正宗的。

新颖视角和数据支持分析的角色

在我们探索这一前沿时,必须不断评估新模型和整合的创新性和有效性。市场领导者、风险投资趋势和学术研究都指向一个事实:AI 和 Web3 的整合正处于初期但爆炸性的阶段。我们的分析支持这样一种观点:尽管存在数据隐私和中心化风险等挑战,但去中心化 AI 推动的创意爆发将为前所未有的经济机会和文化转变铺平道路。保持领先需要结合实证数据,仔细审查现实世界的结果,并确保监管框架支持而不是扼杀创新。

结论

AI 和 Web3 的环境融合是技术前沿最有前途和颠覆性的趋势之一。从增强安全性和运营效率到民主化创意生产和赋能新一代数字工匠,这些技术的整合正在跨行业转型。然而,展望未来,道路并非没有挑战。解决监管、技术和中心化问题将是充分利用去中心化 AI 潜力的关键。

对于创作者和建设者来说,这种融合是一种号召——一种重新想象一个去中心化系统不仅赋能创新而且推动包容性和可持续性的世界的邀请。通过利用 AI 增强去中心化的新兴范式,我们可以构建一个既安全高效又充满创意和乐观的未来。

随着市场继续发展,新的案例研究、战略合作伙伴关系和数据支持的证据不断涌现,有一件事是明确的:AI 和 Web3 的交汇点不仅仅是一个趋势——它是下一波数字创新的基石。无论您是经验丰富的投资者、科技企业家还是富有远见的创作者,现在是拥抱这一范式的时刻。

请继续关注,我们将继续推进,探索这一激动人心的整合的每一个细微差别。在 Cuckoo Network,我们致力于通过去中心化 AI 技术让世界更加乐观,并邀请您加入我们这段变革之旅。


参考文献:


通过承认这一融合的机遇和挑战,我们不仅为未来做好准备,还激发了一场向更去中心化和创意数字生态系统的运动。

机器中的设计师:AI 如何重塑产品创作

· 一分钟阅读
Lark Birdy
Chief Bird Officer

我们正在见证数字创作的巨大变革。产品设计和开发不再仅仅依赖于手动和人力驱动的过程。如今,AI 不仅在自动化任务,它正在成为一个创意伙伴,改变我们设计、编码和个性化产品的方式。

但这对设计师、开发者和创始人意味着什么?AI 是威胁还是超级力量?哪些工具真正有效?让我们一探究竟。

新的 AI 设计栈:从概念到代码

AI 正在重塑产品创作的每一个阶段。以下是具体方式:

1. UI/UX 生成:从空白画布到提示驱动设计

像 Galileo AI 和 Uizard 这样的工具可以在几秒钟内将文本提示转化为完整的 UI 设计。例如,一个像 “设计一个现代约会应用的主屏幕” 的提示可以生成一个起点,让设计师摆脱空白画布的困扰。

这将设计师的角色从像素推动者转变为提示工程师和策展人。Figma 和 Adobe 等平台也在整合 AI 功能(例如,智能选择,自动布局)以简化重复任务,让设计师专注于创造力和精细化。

2. 代码生成:AI 作为您的编码伙伴

GitHub Copilot 被超过 130 万开发者使用,展示了 AI 对编码的影响。它不仅仅是自动补全行——它基于上下文生成整个函数,将生产力提高了 55%。开发者将其描述为一个不知疲倦的初级程序员,熟悉每个库。

像 Amazon 的 CodeWhisperer(适合 AWS 环境)和 Tabnine(注重隐私)这样的替代方案提供定制化解决方案。结果是?工程师花更少的时间在样板代码上,更多时间解决独特问题。

3. 测试和研究:预测用户行为

像 Attention Insight 和 Neurons 这样的 AI 工具在测试开始前预测用户交互,生成热图并识别潜在问题。对于定性洞察,MonkeyLearn 和 Dovetail 等平台可以大规模分析用户反馈,在几分钟内揭示模式和情感。

4. 个性化:大规模定制体验

AI 正在将个性化超越推荐。像 Dynamic Yield 和 Adobe Target 这样的工具使界面能够根据用户行为动态调整——重新组织导航,调整通知等。这种定制化水平曾经是科技巨头的专属,现在小团队也可以实现。

现实世界的影响:速度、规模和创造力

1. 更快的迭代

AI 大幅压缩时间表。创始人报告从概念到原型仅需几天而非几周。这种速度鼓励实验,降低失败成本,促进更大胆的创新。

2. 以少做多

AI 作为一个力量倍增器,使小团队能够实现曾经需要更大团队才能完成的工作。设计师可以在创造一个概念的时间内探索多个概念,而开发者可以更高效地维护代码库。

3. 新的创意合作

AI 不仅仅执行任务——它提供新颖的视角。正如一位设计师所说,“AI 提出我从未考虑过的方法,打破了我的思维定势。”这种合作关系放大了人类的创造力,而不是取代它。

AI 无法取代的:人类的优势

尽管 AI 具备能力,但在关键领域仍显不足:

  1. 战略思维:AI 无法定义业务目标或深入理解用户需求。
  2. 同理心:它无法理解设计的情感影响。
  3. 文化背景:AI 生成的设计往往感觉通用,缺乏人类设计师带来的文化细微差别。
  4. 质量保证:AI 生成的代码可能包含细微的错误或漏洞,需要人类监督。

最成功的团队视 AI 为增强,而非自动化——处理常规任务,而人类专注于创造力、判断力和连接。

团队的实际步骤

  1. 从小处开始:在将 AI 整合到关键工作流之前,先将其用于构思和低风险任务。
  2. 掌握提示工程:编写有效提示正变得与传统设计或编码技能一样重要。
  3. 审查 AI 输出:建立协议以验证 AI 生成的设计和代码,尤其是对安全关键功能。
  4. 衡量影响:跟踪迭代速度和创新输出等指标,以量化 AI 的好处。
  5. 混合方法:在 AI 擅长的地方使用它,但不要强迫它进入更适合传统方法的任务。

接下来是什么?AI 在设计中的未来

  1. 更紧密的设计-开发集成:工具将弥合 Figma 和代码之间的差距,实现从设计到功能组件的无缝过渡。
  2. 上下文感知 AI:未来的工具将使设计与品牌标准、用户数据和业务目标保持一致。
  3. 激进的个性化:界面将动态适应个别用户,重新定义我们与软件的交互方式。

结论:增强的创造者

AI 并没有取代人类的创造力——它正在进化。通过处理常规任务和扩展可能性,AI 让设计师和开发者专注于真正重要的事情:创造与人类需求和情感产生共鸣的产品。

未来属于增强的创造者——那些将 AI 作为合作伙伴,结合人类的创造力和机器智能来构建更好、更快、更有意义的产品。

随着 AI 的进步,人类元素变得不是不重要,而是更加关键。技术在变化,但与用户连接的需求始终如一。这是一个值得拥抱的未来。

打破 AI 上下文障碍:理解模型上下文协议

· 一分钟阅读
Lark Birdy
Chief Bird Officer

我们经常谈论更大的模型、更大的上下文窗口和更多的参数。但真正的突破可能根本不在于规模。模型上下文协议 (MCP) 代表了一种范式转变,改变了 AI 助手与周围世界互动的方式,而这一切正在发生。

MCP 架构

AI 助手的真正问题

这是每个开发者都知道的场景:你在使用 AI 助手调试代码,但它无法查看你的代码库。或者你询问市场数据,但它的知识已经过时几个月。根本的限制不是 AI 的智能,而是它无法访问真实世界。

大型语言模型 (LLM) 就像被锁在房间里的聪明学者,只有他们的训练数据陪伴。无论他们变得多聪明,他们都无法查看当前的股票价格、查看你的代码库或与工具互动。直到现在。

引入模型上下文协议 (MCP)

MCP 从根本上重新构想了 AI 助手与外部系统的互动方式。与其试图在越来越大的参数模型中塞入更多上下文,MCP 创造了一种标准化的方法,让 AI 可以根据需要动态访问信息和系统。

架构优雅而强大:

  • MCP 主机:像 Claude Desktop 这样的程序或工具,AI 模型在其中操作并与各种服务互动。主机为 AI 助手提供运行时环境和安全边界。

  • MCP 客户端:AI 助手中的组件,发起请求并处理与 MCP 服务器的通信。每个客户端维护一个专用连接,以执行特定任务或访问特定资源,管理请求-响应周期。

  • MCP 服务器:轻量级、专门化的程序,公开特定服务的能力。每个服务器都专门用于处理一种类型的集成,无论是通过 Brave 搜索网络、访问 GitHub 仓库还是查询本地数据库。这里有开源服务器

  • 本地和远程资源:MCP 服务器可以访问的底层数据源和服务。本地资源包括计算机上的文件、数据库和服务,而远程资源则包括服务器可以安全连接的外部 API 和云服务。

可以将其视为为 AI 助手提供了一个 API 驱动的感官系统。与其在训练期间尝试记住所有内容,它们现在可以查询所需的信息。

为什么这很重要:三个突破

  1. 实时智能:AI 助手不再依赖过时的训练数据,而是可以从权威来源获取当前信息。当你询问比特币的价格时,你得到的是今天的数字,而不是去年的。
  2. 系统集成:MCP 使得与开发环境、业务工具和 API 的直接互动成为可能。你的 AI 助手不仅仅是在谈论代码——它实际上可以查看和与代码库互动。
  3. 设计安全性:客户端-主机-服务器模型创建了明确的安全边界。组织可以实施细粒度的访问控制,同时保持 AI 辅助的好处。不再需要在安全性和能力之间做出选择。

眼见为实:MCP 的实际应用

让我们使用 Claude Desktop App 和 Brave Search MCP 工具设置一个实际示例。这将使 Claude 能够实时搜索网络:

1. 安装 Claude Desktop

2. 获取一个 Brave API 密钥

3. 创建一个配置文件

open ~/Library/Application\ Support/Claude
touch ~/Library/Application\ Support/Claude/claude_desktop_config.json

然后将文件修改为如下内容:


{
"mcpServers": {
"brave-search": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-brave-search"
],
"env": {
"BRAVE_API_KEY": "YOUR_API_KEY_HERE"
}
}
}
}

4. 重新启动 Claude Desktop App

在应用程序的右侧,你会注意到两个新的工具(在下图中的红色圆圈中突出显示),用于使用 Brave Search MCP 工具进行互联网搜索。

一旦配置完成,转换是无缝的。询问 Claude 关于曼联最近的比赛,而不是依赖过时的训练数据,它会执行实时网络搜索以提供准确、最新的信息。

更大的图景:为什么 MCP 改变一切

这里的影响远远超出了简单的网络搜索。MCP 为 AI 辅助创造了一个新的范式:

  1. 工具集成:AI 助手现在可以使用任何具有 API 的工具。想想 Git 操作、数据库查询或 Slack 消息。
  2. 现实基础:通过访问当前数据,AI 的响应变得基于现实而非训练数据。
  3. 可扩展性:协议设计用于扩展。随着新工具和 API 的出现,它们可以快速集成到 MCP 生态系统中。

MCP 的未来

我们只是看到了 MCP 可能性的开始。想象一下 AI 助手可以:

  • 获取和分析实时市场数据
  • 直接与开发环境互动
  • 访问和总结公司内部文档
  • 在多个业务工具之间协调以自动化工作流程

前进的道路

MCP 代表了我们对 AI 能力思考方式的根本转变。与其构建具有更大上下文窗口的更大模型,我们正在创造更智能的方法,让 AI 与现有系统和数据互动。

对于开发者、分析师和技术领导者来说,MCP 为 AI 集成开辟了新的可能性。这不仅仅是关于 AI 知道什么,而是关于它能做什么。

AI 的真正革命可能不是让模型变得更大,而是让它们更具连接性。随着 MCP,这场革命已经到来。

DeepSeek 的开源革命:闭门 AI 峰会的见解

· 一分钟阅读
Lark Birdy
Chief Bird Officer

DeepSeek 的开源革命:闭门 AI 峰会的见解

DeepSeek 正在迅速席卷 AI 世界。就在关于 DeepSeek-R1 的讨论尚未平息时,团队又投下了一颗重磅炸弹:一个开源的多模态模型 Janus-Pro。步伐令人眼花缭乱,雄心昭然若揭。

DeepSeek 的开源革命:闭门 AI 峰会的见解

两天前,一群顶尖的 AI 研究人员、开发者和投资者聚集在由 Shixiang 主办的闭门讨论会上,专注于 DeepSeek。在三个多小时的时间里,他们剖析了 DeepSeek 的技术创新、组织结构及其崛起的广泛影响——对 AI 商业模式、二级市场以及 AI 研究的长期轨迹。

遵循 DeepSeek 的开源透明原则,我们将集体思考向公众开放。以下是讨论中提炼出的见解,涵盖了 DeepSeek 的战略、技术突破及其对 AI 行业可能产生的影响。

DeepSeek:谜团与使命

  • DeepSeek 的核心使命: CEO 梁文峰不仅仅是另一个 AI 企业家——他本质上是一个工程师。与 Sam Altman 不同,他专注于技术执行,而不仅仅是愿景。
  • DeepSeek 赢得尊重的原因: 其 MoE(专家混合)架构是一个关键的差异化因素。早期复制 OpenAI 的 o1 模型只是开始——真正的挑战是如何在有限资源下进行扩展。
  • 在没有 NVIDIA 支持下的扩展: 尽管声称拥有 50,000 个 GPU,DeepSeek 可能只使用了大约 10,000 个老化的 A100 和 3,000 个禁令前的 H800。与美国实验室不同,DeepSeek 被迫追求效率。
  • DeepSeek 的真正关注点: 与 OpenAI 或 Anthropic 不同,DeepSeek 并不执着于“AI 服务人类”。相反,它追求的是智能本身。这可能是它的秘密武器。

探索者与追随者:AI 的幂律法则

  • AI 发展是一个阶跃函数: 追赶的成本比领先低 10 倍。“追随者”以计算成本的一小部分利用过去的突破,而“探索者”必须盲目推进,承担巨大的研发费用。
  • DeepSeek 会超越 OpenAI 吗? 这是可能的——但前提是 OpenAI 出现失误。AI 仍然是一个开放性问题,DeepSeek 对推理模型的方法是一个强有力的赌注。

DeepSeek 背后的技术创新

1. 监督微调(SFT)的终结?

  • DeepSeek 最具颠覆性的主张: SFT 可能不再是推理任务所必需的。如果属实,这标志着范式的转变。
  • 但不要太快下结论… DeepSeek-R1 仍然依赖 SFT,特别是在对齐方面。真正的转变在于如何更有效地使用 SFT 来提炼推理任务。

2. 数据效率:真正的护城河

  • 为什么 DeepSeek 优先考虑数据标注: 据报道,梁文峰亲自标注数据,强调其重要性。特斯拉在自动驾驶方面的成功来自于细致的人类标注——DeepSeek 正在应用同样的严格标准。
  • 多模态数据:尚未准备好——尽管 Janus-Pro 已发布,多模态学习仍然昂贵得令人望而却步。尚无实验室展示出令人信服的收益。

3. 模型蒸馏:一把双刃剑

  • 蒸馏提高了效率但降低了多样性: 这可能在长期内限制模型能力。
  • 蒸馏的“隐藏债务”: 在不了解 AI 训练的基本挑战的情况下,依赖蒸馏可能会在下一代架构出现时导致意想不到的陷阱。

4. 过程奖励:AI 对齐的新前沿

  • 结果监督定义了上限: 基于过程的强化学习可能防止黑客攻击,但智能的上限仍取决于结果驱动的反馈。
  • RL 悖论: 大型语言模型(LLM)没有像国际象棋那样明确的胜利条件。AlphaZero 之所以有效,是因为胜利是二元的。AI 推理缺乏这种清晰度。

为什么 OpenAI 没有使用 DeepSeek 的方法?

  • 关注点的不同: OpenAI 优先考虑规模,而不是效率。
  • 美国的“隐藏 AI 战争”: OpenAI 和 Anthropic 可能忽视了 DeepSeek 的方法,但他们不会再忽视太久。如果 DeepSeek 被证明是可行的,预计研究方向将发生变化。

2025 年的 AI 未来

  • 超越 Transformers? AI 可能会分化为不同的架构。该领域仍然专注于 Transformers,但替代模型可能会出现。
  • RL 的未开发潜力: 除了数学和编码等狭窄领域,强化学习仍未得到充分利用。
  • AI 代理的年份? 尽管炒作不断,但尚无实验室推出突破性的 AI 代理。

开发者会迁移到 DeepSeek 吗?

  • 还没有。 OpenAI 在编码和指令执行能力上仍然占据优势。
  • 但差距正在缩小。 如果 DeepSeek 保持势头,开发者可能会在 2025 年转向。

OpenAI Stargate 5000 亿美元赌注:是否仍然有意义?

  • DeepSeek 的崛起对 NVIDIA 的主导地位提出质疑。 如果效率胜过蛮力扩展,OpenAI 的 5000 亿美元超级计算机可能显得过于奢侈。
  • OpenAI 是否真的会花费 5000 亿美元? 软银是资金支持者,但缺乏流动性。执行仍不确定。
  • Meta 正在逆向工程 DeepSeek。 这证实了其重要性,但 Meta 是否能调整其路线图仍不明确。

市场影响:赢家与输家

  • 短期: AI 芯片股票,包括 NVIDIA,可能面临波动。
  • 长期: AI 的增长故事依然完整——DeepSeek 只是证明了效率与原始计算力同样重要。

开源与闭源:新的战场

  • 如果开源模型达到闭源性能的 95%, 整个 AI 商业模式将发生转变。
  • DeepSeek 正在迫使 OpenAI 作出回应。 如果开源模型继续改进,专有 AI 可能难以为继。

DeepSeek 对全球 AI 战略的影响

  • 中国的追赶速度比预期快。 中美之间的 AI 差距可能只有 3-9 个月,而不是之前认为的两年。
  • DeepSeek 是中国 AI 战略的概念验证。 尽管计算能力有限,效率驱动的创新正在发挥作用。

最后的话:愿景比技术更重要

  • DeepSeek 的真正差异化在于其雄心。 AI 突破来自于推动智能的边界,而不仅仅是改进现有模型。
  • 下一个战场是推理。 谁能率先开发下一代 AI 推理模型,谁就能定义行业的轨迹。

一个思维实验: 如果你有一次机会向 DeepSeek CEO 梁文峰提问,你会问什么?你对公司扩展的最佳建议是什么?分享你的想法——出色的回答可能会赢得下次闭门 AI 峰会的邀请。

DeepSeek 已经在 AI 领域开启了新篇章。它是否会重写整个故事还有待观察。

2025 年 AI 行业分析:赢家、输家和关键赌注

· 一分钟阅读
Lark Birdy
Chief Bird Officer

引言

AI 领域正在经历一场剧变。在过去的两周里,我们与领先的 AI 研究人员和开发者进行了闭门讨论,揭示了关于 2025 年行业轨迹的迷人见解。浮现的是权力的复杂重组、老牌企业面临的意外挑战,以及将塑造技术未来的关键转折点。

这不仅仅是一份报告,而是行业未来的地图。让我们深入了解定义 2025 年的赢家、输家和关键赌注。

2025 年 AI 行业分析:赢家、输家和关键赌注

赢家:新权力结构的崛起

Anthropic:务实的先锋

Anthropic 在 2025 年脱颖而出,凭借明确而务实的战略:

  • 模型控制协议 (MCP):MCP 不仅是一个技术规范,而是旨在为编码和代理工作流创建行业标准的基础协议。可以将其视为代理时代的 TCP/IP——这是一个雄心勃勃的举措,将 Anthropic 置于 AI 互操作性的中心。
  • 基础设施掌握:Anthropic 专注于 计算效率定制芯片设计,展示了在解决 AI 部署的可扩展性挑战方面的远见。
  • 战略合作伙伴关系:通过专注于构建强大的模型并将互补能力外包给合作伙伴,Anthropic 促进了一个协作的生态系统。他们的 Claude 3.5 Sonnet 模型在编码应用中保持了六个月的领先地位——在 AI 领域,这是一段漫长的时间。

Google:垂直整合的冠军

Google 的主导地位源于其对整个 AI 价值链的无与伦比的控制:

  • 端到端基础设施:Google 的 定制 TPU、广泛的数据中心,以及在硅、软件和应用之间的紧密集成,创造了无可匹敌的竞争壁垒。
  • Gemini Exp-1206 性能:Gemini Exp-1206 的早期试验设定了新的基准,强化了 Google 在整个堆栈中优化的能力。
  • 企业解决方案:Google 丰富的内部生态系统作为工作流自动化解决方案的测试场。他们的垂直整合使他们能够在企业 AI 中占据主导地位,这是纯 AI 公司和传统云提供商都无法匹敌的。

输家:面临的挑战

OpenAI:在十字路口

尽管早期取得了成功,OpenAI 正面临越来越多的挑战:

  • 组织困境:Alec Radford 等高管的离职表明可能存在内部不一致。OpenAI 向消费应用的转型是否正在削弱其对 AGI 的关注?
  • 战略局限:ChatGPT 的成功虽然在商业上有价值,但可能限制了创新。当竞争对手探索代理工作流和企业级应用时,OpenAI 有可能被局限于聊天机器人领域。

Apple:错过 AI 浪潮

Apple 在 AI 方面的有限进展威胁到其在移动创新中的长期主导地位:

  • 战略盲点:随着 AI 成为移动生态系统的核心,Apple 在 AI 驱动的端到端解决方案 方面缺乏有影响力的贡献可能会削弱其核心业务。
  • 竞争脆弱性:如果不能在将 AI 集成到其生态系统中取得重大进展,Apple 可能会落后于快速创新的竞争对手。

2025 年的关键赌注

模型能力:大分化

AI 行业正处于一个十字路口,有两种可能的未来:

  1. AGI 突破:AGI 的突破可能会使当前的应用程序过时,瞬间重塑行业。
  2. 渐进演变:更有可能的是,渐进式改进将推动实际应用和端到端自动化,偏向于专注于可用性而非基础突破的公司。

公司必须在维持基础研究和提供即时价值之间取得平衡。

代理进化:下一个前沿

代理代表了 AI-人类互动的变革性转变。

  • 上下文管理:企业正在超越简单的提示响应模型,将 上下文理解 纳入工作流。这简化了架构,使应用程序能够随着模型能力的发展而演变。
  • 人机协作:平衡自主性与监督是关键。像 Anthropic 的 MCP 这样的创新可能为 代理应用商店 奠定基础,实现代理与企业系统之间的无缝通信。

展望未来:下一个巨型平台

AI 操作系统时代

AI 准备重新定义平台范式,为数字时代创建新的“操作系统”:

  • 基础模型作为基础设施:模型本身正在成为平台,API 优先开发标准化代理协议 推动创新。
  • 新交互范式:AI 将超越传统界面,融入设备和环境中。机器人和可穿戴 AI 代理 的时代即将到来。
  • 硬件演变:专用芯片、边缘计算和优化的硬件形式将加速 AI 在各行业的采用。

结论

AI 行业正进入一个决定性的阶段,实际应用、基础设施和人机互动成为中心。赢家将擅长于:

  • 提供解决实际问题的 端到端解决方案
  • 专注于 垂直应用 以超越竞争对手。
  • 构建强大、可扩展的 基础设施 以实现高效部署。
  • 定义 人机互动范式,在自主性与监督之间取得平衡。

这是一个关键时刻。成功的公司将是那些将 AI 的潜力转化为切实的、变革性价值的公司。随着 2025 年的展开,定义下一个巨型平台和生态系统的竞争已经开始。

你怎么看?我们是朝着 AGI 突破前进,还是渐进式进步将占据主导地位?分享你的想法并加入讨论。

空投 Cuckoo × IoTeX:Cuckoo 链扩展至 IoTeX 作为 Layer 2

· 一分钟阅读
Lark Birdy
Chief Bird Officer

Cuckoo Network 很高兴宣布其扩展至 IoTeX 作为 Layer 2 解决方案,将其去中心化 AI 基础设施带入 IoTeX 繁荣的生态系统。此战略合作将 Cuckoo 在 AI 模型服务方面的专业知识与 IoTeX 强大的 MachineFi 基础设施相结合,为两个社区创造了新的机会。

Cuckoo Network 扩展

需求

IoTeX 用户和开发者需要高效的去中心化 AI 计算资源,而 AI 应用构建者需要可扩展的区块链基础设施。通过在 IoTeX 上构建,Cuckoo 链满足了这些需求,同时将其去中心化 AI 市场扩展到一个新的生态系统。

解决方案

Cuckoo 链在 IoTeX 上提供:

  • 与 IoTeX 的 MachineFi 基础设施无缝集成
  • AI 模型服务的更低交易成本
  • 去中心化 AI 应用的增强可扩展性
  • IoTeX 和 Cuckoo 链之间的跨链互操作性

空投详情

为庆祝此次扩展,Cuckoo Network 正在为 IoTeX 和 Cuckoo 社区成员推出空投活动。参与者可以通过各种参与活动赚取 $CAI 代币:

  1. 来自 IoTeX 生态系统的早期采用者
  2. 为网络做出贡献的 GPU 矿工
  3. 积极参与跨链活动
  4. 社区参与和开发贡献

领导层引言

“在 IoTeX 上构建 Cuckoo 链作为 Layer 2 标志着我们去中心化 AI 基础设施使命的重要里程碑,”Cuckoo Network 的首席产品官 Dora Noda 说。“这种合作使我们能够将高效、可访问的 AI 计算带入 IoTeX 创新的 MachineFi 生态系统,同时扩展我们的去中心化 AI 市场。”

常见问题解答

问:是什么让 Cuckoo 链在 IoTeX 上的 L2 独特?

答:Cuckoo 链在 IoTeX 上的 L2 独特地将去中心化 AI 模型服务与 IoTeX 的 MachineFi 基础设施相结合,为物联网设备和应用提供高效、经济的 AI 计算。

问:我如何参与空投?

答:访问 https://cuckoo.network/portal/airdrop?referer=CuckooNetworkHQ 完成符合条件的操作并获得奖励。

问:我如何获得更多的 $CAI?

  • 质押 $CAI 代币
  • 运行 GPU 矿工节点
  • 参与跨链交易
  • 为社区发展做出贡献

问:GPU 矿工的技术要求是什么?

答:GPU 矿工需要:

  • NVIDIA GTX 3080、L4 或更高
  • 至少 8GB RAM
  • 在前 10 名矿工中质押并获得 $CAI 投票
  • 稳定的互联网连接 详细的设置说明,请访问我们的文档 cuckoo.network/docs

问:这对 IoTeX 用户有什么好处?

答:IoTeX 用户可以获得:

  • 去中心化 AI 计算资源
  • AI 服务的更低交易成本
  • 与现有 MachineFi 应用的集成
  • 通过 GPU 挖矿和质押获得新的收入机会

问:跨链功能如何工作?

答:用户将能够使用我们的桥接基础设施在 IoTeX、Arbitrum 和 Cuckoo 链之间无缝移动资产,实现跨生态系统的统一流动性和互操作性。Arbitrum 桥已启动,IoTeX 桥仍在进行中。

问:发布的时间表是什么?

答:时间表:

  • 1 月 8 日那周:在 Cuckoo 链主网上开始空投分发
  • 1 月 29 日那周:在 IoTeX 和 Cuckoo 链之间部署桥接
  • 2 月 12 日那周:自主代理启动平台的全面启动

问:开发者如何在 Cuckoo 链的 IoTeX L2 上构建?

答:开发者可以使用熟悉的以太坊工具和语言,因为 Cuckoo 链保持完全的 EVM 兼容性。全面的文档和开发者资源将在 cuckoo.network/docs 提供。

问:空投的总分配是多少?

答:“IoTeX x Cuckoo”空投活动将从 10 亿 $CAI 代币的总供应中分配一部分 1‰ 的份额,保留给早期采用者和社区成员。

联系信息

欲了解更多信息,请加入我们的社区:

Ritual:让区块链思考的 2500 万美元赌注

· 一分钟阅读
Lark Birdy
Chief Bird Officer

Ritual 由前 Polychain 投资者 Niraj Pant 和 Akilesh Potti 于 2023 年创立,是一个雄心勃勃的项目,位于区块链和 AI 的交汇点。该公司获得了由 Archetype 领投、Polychain Capital 战略投资的 2500 万美元 A 轮融资,旨在解决实现复杂链上和链下交互的关键基础设施缺口。Ritual 拥有来自领先机构和公司的 30 名专家团队,正在构建一个将 AI 能力直接集成到区块链环境中的协议,目标应用包括自然语言生成的智能合约和动态市场驱动的借贷协议。

Ritual:让区块链思考的 2500 万美元赌注

为什么客户需要 Web3 来实现 AI

Web3 和 AI 的集成可以缓解传统中心化 AI 系统中的许多限制。

  1. 去中心化基础设施有助于降低操控风险:当 AI 计算和模型输出由多个独立操作的节点执行时,任何单一实体(无论是开发者还是企业中介)都更难以篡改结果。这增强了用户对 AI 驱动应用的信心和透明度。

  2. Web3 原生 AI 扩展了链上智能合约的范围,超越了基本的金融逻辑。有了 AI 的参与,合约可以响应实时市场数据、用户生成的提示,甚至复杂的推理任务。这使得诸如算法交易、自动化借贷决策和聊天交互(例如 FrenRug)等用例成为可能,而这些在现有的、孤立的 AI API 下是不可能实现的。由于 AI 输出是可验证的并与链上资产集成,这些高价值或高风险的决策可以以更大的信任和更少的中介执行。

  3. 将 AI 工作负载分布在网络中可以潜在地降低成本并增强可扩展性。尽管 AI 计算可能很昂贵,但设计良好的 Web3 环境从全球计算资源池中汲取资源,而不是单一的中心化提供商。这带来了更灵活的定价、改进的可靠性,以及持续的链上 AI 工作流程的可能性——所有这些都由节点运营商提供计算能力的共同激励机制支持。

Ritual 的方法

该系统有三个主要层次——Infernet OracleRitual Chain(基础设施和协议)和原生应用——每个层次都旨在解决 Web3 x AI 领域的不同挑战。

1. Infernet Oracle

  • 功能 Infernet 是 Ritual 的第一个产品,作为链上智能合约和链下 AI 计算之间的桥梁。它不仅仅是获取外部数据,而是协调 AI 模型推理任务,收集结果,并以可验证的方式将其返回链上。
  • 关键组件
    • 容器:用于托管任何 AI/ML 工作负载的安全环境(例如 ONNX、Torch、Hugging Face 模型、GPT-4)。
    • infernet-ml:用于部署 AI/ML 工作流程的优化库,提供与流行模型框架的即用型集成。
    • Infernet SDK:提供标准化接口,使开发者可以轻松编写请求和消费 AI 推理结果的智能合约。
    • Infernet 节点:部署在 GCP 或 AWS 等服务上,这些节点监听链上推理请求,在容器中执行任务,并将结果返回链上。
    • 支付与验证:管理计算和验证节点之间的费用分配,并支持各种验证方法以确保任务诚实执行。
  • 重要性 Infernet 超越了传统的预言机,通过验证链下 AI 计算,而不仅仅是数据馈送。它还支持调度重复或时间敏感的推理任务,减少了将 AI 驱动任务链接到链上应用的复杂性。

2. Ritual Chain

Ritual Chain 在基础设施和协议层面集成了 AI 友好的功能。它旨在处理智能合约和链下计算之间的频繁、自动化和复杂交互,远远超出典型 L1 的管理能力。

2.1 基础设施层

  • 功能 Ritual Chain 的基础设施支持比标准区块链更复杂的 AI 工作流程。通过预编译模块、调度器和称为 EVM++ 的 EVM 扩展,它旨在促进频繁或流式 AI 任务、强大的账户抽象和自动化合约交互。

  • 关键组件

    • 预编译模块

      • **EIP 扩展(例如 EIP-665、EIP-5027)**消除代码长度限制,减少签名的 gas,并在链和链下 AI 任务之间建立信任。
      • 计算预编译标准化智能合约内的 AI 推理、零知识证明和模型微调框架。
    • 调度器:通过允许任务按固定时间表运行(例如每 10 分钟),消除对外部“Keeper”合约的依赖。对于持续的 AI 驱动活动至关重要。

    • EVM++:通过原生账户抽象(EIP-7702)增强 EVM,使合约可以在设定期限内自动批准交易。这支持无需人工干预的持续 AI 驱动决策(例如自动交易)。

  • 重要性 通过直接在其基础设施中嵌入 AI 关注的功能,Ritual Chain 简化了复杂、重复或时间敏感的 AI 计算。开发者获得了一个更强大和自动化的环境来构建真正“智能”的 dApps。

2.2 共识协议层

  • 功能 Ritual Chain 的协议层解决了高效管理多样 AI 任务的需求。大型推理任务和异构计算节点需要特殊的费用市场逻辑和新颖的共识方法,以确保顺利执行和验证。
  • 关键组件
    • Resonance(费用市场):
      • 引入“拍卖师”和“经纪人”角色,以匹配不同复杂度的 AI 任务与合适的计算节点。
      • 采用近乎穷尽或“捆绑”任务分配,以最大化网络吞吐量,确保强大节点处理复杂任务而不滞后。
    • Symphony(共识):
      • 将 AI 计算拆分为并行子任务进行验证。多个节点分别验证过程步骤和输出。
      • 通过在多个节点间分配验证工作负载,防止大型 AI 任务过载网络。
    • vTune:
      • 通过使用“后门”数据检查,展示如何在链上验证节点执行的模型微调。
      • 展示 Ritual Chain 处理更长、更复杂 AI 任务的更广泛能力,且信任假设最小化。
  • 重要性 传统费用市场和共识模型难以应对繁重或多样的 AI 工作负载。通过重新设计两者,Ritual Chain 可以动态分配任务并验证结果,将链上可能性扩展到基本代币或合约逻辑之外。

3. 原生应用

  • 功能 基于 Infernet 和 Ritual Chain,原生应用包括模型市场和验证网络,展示了如何将 AI 驱动功能本地集成和货币化到链上。
  • 关键组件
    • 模型市场:
      • 将 AI 模型(及可能的微调变体)标记为链上资产。
      • 允许开发者购买、出售或许可 AI 模型,收益奖励给模型创建者和计算/数据提供者。
    • 验证网络和“Rollup-as-a-Service”:
      • 为外部协议(例如 L2s)提供可靠的环境,用于计算和验证复杂任务,如零知识证明或 AI 驱动查询。
      • 提供定制的 rollup 解决方案,利用 Ritual 的 EVM++、调度功能和费用市场设计。
  • 重要性 通过使 AI 模型直接可交易和可验证到链上,Ritual 将区块链功能扩展到 AI 服务和数据集的市场。更广泛的网络还可以利用 Ritual 的基础设施进行专业计算,形成一个统一的生态系统,其中 AI 任务和证明既便宜又透明。

Ritual 的生态系统发展

Ritual 的“开放 AI 基础设施网络”愿景与构建强大的生态系统密不可分。除了核心产品设计,团队还在模型存储、计算、证明系统和 AI 应用方面建立了合作伙伴关系,以确保网络的每一层都能获得专家支持。同时,Ritual 大力投资于开发者资源和社区增长,以促进其链上的实际用例。

  1. 生态系统合作
  • 模型存储与完整性:通过 Arweave 存储 AI 模型,确保其防篡改。
  • 计算合作伙伴:IO.net 提供去中心化计算,满足 Ritual 的扩展需求。
  • 证明系统与 Layer-2:与 Starkware 和 Arbitrum 合作,扩展 EVM 任务的证明生成能力。
  • AI 消费应用:与 Myshell 和 Story Protocol 合作,将更多 AI 驱动服务带到链上。
  • 模型资产层:Pond、Allora 和 0xScope 提供额外的 AI 资源,推动链上 AI 边界。
  • 隐私增强:Nillion 加强 Ritual Chain 的隐私层。
  • 安全与质押:EigenLayer 帮助保护和质押网络。
  • 数据可用性:EigenLayer 和 Celestia 模块增强数据可用性,对 AI 工作负载至关重要。
  1. 应用扩展
  • 开发者资源:综合指南详细说明如何启动 AI 容器、运行 PyTorch,并将 GPT-4 或 Mistral-7B 集成到链上任务中。动手示例——如通过 Infernet 生成 NFT——降低了新手的入门门槛。
  • 资金与加速:Ritual Altar 加速器和 Ritual Realm 项目为在 Ritual Chain 上构建 dApps 的团队提供资金和指导。
  • 重要项目:
    • Anima:多代理 DeFi 助手,处理贷款、兑换和收益策略的自然语言请求。
    • Opus:AI 生成的 meme 代币,具有计划的交易流程。
    • Relic:将 AI 驱动的预测模型整合到 AMM 中,旨在实现更灵活和高效的链上交易。
    • Tithe:利用 ML 动态调整借贷协议,提高收益同时降低风险。

通过对齐产品设计、合作伙伴关系和多样化的 AI 驱动 dApps,Ritual 将自己定位为 Web3 x AI 的多方面中心。其生态系统优先的方法——辅以充足的开发者支持和实际的资金机会——为链上更广泛的 AI 采用奠定了基础。

Ritual 的展望

Ritual 的产品计划和生态系统看起来很有前景,但仍然存在许多技术空白。开发者仍需解决诸如设置模型推理端点、加速 AI 任务以及协调多个节点以进行大规模计算等基本问题。目前,核心架构可以处理较简单的用例;真正的挑战在于激励开发者在链上构建更具想象力的 AI 驱动应用。

未来,Ritual 可能会更少关注金融,而更多关注使计算或模型资产可交易。这将吸引参与者并通过将链的代币与实际 AI 工作负载联系起来来增强网络安全性。尽管代币设计的细节仍不清楚,但显然 Ritual 的愿景是激发新一代复杂、去中心化、AI 驱动的应用——将 Web3 推向更深、更具创造性的领域。

布谷鸟网络与天鹅链携手革新去中心化 AI

· 一分钟阅读
Lark Birdy
Chief Bird Officer

我们很高兴地宣布,布谷鸟网络与天鹅链这两大去中心化 AI 和区块链技术领域的先锋力量达成了一项激动人心的新合作。这次合作标志着我们在民主化获取先进 AI 能力和创建更高效、可访问和创新的 AI 生态系统的使命上迈出了重要一步。

布谷鸟网络与天鹅链携手革新去中心化 AI

通过扩展 GPU 资源赋能去中心化 AI

此次合作的核心是将天鹅链的广泛 GPU 资源整合到布谷鸟网络平台中。通过利用天鹅链的全球数据中心和计算提供商网络,布谷鸟网络将大幅扩展其服务去中心化大型语言模型(LLMs)的能力。

这种整合完美契合了两家公司的愿景:

  • 布谷鸟网络旨在创建一个去中心化的 AI 模型服务市场
  • 天鹅链的使命是通过全面的区块链基础设施加速 AI 的采用

img

用 AI 赋予心爱动漫角色生命

为了展示此次合作的力量,我们很高兴地宣布,首批基于角色的 LLMs 将以心爱的动漫主角为灵感。这些模型由才华横溢的布谷鸟创作者社区创建,并将在天鹅链的 GPU 资源上运行。

img

粉丝和开发者都将能够与这些角色模型互动并在其基础上进行构建,开创创意叙事、游戏开发和互动体验的新可能性。

互惠互利与共同愿景

这次合作结合了两个平台的优势:

  • 布谷鸟网络 提供去中心化市场和 AI 专业知识,以高效分发和管理 AI 任务。
  • 天鹅链 贡献其强大的 GPU 基础设施、创新的 ZK 市场以及对计算提供商公平补偿的承诺。

我们共同努力,朝着一个 AI 能力对全球开发者和用户更加可访问、高效和公平的未来迈进。

对我们社区的意义

对于布谷鸟网络社区:

  • 获取更广泛的 GPU 资源池,实现更快的处理和更复杂的 AI 模型
  • 扩大创建和货币化独特 AI 模型的机会
  • 由于天鹅链的高效基础设施,可能降低成本

对于天鹅链社区:

  • 通过布谷鸟网络的市场货币化 GPU 资源的新途径
  • 接触尖端 AI 应用和充满活力的创作者社区
  • 可能增加对天鹅链基础设施的需求和利用

展望未来

这次合作只是个开始。随着我们前进,我们将探索更多整合技术和为两个生态系统创造价值的方法。我们特别期待利用天鹅链的 ZK 市场和全民基本收入模型,为 GPU 提供者和 AI 开发者创造更多机会。

请继续关注我们的更多更新,因为我们将共同踏上这一激动人心的旅程。去中心化 AI 的未来是光明的,有了像天鹅链这样的合作伙伴,我们离实现这一未来又近了一步。

我们邀请两个社区共同庆祝这一合作。我们不仅在构建技术,还在塑造 AI 的未来,并赋能全球创作者。

布谷鸟网络

关于天鹅链的更多信息