Nhảy tới nội dung

4 bài viết được gắn thẻ "nghiên cứu"

Xem tất cả Thẻ

· 7 phút để đọc
Lark Birdy

Nhu cầu triển khai các mô hình ngôn ngữ lớn (LLM) trên thiết bị di động đang gia tăng, do nhu cầu về quyền riêng tư, giảm độ trễ và sử dụng băng thông hiệu quả. Tuy nhiên, yêu cầu về bộ nhớ và tính toán rộng rãi của LLM đặt ra những thách thức đáng kể. LinguaLinked, một hệ thống mới được phát triển bởi một nhóm các nhà nghiên cứu từ UC Irvine, ra đời để giải quyết vấn đề này, cho phép suy diễn LLM phân tán trên nhiều thiết bị di động, tận dụng khả năng tập thể của chúng để thực hiện các tác vụ phức tạp một cách hiệu quả.

Thách Thức

Việc triển khai các LLM như GPT-3 hoặc BLOOM trên thiết bị di động gặp phải các khó khăn sau:

  • Giới Hạn Bộ Nhớ: LLM đòi hỏi bộ nhớ lớn, thường vượt quá khả năng của các thiết bị di động cá nhân.
  • Hạn Chế Tính Toán: Thiết bị di động thường có công suất xử lý hạn chế, khiến việc chạy các mô hình lớn trở nên khó khăn.
  • Lo Ngại Về Quyền Riêng Tư: Gửi dữ liệu đến các máy chủ tập trung để xử lý làm dấy lên các vấn đề về quyền riêng tư.

Giải Pháp Của LinguaLinked

LinguaLinked giải quyết các thách thức này bằng ba chiến lược chính:

  1. Phân Bố Mô Hình Tối Ưu:
  • Hệ thống phân chia các LLM thành các đồ thị con nhỏ hơn bằng cách sử dụng tối ưu hóa tuyến tính để phù hợp với khả năng của từng thiết bị.
  • Điều này đảm bảo việc sử dụng tài nguyên hiệu quả và giảm thiểu việc truyền dữ liệu giữa các thiết bị.
  1. Cân Bằng Tải Tại Thời Gian Thực:
  • LinguaLinked liên tục giám sát hiệu suất của thiết bị và phân bổ lại các tác vụ để ngăn chặn tình trạng tắc nghẽn.
  • Cách tiếp cận động này đảm bảo việc sử dụng hiệu quả tất cả các tài nguyên có sẵn, nâng cao khả năng phản hồi của hệ thống.
  1. Giao Tiếp Tối Ưu:
  • Các bản đồ truyền dữ liệu hiệu quả hướng dẫn luồng thông tin giữa các thiết bị, duy trì tính toàn vẹn của cấu trúc mô hình.
  • Phương pháp này giảm thiểu độ trễ và đảm bảo quá trình xử lý dữ liệu kịp thời trong toàn mạng lưới các thiết bị di động.

Một mô hình ngôn ngữ lớn (LLM) duy nhất được chia thành các phần khác nhau (hoặc các đoạn) và phân phối trên nhiều thiết bị di động. Cách tiếp cận này cho phép mỗi thiết bị chỉ xử lý một phần nhỏ của yêu cầu tính toán và lưu trữ tổng thể, làm cho việc chạy các mô hình phức tạp trở nên khả thi ngay cả trên các thiết bị có tài nguyên hạn chế. Dưới đây là cách hoạt động của nó:

Phân Đoạn Và Phân Phối Mô Hình

  1. Phân Đoạn Mô Hình:
  • Mô hình ngôn ngữ lớn được chuyển đổi thành một đồ thị tính toán, trong đó mỗi hoạt động trong mạng lưới được biểu diễn dưới dạng một nút.
  • Đồ thị này sau đó được chia thành các đồ thị con nhỏ hơn, mỗi đồ thị có khả năng hoạt động độc lập.
  1. Phân Bố Mô Hình Tối Ưu:
  • Sử dụng tối ưu hóa tuyến tính, các đồ thị con (hoặc phân đoạn mô hình) này được gán cho các thiết bị di động khác nhau.
  • Việc phân bổ này xem xét khả năng tính toán và bộ nhớ của từng thiết bị, đảm bảo sử dụng tài nguyên hiệu quả và giảm thiểu chi phí truyền dữ liệu giữa các thiết bị.
  1. Thực Thi Suy Diễn Hợp Tác:
  • Mỗi thiết bị di động xử lý phần mô hình được gán của mình.
  • Các thiết bị giao tiếp với nhau để trao đổi kết quả trung gian khi cần, đảm bảo nhiệm vụ suy diễn tổng thể được hoàn thành chính xác.
  • Các chiến lược giao tiếp tối ưu được áp dụng để duy trì tính toàn vẹn của cấu trúc mô hình ban đầu và đảm bảo luồng dữ liệu hiệu quả.

Kịch Bản Ví Dụ

Hãy tưởng tượng một mô hình ngôn ngữ lớn như GPT-3 được chia thành nhiều phần. Một thiết bị di động có thể xử lý việc nhúng token ban đầu và một vài lớp đầu tiên của mô hình, trong khi một thiết bị khác xử lý các lớp giữa, và một thiết bị thứ ba hoàn thành các lớp cuối cùng và tạo ra đầu ra. Trong suốt quá trình này, các thiết bị chia sẻ kết quả trung gian để đảm bảo nhiệm vụ suy diễn mô hình đầy đủ được thực hiện một cách liền mạch.

Hiệu Suất và Kết Quả

Hiệu quả của LinguaLinked được chứng minh qua các thử nghiệm rộng rãi trên nhiều thiết bị Android khác nhau, cả cao cấp và phổ thông. Các phát hiện chính bao gồm:

  • Tốc Độ Suy Diễn: So với nền tảng cơ bản, LinguaLinked tăng tốc hiệu suất suy diễn từ 1.11× đến 1.61× trong các cài đặt đơn luồng và từ 1.73× đến 2.65× với đa luồng.
  • Cân Bằng Tải: Cân bằng tải thời gian thực của hệ thống càng tăng cường hiệu suất, với tổng tăng tốc từ 1.29× đến 1.32×.
  • Khả Năng Mở Rộng: Các mô hình lớn hơn được hưởng lợi đáng kể từ việc phân bổ mô hình tối ưu của LinguaLinked, thể hiện khả năng mở rộng và hiệu quả của nó trong việc xử lý các tác vụ phức tạp.

Ứng Dụng Và Trường Hợp Sử Dụng

LinguaLinked đặc biệt phù hợp cho các tình huống mà quyền riêng tư và hiệu quả là điều quan trọng nhất. Các ứng dụng bao gồm:

  • Tạo Văn Bản và Tóm Tắt: Tạo ra các văn bản mạch lạc và phù hợp với ngữ cảnh ngay trên các thiết bị di động.
  • Phân Tích Tâm Trạng: Phân loại dữ liệu văn bản một cách hiệu quả mà không làm ảnh hưởng đến quyền riêng tư của người dùng.
  • Dịch Thuật Thời Gian Thực: Cung cấp các bản dịch nhanh chóng và chính xác trực tiếp trên thiết bị.

Hướng Đi Tương Lai

LinguaLinked mở đường cho những tiến bộ hơn nữa trong lĩnh vực AI trên thiết bị di động:

  • Hiệu Quả Năng Lượng: Các phiên bản tương lai sẽ tập trung vào việc tối ưu hóa tiêu thụ năng lượng để ngăn ngừa hao pin và quá nhiệt trong các tác vụ cường độ cao.
  • Tăng Cường Quyền Riêng Tư: Các cải tiến tiếp tục trong xử lý phi tập trung sẽ đảm bảo quyền riêng tư dữ liệu thậm chí còn lớn hơn.
  • Mô Hình Đa Phương Thức: Mở rộng LinguaLinked để hỗ trợ các mô hình đa phương thức cho các ứng dụng thực tế đa dạng.

Kết Luận

LinguaLinked đại diện cho một bước tiến lớn trong việc triển khai LLM trên các thiết bị di động. Bằng cách phân phối tải tính toán và tối ưu hóa việc sử dụng tài nguyên, nó làm cho AI tiên tiến trở nên khả dụng và hiệu quả trên nhiều thiết bị khác nhau. Sự đổi mới này không chỉ nâng cao hiệu suất mà còn đảm bảo quyền riêng tư dữ liệu, đặt nền tảng cho các ứng dụng AI di động cá nhân hóa và an toàn hơn.

· 8 phút để đọc
Lark Birdy

Trong lĩnh vực AI phi tập trung, việc đảm bảo tính toàn vẹn và độ tin cậy của các nhà cung cấp GPU là rất quan trọng. Giao thức Proof of Sampling (PoSP), như được nêu ra trong nghiên cứu gần đây từ Holistic AI, cung cấp một cơ chế tinh vi để khuyến khích các tác nhân tốt trong khi trừng phạt những kẻ xấu. Hãy cùng xem cách thức hoạt động của giao thức này, các khuyến khích kinh tế, hình phạt và ứng dụng của nó đối với suy diễn AI phi tập trung.

Khuyến Khích Hành Vi Trung Thực

Phần Thưởng Kinh Tế

Tại trung tâm của giao thức PoSP là các khuyến khích kinh tế được thiết kế để khuyến khích sự tham gia trung thực. Các node, hoạt động như những người xác nhận và xác minh, được thưởng dựa trên đóng góp của họ:

  • Người xác nhận: Nhận phần thưởng (RA) nếu đầu ra được tính toán của họ là chính xác và không bị thách thức.
  • Người xác minh: Chia sẻ phần thưởng (RV/n) nếu kết quả của họ phù hợp với người xác nhận và được xác minh là chính xác.

Cân Bằng Nash Duy Nhất

Giao thức PoSP được thiết kế để đạt được Cân Bằng Nash duy nhất trong các chiến lược thuần túy, nơi tất cả các node đều có động lực để hành động trung thực. Bằng cách căn chỉnh lợi nhuận cá nhân với bảo mật hệ thống, giao thức đảm bảo rằng trung thực là chiến lược có lợi nhất cho các bên tham gia.

Hình Phạt Cho Hành Vi Không Trung Thực

Cơ Chế Cắt Giảm

Để ngăn chặn hành vi không trung thực, giao thức PoSP sử dụng cơ chế cắt giảm. Nếu một người xác nhận hoặc người xác minh bị phát hiện là không trung thực, họ sẽ phải chịu các hình phạt kinh tế đáng kể (S). Điều này đảm bảo rằng chi phí của việc không trung thực cao hơn nhiều so với bất kỳ lợi ích ngắn hạn nào có thể có được.

Cơ Chế Thách Thức

Những thách thức ngẫu nhiên càng làm tăng cường tính bảo mật của hệ thống. Với một xác suất được xác định trước (p), giao thức kích hoạt một thách thức nơi nhiều người xác minh lại tính toán đầu ra của người xác nhận. Nếu phát hiện ra sai lệch, các tác nhân không trung thực sẽ bị trừng phạt. Quá trình lựa chọn ngẫu nhiên này làm cho việc đồng lõa và gian lận mà không bị phát hiện trở nên khó khăn cho những kẻ xấu.

Các Bước Của Giao Thức PoSP

  1. Lựa Chọn Người Xác Nhận: Một node được chọn ngẫu nhiên để hành động như một người xác nhận, tính toán và xuất ra một giá trị.

  2. Xác Suất Thách Thức:

    Hệ thống có thể kích hoạt thách thức dựa trên xác suất được xác định trước.

  • Không Có Thách Thức: Người xác nhận được thưởng nếu không có thách thức nào được kích hoạt.
  • Kích Hoạt Thách Thức: Một số lượng (n) người xác minh được chọn ngẫu nhiên để xác minh đầu ra của người xác nhận.
  1. Xác Minh:

    Mỗi người xác minh độc lập tính toán kết quả và so sánh với đầu ra của người xác nhận.

  • Phù Hợp: Nếu tất cả các kết quả phù hợp, cả người xác nhận và người xác minh đều được thưởng.
  • Không Phù Hợp: Quá trình phân xử xác định tính trung thực của người xác nhận và người xác minh.
  1. Hình Phạt: Các node không trung thực bị trừng phạt, trong khi các người xác minh trung thực nhận được phần thưởng của họ.

spML

Giao thức spML (học máy dựa trên mẫu) là một triển khai của giao thức Proof of Sampling (PoSP) trong mạng suy diễn AI phi tập trung.

Các Bước Chính

  1. Đầu Vào Của Người Dùng: Người dùng gửi đầu vào của họ đến một máy chủ được chọn ngẫu nhiên (người xác nhận) cùng với chữ ký số của họ.
  2. Đầu Ra Của Máy Chủ: Máy chủ tính toán đầu ra và gửi lại cho người dùng cùng với một mã băm của kết quả.
  3. Cơ Chế Thách Thức:
  • Với một xác suất được xác định trước (p), hệ thống kích hoạt một thách thức nơi một máy chủ khác (người xác minh) được chọn ngẫu nhiên để xác minh kết quả.
  • Nếu không có thách thức nào được kích hoạt, người xác nhận nhận phần thưởng (R) và quá trình kết thúc.
  1. Xác Minh:
  • Nếu thách thức được kích hoạt, người dùng gửi cùng một đầu vào cho người xác minh.
  • Người xác minh tính toán kết quả và gửi lại cho người dùng cùng với mã băm.
  1. So Sánh:
  • Người dùng so sánh các mã băm của đầu ra từ người xác nhận và người xác minh.
  • Nếu các mã băm khớp, cả người xác nhận và người xác minh đều được thưởng, và người dùng nhận được chiết khấu trên phí cơ bản.
  • Nếu các mã băm không khớp, người dùng sẽ phát sóng cả hai mã băm lên mạng.
  1. Phân Xử:
  • Mạng lưới bỏ phiếu để xác định tính trung thực của người xác nhận và người xác minh dựa trên các sai lệch.
  • Các node trung thực được thưởng, trong khi những kẻ không trung thực bị trừng phạt (cắt giảm).

Các Thành Phần và Cơ Chế Chính

  • Thực Thi ML Định Hướng: Sử dụng toán học điểm cố định và thư viện số học dựa trên phần mềm để đảm bảo kết quả nhất quán, có thể tái sản xuất.
  • Thiết Kế Không Trạng Thái: Xem mỗi truy vấn là độc lập, duy trì tính không trạng thái trong suốt quá trình ML.
  • Tham Gia Không Giới Hạn: Cho phép bất kỳ ai tham gia mạng lưới và đóng góp bằng cách chạy một máy chủ AI.
  • Hoạt Động Ngoài Chuỗi: Các suy luận AI được tính toán ngoài chuỗi để giảm tải cho blockchain, với các kết quả và chữ ký số được chuyển trực tiếp đến người dùng.
  • Hoạt Động Trên Chuỗi: Các chức năng quan trọng, chẳng hạn như tính toán số dư và cơ chế thách thức, được xử lý trên chuỗi để đảm bảo tính minh bạch và bảo mật.

Lợi Thế của spML

  • Bảo Mật Cao: Đạt được bảo mật thông qua các khuyến khích kinh tế, đảm bảo các node hành động trung thực do tiềm năng bị trừng phạt vì không trung thực.
  • Gánh Nặng Tính Toán Thấp: Người xác minh chỉ cần so sánh các mã băm trong hầu hết các trường hợp, giảm tải tính toán trong quá trình xác minh.
  • Khả Năng Mở Rộng: Có thể xử lý hoạt động mạng lưới rộng mà không làm suy giảm hiệu suất đáng kể.
  • Đơn Giản: Duy trì sự đơn giản trong triển khai, nâng cao khả năng tích hợp và bảo trì dễ dàng.

So Sánh Với Các Giao Thức Khác

  • Optimistic Fraud Proof (opML):
    • Dựa vào các biện pháp trừng phạt kinh tế cho hành vi gian lận và một cơ chế giải quyết tranh chấp.
    • Dễ bị tổn thương bởi các hoạt động gian lận nếu không đủ số lượng người xác minh trung thực.
  • Zero Knowledge Proof (zkML):
    • Đảm bảo bảo mật cao thông qua các chứng minh mật mã.
    • Gặp khó khăn về khả năng mở rộng và hiệu suất do gánh nặng tính toán cao.
  • spML:
    • Kết hợp bảo mật cao thông qua các khuyến khích kinh tế, gánh nặng tính toán thấp và khả năng mở rộng cao.
    • Đơn giản hóa quá trình xác minh bằng cách tập trung vào việc so sánh mã băm, giảm nhu cầu tính toán phức tạp trong các thách thức.

Tóm Tắt

Giao thức Proof of Sampling (PoSP) cân bằng hiệu quả nhu cầu khuyến khích các tác nhân tốt và ngăn chặn các tác nhân xấu, đảm bảo tính bảo mật và độ tin cậy của các hệ thống phi tập trung. Bằng cách kết hợp phần thưởng kinh tế với các hình phạt nghiêm khắc, PoSP tạo ra một môi trường mà hành vi trung thực không chỉ được khuyến khích mà còn cần thiết để thành công. Khi AI phi tập trung tiếp tục phát triển, các giao thức như PoSP sẽ là điều cần thiết để duy trì tính toàn vẹn và độ tin cậy của các hệ thống tiên tiến này.

· 5 phút để đọc
Lark Birdy

Arbitrum Nitro, được phát triển bởi Offchain Labs, là một giao thức blockchain Layer 2 thế hệ thứ hai được thiết kế để cải thiện thông lượng, tính cuối cùng và giải quyết tranh chấp. Nó được xây dựng dựa trên giao thức Arbitrum ban đầu, mang lại những cải tiến đáng kể đáp ứng nhu cầu hiện đại của blockchain.

Các Tính Năng Chính của Arbitrum Nitro

Arbitrum Nitro hoạt động như một giải pháp Layer 2 trên Ethereum, hỗ trợ thực thi các hợp đồng thông minh bằng mã Ethereum Virtual Machine (EVM). Điều này đảm bảo tương thích với các ứng dụng và công cụ Ethereum hiện có. Giao thức đảm bảo cả an toàn và tiến bộ, với điều kiện chuỗi Ethereum nền tảng vẫn an toàn và hoạt động, và ít nhất một người tham gia trong giao thức Nitro hành động trung thực.

Cách Tiếp Cận Thiết Kế

Kiến trúc của Nitro được xây dựng dựa trên bốn nguyên tắc cốt lõi:

  • Sắp xếp Theo Sau Thực Thi Xác Định: Các giao dịch được sắp xếp trước, sau đó được xử lý một cách xác định. Cách tiếp cận hai giai đoạn này đảm bảo một môi trường thực thi nhất quán và đáng tin cậy.
  • Geth Là Cốt Lõi: Nitro sử dụng gói go-ethereum (geth) để thực thi và duy trì trạng thái cốt lõi, đảm bảo sự tương thích cao với Ethereum.
  • Tách Biệt Thực Thi Khỏi Chứng Minh: Chức năng chuyển đổi trạng thái được biên dịch cho cả thực thi tự nhiên và web assembly (wasm) để tạo điều kiện cho thực thi hiệu quả và chứng minh có cấu trúc, độc lập với máy.
  • Optimistic Rollup Với Các Chứng Minh Gian Lận Tương Tác: Xây dựng dựa trên thiết kế ban đầu của Arbitrum, Nitro áp dụng giao thức optimistic rollup được cải tiến với cơ chế chứng minh gian lận phức tạp.

Sắp Xếp và Thực Thi

Quá trình xử lý giao dịch trong Nitro bao gồm hai thành phần chính: Sequencer và Chức Năng Chuyển Đổi Trạng Thái (STF).

Kiến Trúc Arbitrum Nitro

  • Sequencer: Sắp xếp các giao dịch đến và cam kết theo thứ tự này. Nó đảm bảo rằng chuỗi giao dịch được biết và đáng tin cậy, đăng tải nó cả dưới dạng luồng thời gian thực và dưới dạng các lô dữ liệu nén trên chuỗi Ethereum Layer 1. Cách tiếp cận kép này nâng cao độ tin cậy và ngăn chặn kiểm duyệt.
  • Thực Thi Xác Định: STF xử lý các giao dịch đã sắp xếp, cập nhật trạng thái chuỗi và tạo ra các khối mới. Quá trình này là xác định, có nghĩa là kết quả chỉ phụ thuộc vào dữ liệu giao dịch và trạng thái trước đó, đảm bảo tính nhất quán trên toàn mạng.

Kiến Trúc Phần Mềm: Geth Là Cốt Lõi

Kiến Trúc Arbitrum Nitro, Lớp

Kiến trúc phần mềm của Nitro được cấu trúc trong ba lớp:

  • Lớp Cơ Sở (Geth Core): Lớp này xử lý việc thực thi các hợp đồng EVM và duy trì các cấu trúc dữ liệu trạng thái Ethereum.
  • Lớp Trung Gian (ArbOS): Phần mềm tùy chỉnh cung cấp chức năng Layer 2, bao gồm việc giải nén các lô của sequencer, quản lý chi phí gas và hỗ trợ các chức năng cross-chain.
  • Lớp Trên Cùng: Được rút ra từ geth, lớp này xử lý các kết nối, các yêu cầu RPC đến và các chức năng nút cấp cao khác.

Tương Tác Cross-Chain

Arbitrum Nitro hỗ trợ các tương tác cross-chain an toàn thông qua các cơ chế như Outbox, Inbox và Retryable Tickets.

  • Outbox: Cho phép các cuộc gọi hợp đồng từ Layer 2 đến Layer 1, đảm bảo rằng các thông điệp được truyền và thực thi an toàn trên Ethereum.
  • Inbox: Quản lý các giao dịch được gửi đến Nitro từ Ethereum, đảm bảo chúng được bao gồm theo đúng thứ tự.
  • Retryable Tickets: Cho phép gửi lại các giao dịch thất bại, đảm bảo độ tin cậy và giảm nguy cơ mất giao dịch.

Gas và Phí

Nitro áp dụng một cơ chế đo gas và định giá tinh vi để quản lý chi phí giao dịch:

  • L2 Gas Metering và Định Giá: Theo dõi việc sử dụng gas và điều chỉnh phí cơ sở theo thuật toán để cân bằng nhu cầu và năng lực.
  • L1 Data Metering và Định Giá: Đảm bảo chi phí liên quan đến các tương tác Layer 1 được bao phủ, sử dụng một thuật toán định giá thích ứng để phân bổ các chi phí này một cách chính xác giữa các giao dịch.

Kết Luận

Cuckoo Network tự tin đầu tư vào sự phát triển của Arbitrum. Các giải pháp Layer 2 tiên tiến của Arbitrum Nitro mang lại khả năng mở rộng vượt trội, tính cuối cùng nhanh hơn và giải quyết tranh chấp hiệu quả. Sự tương thích với Ethereum đảm bảo một môi trường an toàn, hiệu quả cho các ứng dụng phi tập trung của chúng tôi, phù hợp với cam kết đổi mới và hiệu suất của chúng tôi.

· 8 phút để đọc
Dora Noda

Sự kết hợp giữa blockchain và AI đang thu hút sự chú ý đáng kể trên thị trường. Với việc ChatGPT nhanh chóng thu hút hàng trăm triệu người dùng và cổ phiếu của Nvidia tăng gấp tám lần trong năm 2023, AI đã khẳng định mình là một xu hướng chủ đạo. Sự ảnh hưởng này đang lan tỏa sang các lĩnh vực liên quan như blockchain, nơi các ứng dụng AI đang được khám phá.

Phân Quyền AI: Tổng Quan

Hiện tại, tiền điện tử đóng vai trò bổ sung trong AI, mang lại tiềm năng phát triển đáng kể. Hầu hết các tổ chức vẫn đang ở giai đoạn khám phá, tập trung vào việc token hóa sức mạnh tính toán (cloud và marketplace), mô hình (AI agents), và lưu trữ dữ liệu.

Công nghệ tiền điện tử phi tập trung không trực tiếp tăng hiệu quả hoặc giảm chi phí trong đào tạo AI, mà giúp tạo thuận lợi cho giao dịch tài sản, thu hút sức mạnh tính toán chưa được sử dụng trước đây. Điều này có lợi trong môi trường khan hiếm tài nguyên tính toán hiện nay. Việc token hóa mô hình cho phép quyền sở hữu cộng đồng phi tập trung hoặc sử dụng, giảm rào cản và cung cấp một lựa chọn thay thế cho AI tập trung. Tuy nhiên, việc token hóa dữ liệu phi tập trung vẫn còn gặp nhiều thách thức, cần phải tiếp tục được khám phá.

Mặc dù thị trường chưa đạt được sự đồng thuận về AI và tiền điện tử, hệ sinh thái đang dần hình thành. Dưới đây là một số lĩnh vực chúng tôi sẽ xem xét hôm nay: Cơ sở hạ tầng dưới dạng dịch vụ đám mây (Infrastructure-as-a-Service Cloud), các thị trường tài nguyên tính toán, token hóa và đào tạo mô hình, AI agents, token hóa dữ liệu, ZKML, và các ứng dụng AI.

Cơ Sở Hạ Tầng Dưới Dạng Dịch Vụ Đám Mây (Infrastructure-as-a-Service Cloud)

Khi thị trường AI phát triển, các dự án và thị trường điện toán đám mây GPU là những đơn vị đầu tiên được hưởng lợi. Họ nhằm mục tiêu tích hợp các tài nguyên GPU chưa được sử dụng vào các mạng tập trung, giảm chi phí tính toán so với các dịch vụ truyền thống.

Các dịch vụ đám mây này không được coi là các giải pháp phi tập trung nhưng là những phần không thể thiếu của hệ sinh thái web3 + AI. Ý tưởng rằng GPU là nguồn tài nguyên khan hiếm và có giá trị nội tại.

Dự án chủ chốt:

  • Akash Network: Thị trường điện toán đám mây phi tập trung dựa trên Cosmos SDK, sử dụng Kubernetes để điều phối và định giá ngược để giảm chi phí. Tập trung vào tính toán CPU và GPU.
  • Ritual: Mạng cơ sở hạ tầng AI tích hợp các mô hình AI vào các giao thức blockchain. Nền tảng Infernet của nó cho phép các hợp đồng thông minh truy cập trực tiếp vào các mô hình.
  • Render Network: Nền tảng kết xuất GPU phi tập trung tập trung vào cả kết xuất và tính toán AI. Chuyển sang Solana để có hiệu suất và chi phí tốt hơn.
  • NetMind.AI: Hệ sinh thái AI cung cấp thị trường cho các tài nguyên tính toán, chatbot và dịch vụ trợ lý cuộc sống. Hỗ trợ một loạt các mô hình GPU và tích hợp Google Colab.
  • CUDOS: Mạng điện toán blockchain tương tự như Akash, tập trung vào tính toán GPU qua Cosmos SDK.
  • Nuco.cloud: Dịch vụ đám mây tính toán phi tập trung dựa trên Ethereum và Telos, cung cấp nhiều giải pháp khác nhau.
  • Dynex: Blockchain cho tính toán neuromorphic, sử dụng Proof-of-Useful-Work để nâng cao hiệu suất.
  • OctaSpace: Đám mây tính toán phi tập trung, hoạt động trên blockchain của riêng nó cho AI và xử lý hình ảnh.
  • AIOZ Network: Nền tảng tính toán phi tập trung Layer 1 cho AI, lưu trữ và streaming.
  • Phoenix: Cơ sở hạ tầng blockchain Web3 cho tính toán AI và các mạng lưới dựa trên dữ liệu.
  • Aethir: Cơ sở hạ tầng đám mây cho gaming và AI, dựa trên Arbitrum.
  • Iagon: Thị trường lưu trữ và tính toán phi tập trung trên Cardano.
  • OpFlow: Nền tảng đám mây tập trung vào AI và kết xuất, sử dụng GPU NVIDIA.
  • OpSec: Nền tảng đám mây phi tập trung mới nổi nhằm xây dựng siêu máy tính thế hệ tiếp theo.

Thị Trường Tài Nguyên Tính Toán

Các thị trường tài nguyên tính toán phi tập trung sử dụng tài nguyên GPU và CPU do người dùng cung cấp cho các nhiệm vụ AI, đào tạo và suy luận. Các thị trường này huy động tài nguyên tính toán chưa được sử dụng, thưởng cho những người tham gia trong khi giảm rào cản tham gia.

Những thị trường tính toán GPU này thường tập trung vào câu chuyện phi tập trung hơn là tiện ích dịch vụ. Các dự án như io.net và Nosana, tận dụng công nghệ Solana và DePin, cho thấy tiềm năng tăng trưởng lớn. Đầu tư sớm vào thị trường GPU trong giai đoạn nhu cầu cao có thể mang lại lợi nhuận cao thông qua các ưu đãi và ROI.

Dự án chủ chốt:

  • Cuckoo AI: Một thị trường phi tập trung thưởng cho thợ đào GPU phục vụ các mô hình AI với các khoản thanh toán ERC20 hàng ngày. Nó sử dụng hợp đồng thông minh blockchain và tập trung vào tính minh bạch, bảo mật và tính mô-đun.
  • Clore.ai: Một nền tảng cho thuê GPU sử dụng PoW. Người dùng có thể thuê GPU để đào tạo AI, kết xuất và khai thác. Phần thưởng được gắn với số lượng token mà họ nắm giữ.
  • Nosana: Một nhà cung cấp điện toán đám mây GPU mã nguồn mở dựa trên Solana. Tập trung vào suy luận AI và đang phát triển các trình kết nối cho PyTorch, HuggingFace, TensorFlow, và các thư viện cộng đồng.
  • io.net: Một mạng điện toán đám mây AI tận dụng công nghệ blockchain Solana. Cung cấp các tài nguyên GPU hiệu quả về chi phí, hỗ trợ suy luận batch và đào tạo song song.
  • Gensyn: Một giao thức L1 cho đào tạo mô hình học sâu. Aims to improve training efficiency through a trustless, distributed system. Tập trung vào giảm chi phí đào tạo và tăng khả năng tiếp cận.
  • Nimble: Một hệ sinh thái AI phi tập trung kết hợp dữ liệu, sức mạnh tính toán và các nhà phát triển. Mục tiêu là làm cho việc đào tạo AI trở nên dễ tiếp cận hơn và có khung công tác phân quyền, có thể mở rộng.
  • Morpheus AI: Một thị trường điện toán phi tập trung xây dựng trên Arbitrum. Giúp người dùng tạo AI agents để tương tác với các hợp đồng thông minh.
  • Kuzco: Một cụm GPU phân phối cho suy luận LLM trên Solana. Cung cấp lưu trữ mô hình cục bộ hiệu quả và thưởng cho những người đóng góp bằng điểm KZO.
  • Golem: Một thị trường điện toán CPU dựa trên Ethereum đã mở rộng sang GPU. Một trong những mạng tính toán ngang hàng đầu tiên.
  • Node AI: Một thị trường điện toán đám mây GPU cung cấp các dịch vụ cho thuê GPU với giá cả phải chăng thông qua EyePerformance.
  • GPU.Net: Một mạng GPU phi tập trung cung cấp cơ sở hạ tầng cho AI tạo sinh, Web3 và kết xuất đồ họa cao cấp.
  • GamerHash: Một nền tảng tận dụng sức mạnh tính toán dự phòng của game thủ để khai thác tiền điện tử trong khi giới thiệu mô hình play-to-earn cho các thiết bị cấu hình thấp.
  • NodeSynapse: Một thị trường GPU cung cấp cơ sở hạ tầng Web3, tính toán GPU, lưu trữ máy chủ và mô hình chia sẻ doanh thu độc đáo cho người nắm giữ token.

Token Hóa Mô Hình Và Đào Tạo

Token hóa mô hình và đào tạo bao gồm việc chuyển đổi các mô hình AI thành tài sản có giá trị và tích hợp chúng vào các mạng blockchain. Phương pháp này cho phép quyền sở hữu phi tập trung, chia sẻ dữ liệu và ra quyết định. Nó hứa hẹn cải thiện tính minh bạch, bảo mật và cơ hội kiếm tiền trong khi tạo ra các kênh đầu tư mới.

Yếu tố cốt lõi là nhận biết các dự án có đổi mới thực sự và thách thức kỹ thuật. Chỉ đơn thuần giao dịch quyền sở hữu hoặc quyền sử dụng mô hình AI không phải