Lewati ke konten utama

Satu pos ditandai dengan "penelitian"

Lihat Semua Tag

LinguaLinked: Memberdayakan Perangkat Seluler dengan Model Bahasa Besar Terdistribusi

· Satu menit baca
Lark Birdy
Chief Bird Officer

Permintaan untuk menerapkan model bahasa besar (LLM) pada perangkat seluler semakin meningkat, didorong oleh kebutuhan akan privasi, pengurangan latensi, dan penggunaan bandwidth yang efisien. Namun, kebutuhan memori dan komputasi yang luas dari LLM menimbulkan tantangan signifikan. Masukkan LinguaLinked, sebuah sistem baru yang dikembangkan oleh sekelompok peneliti dari UC Irvine, dirancang untuk memungkinkan inferensi LLM terdesentralisasi dan terdistribusi di berbagai perangkat seluler, memanfaatkan kemampuan kolektif mereka untuk melakukan tugas-tugas kompleks secara efisien.

Tantangan

Menerapkan LLM seperti GPT-3 atau BLOOM pada perangkat seluler menantang karena:

  • Keterbatasan Memori: LLM memerlukan memori yang substansial, sering kali melebihi kapasitas perangkat seluler individu.
  • Keterbatasan Komputasi: Perangkat seluler biasanya memiliki daya pemrosesan yang terbatas, membuat sulit menjalankan model besar.
  • Kekhawatiran Privasi: Mengirim data ke server terpusat untuk pemrosesan menimbulkan masalah privasi.

Solusi LinguaLinked

LinguaLinked mengatasi tantangan ini dengan tiga strategi utama:

  1. Penugasan Model yang Dioptimalkan:

    • Sistem membagi LLM menjadi subgraf yang lebih kecil menggunakan optimasi linier untuk mencocokkan setiap segmen dengan kemampuan perangkat.
    • Ini memastikan penggunaan sumber daya yang efisien dan meminimalkan transmisi data antar perangkat.
  2. Penyeimbangan Beban Waktu Nyata:

    • LinguaLinked secara aktif memantau kinerja perangkat dan mendistribusikan ulang tugas untuk mencegah kemacetan.
    • Pendekatan dinamis ini memastikan penggunaan semua sumber daya yang tersedia secara efisien, meningkatkan responsivitas sistem secara keseluruhan.
  3. Komunikasi yang Dioptimalkan:

    • Peta transmisi data yang efisien memandu aliran informasi antar perangkat, menjaga integritas struktural model.
    • Metode ini mengurangi latensi dan memastikan pemrosesan data tepat waktu di seluruh jaringan perangkat seluler.

Sebuah model bahasa besar (LLM) tunggal dibagi menjadi bagian-bagian berbeda (atau segmen) dan didistribusikan di berbagai perangkat seluler. Pendekatan ini memungkinkan setiap perangkat menangani hanya sebagian kecil dari total kebutuhan komputasi dan penyimpanan, membuatnya layak untuk menjalankan model kompleks bahkan pada perangkat dengan sumber daya terbatas. Berikut adalah rincian cara kerjanya:

Segmentasi dan Distribusi Model

  1. Segmentasi Model:
    • Model bahasa besar diubah menjadi graf komputasi di mana setiap operasi dalam jaringan diwakili sebagai node.
    • Graf ini kemudian dibagi menjadi subgraf yang lebih kecil, masing-masing mampu berfungsi secara independen.
  2. Penugasan Model yang Dioptimalkan:
    • Menggunakan optimasi linier, subgraf ini (atau segmen model) ditugaskan ke berbagai perangkat seluler.
    • Penugasan mempertimbangkan kemampuan komputasi dan memori masing-masing perangkat, memastikan penggunaan sumber daya yang efisien dan meminimalkan overhead transmisi data antar perangkat.
  3. Eksekusi Inferensi Kolaboratif:
    • Setiap perangkat seluler memproses segmen model yang ditugaskan.
    • Perangkat saling berkomunikasi untuk bertukar hasil antara yang diperlukan, memastikan tugas inferensi keseluruhan diselesaikan dengan benar.
    • Strategi komunikasi yang dioptimalkan digunakan untuk menjaga integritas struktur model asli dan memastikan aliran data yang efisien.

Contoh Skenario

Bayangkan model bahasa besar seperti GPT-3 dibagi menjadi beberapa bagian. Satu perangkat seluler mungkin menangani embedding token awal dan beberapa lapisan pertama model, sementara perangkat lain memproses lapisan tengah, dan perangkat ketiga menyelesaikan lapisan akhir dan menghasilkan output. Sepanjang proses ini, perangkat berbagi output antara untuk memastikan inferensi model lengkap dijalankan dengan lancar.

Kinerja dan Hasil

Efikasi LinguaLinked ditunjukkan melalui pengujian ekstensif pada berbagai perangkat Android, baik kelas atas maupun kelas bawah. Temuan utama meliputi:

  • Kecepatan Inferensi: Dibandingkan dengan baseline, LinguaLinked mempercepat kinerja inferensi sebesar 1,11× hingga 1,61× dalam pengaturan single-threaded dan 1,73× hingga 2,65× dengan multi-threading.
  • Penyeimbangan Beban: Penyeimbangan beban waktu nyata sistem lebih meningkatkan kinerja, dengan percepatan keseluruhan sebesar 1,29× hingga 1,32×.
  • Skalabilitas: Model yang lebih besar mendapat manfaat signifikan dari penugasan model yang dioptimalkan oleh LinguaLinked, menunjukkan skalabilitas dan efektivitasnya dalam menangani tugas-tugas kompleks.

Kasus Penggunaan dan Aplikasi

LinguaLinked sangat cocok untuk skenario di mana privasi dan efisiensi sangat penting. Aplikasi termasuk:

  • Pembuatan dan Ringkasan Teks: Menghasilkan teks yang koheren dan relevan secara kontekstual secara lokal pada perangkat seluler.
  • Analisis Sentimen: Mengklasifikasikan data teks secara efisien tanpa mengorbankan privasi pengguna.
  • Terjemahan Waktu Nyata: Memberikan terjemahan cepat dan akurat langsung pada perangkat.

Arah Masa Depan

LinguaLinked membuka jalan untuk kemajuan lebih lanjut dalam AI seluler:

  • Efisiensi Energi: Iterasi mendatang akan fokus pada pengoptimalan konsumsi energi untuk mencegah pengurasan baterai dan pemanasan berlebih selama tugas intensif.
  • Privasi yang Ditingkatkan: Peningkatan berkelanjutan dalam pemrosesan terdesentralisasi akan memastikan privasi data yang lebih besar.
  • Model Multi-modalitas: Memperluas LinguaLinked untuk mendukung model multi-modalitas untuk aplikasi dunia nyata yang beragam.

Kesimpulan

LinguaLinked mewakili lompatan maju yang signifikan dalam menerapkan LLM pada perangkat seluler. Dengan mendistribusikan beban komputasi dan mengoptimalkan penggunaan sumber daya, ini membuat AI canggih dapat diakses dan efisien pada berbagai perangkat. Inovasi ini tidak hanya meningkatkan kinerja tetapi juga memastikan privasi data, membuka jalan untuk aplikasi AI seluler yang lebih personal dan aman.

Memahami Protokol Proof of Inference

· Satu menit baca
Lark Birdy
Chief Bird Officer

Kebangkitan model bahasa besar (LLM) dan komputasi terdesentralisasi telah memperkenalkan tantangan signifikan, terutama terkait verifikasi dan integritas perhitungan AI di seluruh sistem terdistribusi. Protokol 6079 Proof of Inference (PoIP) mengatasi tantangan ini dengan membangun kerangka kerja yang kuat untuk inferensi AI terdesentralisasi, memastikan perhitungan yang andal dan aman.

Tantangan: Keamanan dalam Inferensi AI Terdesentralisasi

Inferensi AI terdesentralisasi menghadapi masalah unik dalam memastikan integritas dan kebenaran perhitungan yang dilakukan di seluruh jaringan node terdistribusi. Metode verifikasi tradisional tidak memadai karena sifat non-deterministik dari banyak model AI. Tanpa protokol yang kuat, sulit untuk menjamin bahwa perangkat keras terdistribusi mengembalikan hasil inferensi yang akurat.

Memperkenalkan Protokol Proof of Inference (PoIP)

Protokol 6079 Proof of Inference (PoIP) menyediakan solusi revolusioner untuk mengamankan inferensi AI terdesentralisasi. Ini menggunakan kombinasi mekanisme keamanan kriptoekonomi, bukti kriptografi, dan pendekatan teori permainan untuk mendorong perilaku yang benar dan menghukum aktivitas jahat dalam jaringan.

Komponen Inti dari PoIP

Standar Mesin Inferensi

Standar Mesin Inferensi menetapkan pola dan standar komputasi untuk menjalankan tugas inferensi AI di seluruh jaringan terdesentralisasi. Standarisasi ini memastikan kinerja model AI yang konsisten dan andal pada perangkat keras terdistribusi.

Protokol Proof of Inference

Protokol ini beroperasi di beberapa lapisan:

  1. Lapisan Layanan: Menjalankan inferensi model pada perangkat keras fisik.
  2. Lapisan Kontrol: Mengelola titik akhir API, mengoordinasikan penyeimbangan beban, dan menangani diagnostik.
  3. Lapisan Transaksi: Menggunakan tabel hash terdistribusi (DHT) untuk melacak metadata transaksi.
  4. Lapisan Bukti Probabilistik: Memvalidasi transaksi melalui mekanisme kriptografi dan ekonomi.
  5. Lapisan Ekonomi: Menangani pembayaran, staking, slashing, keamanan, tata kelola, dan pendanaan publik.

Memastikan Integritas dan Keamanan

PoIP menggunakan beberapa mekanisme untuk memastikan integritas perhitungan inferensi AI:

  • Validasi Pohon Merkle: Memastikan bahwa data input mencapai GPU tanpa perubahan.
  • Tabel Hash Terdistribusi (DHT): Menyinkronkan data transaksi di seluruh node untuk mendeteksi ketidaksesuaian.
  • Tes Diagnostik: Mengevaluasi kemampuan perangkat keras dan memastikan kepatuhan dengan standar jaringan.

Insentif Ekonomi dan Teori Permainan

Protokol ini menggunakan insentif ekonomi untuk mendorong perilaku yang diinginkan di antara node:

  • Staking: Node mempertaruhkan token untuk menunjukkan komitmen dan meningkatkan kredibilitas mereka.
  • Pembangunan Reputasi: Tugas yang berhasil meningkatkan reputasi node, membuatnya lebih menarik untuk tugas di masa depan.
  • Mekanisme Permainan Kompetitif: Node bersaing untuk memberikan layanan terbaik, memastikan peningkatan berkelanjutan dan kepatuhan terhadap standar.

FAQ

Apa itu Protokol Proof of Inference?

Protokol Proof of Inference (PoIP) adalah sistem yang dirancang untuk mengamankan dan memverifikasi perhitungan inferensi AI di seluruh jaringan terdesentralisasi. Ini memastikan bahwa node perangkat keras terdistribusi mengembalikan hasil yang akurat dan dapat dipercaya.

Bagaimana PoIP memastikan integritas perhitungan AI?

PoIP menggunakan mekanisme seperti validasi pohon Merkle, tabel hash terdistribusi (DHT), dan tes diagnostik untuk memverifikasi integritas perhitungan AI. Alat-alat ini membantu mendeteksi ketidaksesuaian dan memastikan kebenaran data yang diproses di seluruh jaringan.

Apa peran insentif ekonomi dalam PoIP?

Insentif ekonomi dalam PoIP mendorong perilaku yang diinginkan di antara node. Node mempertaruhkan token untuk menunjukkan komitmen, membangun reputasi melalui tugas yang berhasil, dan bersaing untuk memberikan layanan terbaik. Sistem ini memastikan peningkatan berkelanjutan dan kepatuhan terhadap standar jaringan.

Apa saja lapisan utama dari PoIP?

PoIP beroperasi di lima lapisan utama: Lapisan Layanan, Lapisan Kontrol, Lapisan Transaksi, Lapisan Bukti Probabilistik, dan Lapisan Ekonomi. Setiap lapisan memainkan peran penting dalam memastikan keamanan, integritas, dan efisiensi inferensi AI pada jaringan terdesentralisasi.

Kesimpulan

Protokol 6079 Proof of Inference mewakili kemajuan menarik di bidang AI terdesentralisasi. Dengan memastikan keamanan dan keandalan perhitungan AI di seluruh jaringan terdistribusi, PoIP menunjukkan cara baru untuk adopsi yang lebih luas dan inovasi dalam aplikasi AI terdesentralisasi. Saat kita bergerak menuju masa depan yang lebih terdesentralisasi, protokol seperti PoIP akan berguna dalam menjaga kepercayaan dan integritas dalam sistem yang didukung AI.

Protokol Proof of Sampling: Memberikan Insentif untuk Kejujuran dan Menghukum Ketidakjujuran dalam Inferensi AI Terdesentralisasi

· Satu menit baca
Lark Birdy
Chief Bird Officer

Dalam AI terdesentralisasi, memastikan integritas dan keandalan penyedia GPU sangat penting. Protokol Proof of Sampling (PoSP), seperti yang dijelaskan dalam penelitian terbaru dari Holistic AI, menyediakan mekanisme canggih untuk memberikan insentif kepada pelaku baik sambil menghukum pelaku buruk. Mari kita lihat bagaimana protokol ini bekerja, insentif ekonominya, hukuman, dan penerapannya pada inferensi AI terdesentralisasi.

Insentif untuk Perilaku Jujur

Imbalan Ekonomi

Di inti protokol PoSP terdapat insentif ekonomi yang dirancang untuk mendorong partisipasi jujur. Node, yang bertindak sebagai asserter dan validator, diberi imbalan berdasarkan kontribusi mereka:

  • Asserter: Menerima imbalan (RA) jika output yang dihitung benar dan tidak ditantang.
  • Validator: Berbagi imbalan (RV/n) jika hasil mereka sesuai dengan asserter dan diverifikasi sebagai benar.

Keseimbangan Nash Unik

Protokol PoSP dirancang untuk mencapai Keseimbangan Nash unik dalam strategi murni, di mana semua node termotivasi untuk bertindak jujur. Dengan menyelaraskan keuntungan individu dengan keamanan sistem, protokol ini memastikan bahwa kejujuran adalah strategi paling menguntungkan bagi peserta.

Hukuman untuk Perilaku Tidak Jujur

Mekanisme Slashing

Untuk mencegah perilaku tidak jujur, protokol PoSP menggunakan mekanisme slashing. Jika seorang asserter atau validator tertangkap tidak jujur, mereka menghadapi hukuman ekonomi yang signifikan (S). Ini memastikan bahwa biaya ketidakjujuran jauh melebihi potensi keuntungan jangka pendek.

Mekanisme Tantangan

Tantangan acak lebih lanjut mengamankan sistem. Dengan probabilitas yang telah ditentukan (p), protokol memicu tantangan di mana beberapa validator menghitung ulang output asserter. Jika ditemukan ketidaksesuaian, pelaku tidak jujur dihukum. Proses pemilihan acak ini membuat sulit bagi pelaku buruk untuk berkolusi dan menipu tanpa terdeteksi.

Langkah-langkah Protokol PoSP

  1. Pemilihan Asserter: Sebuah node dipilih secara acak untuk bertindak sebagai asserter, menghitung dan mengeluarkan nilai.

  2. Probabilitas Tantangan:

    Sistem dapat memicu tantangan berdasarkan probabilitas yang telah ditentukan.

    • Tidak Ada Tantangan: Asserter diberi imbalan jika tidak ada tantangan yang dipicu.
    • Tantangan Dipicu: Sejumlah validator (n) dipilih secara acak untuk memverifikasi output asserter.
  3. Validasi:

    Setiap validator secara independen menghitung hasil dan membandingkannya dengan output asserter.

    • Cocok: Jika semua hasil cocok, baik asserter maupun validator diberi imbalan.
    • Tidak Cocok: Proses arbitrase menentukan kejujuran asserter dan validator.
  4. Hukuman: Node yang tidak jujur dihukum, sementara validator yang jujur menerima bagian imbalan mereka.

SpML

Protokol spML (sampling-based Machine Learning) adalah implementasi dari protokol Proof of Sampling (PoSP) dalam jaringan inferensi AI terdesentralisasi.

Langkah Kunci

  1. Input Pengguna: Pengguna mengirimkan input mereka ke server yang dipilih secara acak (asserter) bersama dengan tanda tangan digital mereka.
  2. Output Server: Server menghitung output dan mengirimkannya kembali ke pengguna bersama dengan hash dari hasilnya.
  3. Mekanisme Tantangan:
    • Dengan probabilitas yang telah ditentukan (p), sistem memicu tantangan di mana server lain (validator) dipilih secara acak untuk memverifikasi hasil.
    • Jika tidak ada tantangan yang dipicu, asserter menerima imbalan (R) dan proses berakhir.
  4. Verifikasi:
    • Jika tantangan dipicu, pengguna mengirimkan input yang sama ke validator.
    • Validator menghitung hasil dan mengirimkannya kembali ke pengguna bersama dengan hash.
  5. Perbandingan:
    • Pengguna membandingkan hash dari output asserter dan validator.
    • Jika hash cocok, baik asserter maupun validator diberi imbalan, dan pengguna menerima diskon pada biaya dasar.
    • Jika hash tidak cocok, pengguna menyiarkan kedua hash ke jaringan.
  6. Arbitrase:
    • Jaringan memberikan suara untuk menentukan kejujuran asserter dan validator berdasarkan ketidaksesuaian.
    • Node yang jujur diberi imbalan, sementara yang tidak jujur dihukum (slashed).

Komponen dan Mekanisme Kunci

  • Eksekusi ML Deterministik: Menggunakan aritmatika titik tetap dan perpustakaan titik mengambang berbasis perangkat lunak untuk memastikan hasil yang konsisten dan dapat direproduksi.
  • Desain Tanpa Status: Memperlakukan setiap kueri sebagai independen, mempertahankan tanpa status sepanjang proses ML.
  • Partisipasi Tanpa Izin: Memungkinkan siapa saja untuk bergabung dengan jaringan dan berkontribusi dengan menjalankan server AI.
  • Operasi Off-chain: Inferensi AI dihitung di luar rantai untuk mengurangi beban pada blockchain, dengan hasil dan tanda tangan digital disampaikan langsung kepada pengguna.
  • Operasi On-chain: Fungsi kritis, seperti perhitungan saldo dan mekanisme tantangan, ditangani di dalam rantai untuk memastikan transparansi dan keamanan.

Keuntungan spML

  • Keamanan Tinggi: Mencapai keamanan melalui insentif ekonomi, memastikan node bertindak jujur karena potensi hukuman untuk ketidakjujuran.
  • Beban Komputasi Rendah: Validator hanya perlu membandingkan hash dalam kebanyakan kasus, mengurangi beban komputasi selama verifikasi.
  • Skalabilitas: Dapat menangani aktivitas jaringan yang luas tanpa penurunan kinerja yang signifikan.
  • Kesederhanaan: Mempertahankan kesederhanaan dalam implementasi, meningkatkan kemudahan integrasi dan pemeliharaan.

Perbandingan dengan Protokol Lain

  • Optimistic Fraud Proof (opML):
    • Bergantung pada disinsentif ekonomi untuk perilaku curang dan mekanisme penyelesaian sengketa.
    • Rentan terhadap aktivitas curang jika tidak cukup validator yang jujur.
  • Zero Knowledge Proof (zkML):
    • Memastikan keamanan tinggi melalui bukti kriptografi.
    • Menghadapi tantangan dalam skalabilitas dan efisiensi karena beban komputasi yang tinggi.
  • spML:
    • Menggabungkan keamanan tinggi melalui insentif ekonomi, beban komputasi rendah, dan skalabilitas tinggi.
    • Menyederhanakan proses verifikasi dengan berfokus pada perbandingan hash, mengurangi kebutuhan untuk perhitungan kompleks selama tantangan.

Ringkasan

Protokol Proof of Sampling (PoSP) secara efektif menyeimbangkan kebutuhan untuk memberikan insentif kepada pelaku baik dan mencegah pelaku buruk, memastikan keamanan dan keandalan keseluruhan sistem terdesentralisasi. Dengan menggabungkan imbalan ekonomi dengan hukuman yang ketat, PoSP menciptakan lingkungan di mana perilaku jujur tidak hanya didorong tetapi juga diperlukan untuk sukses. Seiring pertumbuhan AI terdesentralisasi, protokol seperti PoSP akan sangat penting dalam menjaga integritas dan kepercayaan sistem canggih ini.

Desentralisasi AI: Sebuah Tinjauan

· Satu menit baca
Dora Noda
Software Engineer

Kombinasi antara blockchain dan AI mendapatkan perhatian pasar yang signifikan. Dengan ChatGPT yang dengan cepat mengumpulkan ratusan juta pengguna dan saham Nvidia yang melonjak delapan kali lipat pada tahun 2023, AI telah memantapkan dirinya sebagai tren dominan. Pengaruh ini meluas ke sektor-sektor terkait seperti blockchain, di mana aplikasi AI sedang dieksplorasi.

Desentralisasi AI: Sebuah Tinjauan

Saat ini, kripto berperan sebagai pelengkap dalam AI, menawarkan potensi pertumbuhan yang signifikan. Sebagian besar organisasi masih berada dalam fase eksplorasi, berfokus pada tokenisasi daya komputasi (cloud dan marketplace), model (agen AI), dan penyimpanan data.

Teknologi kripto terdesentralisasi tidak secara langsung meningkatkan efisiensi atau mengurangi biaya dalam pelatihan AI tetapi memfasilitasi perdagangan aset, menarik daya komputasi yang sebelumnya tidak terpakai. Ini menguntungkan dalam lingkungan yang kekurangan daya komputasi saat ini. Tokenisasi model memungkinkan kepemilikan atau penggunaan komunitas yang terdesentralisasi, mengurangi hambatan dan menawarkan alternatif untuk AI terpusat. Namun, data terdesentralisasi tetap menantang untuk ditokenisasi, memerlukan eksplorasi lebih lanjut.

Meskipun pasar belum mencapai konsensus tentang AI dan kripto, ekosistemnya mulai terbentuk. Berikut beberapa kategori yang akan kita tinjau hari ini: Infrastruktur sebagai Layanan Cloud, marketplace komputasi, tokenisasi model dan pelatihan, agen AI, tokenisasi data, ZKML, dan aplikasi AI.

Infrastruktur sebagai Layanan Cloud

Seiring pertumbuhan pasar AI, proyek cloud computing GPU dan marketplace adalah yang pertama mendapatkan manfaat. Mereka bertujuan untuk mengintegrasikan sumber daya GPU yang tidak terpakai ke dalam jaringan terpusat, menurunkan biaya komputasi dibandingkan dengan layanan tradisional.

Layanan cloud ini tidak dianggap sebagai solusi terdesentralisasi tetapi merupakan bagian integral dari ekosistem web3 + AI. Idenya adalah bahwa GPU adalah sumber daya yang langka dan memiliki nilai intrinsik.

Proyek Utama:

  • Akash Network: Marketplace cloud computing terdesentralisasi berbasis Cosmos SDK, menggunakan Kubernetes untuk orkestrasi dan penetapan harga lelang terbalik untuk pengurangan biaya. Berfokus pada komputasi CPU dan GPU.
  • Ritual: Jaringan infrastruktur AI yang mengintegrasikan model AI ke dalam protokol blockchain. Platform Infernet-nya memungkinkan kontrak pintar mengakses model secara langsung.
  • Render Network: Platform rendering GPU terdesentralisasi yang berfokus pada rendering dan komputasi AI. Beralih ke Solana untuk kinerja dan biaya yang lebih baik.
  • NetMind.AI: Ekosistem AI yang menyediakan marketplace untuk sumber daya komputasi, layanan chatbot, dan asisten kehidupan. Mendukung berbagai model GPU dan mengintegrasikan Google Colab.
  • CUDOS: Jaringan komputasi blockchain mirip dengan Akash, berfokus pada komputasi GPU melalui Cosmos SDK.
  • Nuco.cloud: Layanan cloud komputasi terdesentralisasi berbasis Ethereum dan Telos, menawarkan berbagai solusi.
  • Dynex: Blockchain untuk komputasi neuromorfik, menggunakan Proof-of-Useful-Work untuk efisiensi.
  • OctaSpace: Cloud komputasi terdesentralisasi, beroperasi pada blockchain sendiri untuk AI dan pemrosesan gambar.
  • AIOZ Network: Platform komputasi terdesentralisasi Layer 1 untuk AI, penyimpanan, dan streaming.
  • Phoenix: Infrastruktur blockchain Web3 untuk komputasi AI dan jaringan berbasis data.
  • Aethir: Infrastruktur cloud untuk gaming dan AI, berbasis Arbitrum.
  • Iagon: Marketplace penyimpanan dan komputasi terdesentralisasi di Cardano.
  • OpFlow: Platform cloud yang berfokus pada AI dan rendering, menggunakan GPU NVIDIA.
  • OpSec: Platform cloud terdesentralisasi yang sedang berkembang, bertujuan untuk membangun superkomputer generasi berikutnya.

Marketplace sumber daya komputasi

Marketplace sumber daya komputasi terdesentralisasi memanfaatkan sumber daya GPU dan CPU yang disediakan pengguna untuk tugas AI, pelatihan, dan inferensi. Marketplace ini memobilisasi daya komputasi yang tidak terpakai, memberi imbalan kepada peserta sambil mengurangi hambatan masuk.

Marketplace komputasi GPU ini sering berfokus pada narasi desentralisasi daripada utilitas layanan. Proyek seperti io.net dan Nosana, yang memanfaatkan teknologi Solana dan DePin, menunjukkan potensi pertumbuhan yang besar. Berinvestasi lebih awal di pasar GPU selama fase permintaan puncak dapat menawarkan pengembalian tinggi melalui insentif dan ROI.

Proyek Utama:

  • Cuckoo AI: Marketplace terdesentralisasi yang memberi imbalan kepada penambang GPU yang melayani model AI dengan pembayaran ERC20 harian. Menggunakan kontrak pintar blockchain dan berfokus pada transparansi, privasi, dan modularitas.
  • Clore.ai: Platform penyewaan GPU menggunakan PoW. Pengguna dapat menyewa GPU untuk pelatihan AI, rendering, dan tugas penambangan. Imbalan terkait dengan jumlah token mereka yang dipegang.
  • Nosana: Penyedia cloud computing GPU berbasis Solana yang bersumber terbuka. Berfokus pada inferensi AI dan sedang mengembangkan konektor untuk PyTorch, HuggingFace, TensorFlow, dan perpustakaan komunitas.
  • io.net: Jaringan cloud computing AI yang memanfaatkan teknologi blockchain Solana. Menawarkan sumber daya GPU yang hemat biaya, mendukung inferensi batch dan pelatihan paralel.
  • Gensyn: Protokol L1 untuk pelatihan model pembelajaran mendalam. Bertujuan untuk meningkatkan efisiensi pelatihan melalui sistem terdistribusi tanpa kepercayaan. Berfokus pada pengurangan biaya pelatihan dan peningkatan aksesibilitas.
  • Nimble: Ekosistem AI terdesentralisasi yang menggabungkan data, daya komputasi, dan pengembang. Bertujuan untuk membuat pelatihan AI lebih mudah diakses dan memiliki kerangka kerja yang terdesentralisasi dan dapat dikomposisi.
  • Morpheus AI: Marketplace komputasi terdesentralisasi yang dibangun di atas Arbitrum. Membantu pengguna membuat agen AI untuk berinteraksi dengan kontrak pintar.
  • Kuzco: Kluster GPU terdistribusi untuk inferensi LLM di Solana. Menawarkan hosting model lokal yang efisien dan memberi imbalan kepada kontributor dengan poin KZO.
  • Golem: Marketplace komputasi CPU berbasis Ethereum yang telah berkembang ke GPU. Salah satu jaringan komputasi peer-to-peer pertama.
  • Node AI: Marketplace cloud GPU yang menawarkan penyewaan GPU yang terjangkau melalui EyePerformance.
  • GPU.Net: Jaringan GPU terdesentralisasi yang menyediakan infrastruktur untuk AI generatif, Web3, dan rendering grafis kelas atas.
  • GamerHash: Platform yang memanfaatkan daya komputasi cadangan gamer untuk penambangan kripto sambil memperkenalkan model play-to-earn untuk perangkat kelas bawah.
  • NodeSynapse: Marketplace GPU yang menawarkan infrastruktur Web3, komputasi GPU, hosting server, dan model pembagian pendapatan unik untuk pemegang token.

Tokenisasi model dan pelatihan

Tokenisasi model dan pelatihan melibatkan konversi model AI menjadi aset berharga dan mengintegrasikannya ke dalam jaringan blockchain. Pendekatan ini memungkinkan kepemilikan terdesentralisasi, berbagi data, dan pengambilan keputusan. Ini menjanjikan peningkatan transparansi, keamanan, dan peluang monetisasi sambil menciptakan saluran investasi baru.

Faktor penting adalah mengenali proyek dengan inovasi nyata dan tantangan teknis. Sekadar memperdagangkan kepemilikan atau hak penggunaan model AI bukanlah inovasi sejati. Kemajuan nyata datang dari memverifikasi keluaran model secara efektif dan memastikan operasi model yang aman dan terdesentralisasi.

Proyek Utama:

  • SaharaLabs: Berfokus pada privasi dan berbagi data dengan alat seperti Knowledge Agent dan Data Marketplace, membantu mengamankan operasi data dan menarik klien seperti MIT dan Microsoft.
  • Bittensor: Membangun protokol terdesentralisasi untuk model AI untuk bertukar nilai. Menggunakan validator dan penambang untuk memberi peringkat respons dan meningkatkan kualitas keseluruhan aplikasi yang didorong AI.
  • iExec RLC: Platform cloud computing terdesentralisasi yang memastikan keamanan sumber daya melalui konsensus Proof-of-Contribution sambil mengelola tugas komputasi jangka pendek.
  • Allora: Memberi imbalan kepada agen AI untuk prediksi pasar yang akurat, memanfaatkan mekanisme konsensus untuk memvalidasi perkiraan agen dalam jaringan terdesentralisasi.
  • lPAAL AI: Menyediakan platform untuk membuat model AI yang dipersonalisasi yang dapat menangani intelijen pasar, strategi perdagangan, dan tugas profesional lainnya.
  • MyShell: Menawarkan platform AI yang fleksibel untuk pengembangan chatbot dan integrasi model pihak ketiga, memberi insentif kepada pengembang melalui token asli.
  • Qubic: Memanfaatkan konsensus proof-of-work untuk pelatihan AI, dengan lapisan perangkat lunak Aigarth yang memfasilitasi pembuatan jaringan saraf.

Agen AI

Agen AI, atau agen cerdas, adalah entitas yang mampu memahami secara mandiri, mengingat, membuat keputusan, menggunakan alat, dan melakukan tugas kompleks. Agen ini tidak hanya membimbing pengguna tentang "cara" melakukan tugas tetapi juga secara aktif membantu menyelesaikannya. Secara khusus, ini merujuk pada agen AI yang berinteraksi dengan teknologi blockchain untuk aktivitas seperti perdagangan, menawarkan saran investasi, mengoperasikan bot, meningkatkan fungsionalitas keuangan terdesentralisasi (DeFi), dan melakukan analisis data on-chain.

Agen AI semacam itu terintegrasi erat dengan teknologi blockchain, memungkinkan mereka untuk menghasilkan pendapatan secara langsung, memperkenalkan skenario perdagangan baru, dan meningkatkan pengalaman pengguna blockchain. Integrasi ini mewakili narasi lanjutan dalam DeFi, menciptakan keuntungan melalui aktivitas perdagangan, menarik investasi modal, dan memupuk hype, yang pada gilirannya mendorong siklus investasi seperti skema Ponzi.

Proyek Utama:

  • Morpheus: Marketplace komputasi AI terdesentralisasi yang dibangun di atas Arbitrum yang memungkinkan pembuatan agen AI yang mengoperasikan kontrak pintar. Proyek ini dipimpin oleh David Johnston, yang memiliki latar belakang dalam investasi dan kepemimpinan eksekutif. Morpheus berfokus pada keterlibatan komunitas dengan peluncuran yang adil, kode staking yang diaudit keamanan, dan pengembangan aktif, meskipun pembaruan pada kode agen AI lambat dan kemajuan modul inti tidak jelas.
  • QnA3.AI: Menyediakan layanan komprehensif untuk manajemen informasi, manajemen aset, dan manajemen hak sepanjang siklus hidup mereka. Menggunakan teknologi Retrieval-Augmented Generation (RAG), QnA3 meningkatkan pengambilan dan pembuatan informasi. Proyek ini telah berkembang pesat sejak dimulai pada tahun 2023, dengan peningkatan signifikan dalam keterlibatan pengguna dan aplikasi.
  • Autonolas: Pasar terbuka untuk membuat dan menggunakan agen AI terdesentralisasi, menawarkan alat bagi pengembang untuk membangun agen AI yang mampu terhubung ke beberapa blockchain. Dipimpin oleh David Minarsch, seorang ekonom lulusan Cambridge yang berspesialisasi dalam layanan multi-agen.
  • SingularityNET: Jaringan layanan AI terbuka dan terdesentralisasi yang bertujuan untuk mendemokratisasi dan mendesentralisasikan AI tujuan umum. Jaringan ini memungkinkan pengembang untuk memonetisasi layanan AI mereka menggunakan token AGIX asli dan didirikan oleh Dr. Ben Goertzel dan Dr. David Hanson, yang dikenal karena pekerjaan mereka pada robot humanoid Sophia.
  • Fetch.AI: Salah satu protokol agen AI paling awal, yang telah mengembangkan ekosistem untuk menerapkan agen menggunakan token FET. Tim ini terdiri dari para ahli dari universitas bergengsi dan perusahaan terkemuka, berfokus pada solusi AI dan algoritmik.
  • Humans.ai: Platform blockchain AI yang menggabungkan pemangku kepentingan yang terlibat dalam penciptaan berbasis AI dalam suite studio kreatif, memungkinkan individu untuk membuat dan memiliki kemiripan digital mereka untuk penciptaan aset digital.
  • Metatrust: Jaringan agen AI yang diaktifkan kripto yang menawarkan solusi keamanan Web3 yang komprehensif yang mencakup seluruh siklus hidup pengembangan perangkat lunak, didirikan oleh tim penelitian yang diakui secara global dari Nanyang Technological University.
  • AgentLayer: Dikembangkan oleh tim Metatrust, jaringan agen terdesentralisasi ini memanfaatkan OP Stack dan EigenDA untuk meningkatkan efisiensi data dan kinerja serta keamanan secara keseluruhan.
  • DAIN: Membangun ekonomi agen-ke-agen di Solana, berfokus pada memungkinkan interaksi yang mulus antara agen dari berbagai perusahaan melalui API universal, menekankan integrasi dengan produk web2 dan web3.
  • ChainGPT: Model AI yang dirancang untuk blockchain dan kripto, menampilkan produk seperti generator NFT AI, generator berita bertenaga AI, asisten perdagangan, generator kontrak pintar, dan auditor. ChainGPT memenangkan BNB Ecosystem Catalyst Award pada September 2023.

Tokenisasi data

Persimpangan AI dan kriptografi di sektor data memiliki potensi signifikan, karena data dan daya komputasi adalah sumber daya dasar untuk AI. Sementara komputasi terdesentralisasi kadang-kadang dapat mengurangi efisiensi, mendesentralisasikan data masuk akal karena produksi data secara inheren terdesentralisasi. Dengan demikian, kombinasi AI dan blockchain di sektor data menawarkan potensi pertumbuhan yang substansial.

Tantangan utama di bidang ini adalah kurangnya marketplace data yang matang, membuat penilaian dan standarisasi data yang efektif menjadi sulit. Tanpa mekanisme penilaian yang andal, proyek kesulitan menarik modal melalui insentif token, yang berpotensi mematahkan "efek flywheel" bahkan untuk proyek dengan potensi tinggi.

Proyek Utama:

  • Synesis One: Platform crowdsourcing di Solana di mana pengguna mendapatkan token dengan menyelesaikan tugas mikro untuk pelatihan AI. Bekerja sama dengan Mind AI, platform ini mendukung berbagai jenis data dan otomatisasi proses robot. Mind AI memiliki kesepakatan dengan GM dan pemerintah India, mengumpulkan dana sebesar $9,5 juta.
  • Grass.io: Marketplace bandwidth terdesentralisasi yang memungkinkan pengguna menjual bandwidth surplus mereka ke perusahaan AI. Dengan lebih dari 2 juta alamat IP, hanya pengguna aktif yang mendapatkan imbalan. Mereka telah mengumpulkan $3,5 juta dalam pendanaan awal yang dipimpin oleh Polychain dan Tribe Capital.
  • GagaNode: Pasar bandwidth terdesentralisasi generasi berikutnya yang mengatasi kekurangan IPv4 menggunakan teknologi Web 3.0. Kompatibel dengan berbagai platform, termasuk seluler, dan kodenya bersifat open-source.
  • Ocean Protocol: Memungkinkan pengguna untuk men-tokenisasi dan memperdagangkan data mereka di Ocean Market, menciptakan NFT data dan token data. Pendiri Bruce Pon, sebelumnya dengan Mercedes-Benz, adalah dosen tentang teknologi blockchain dan desentralisasi, didukung oleh tim penasihat global.

Aplikasi AI

Menggabungkan kemampuan AI dengan bisnis kripto saat ini membuka jalan baru untuk meningkatkan efisiensi dan fungsionalitas di berbagai sektor seperti DeFi, gaming, NFT, pendidikan, dan manajemen sistem.

DeFi

  • inSure DeFi: Protokol asuransi terdesentralisasi di mana pengguna membeli token SURE untuk mengasuransikan aset kripto mereka. Memanfaatkan Chainlink untuk penetapan harga dinamis.
  • Hera Finance: Aggregator DEX lintas rantai yang didorong AI terintegrasi dengan beberapa rantai, seperti Ethereum, BNB, dan Arbitrum.
  • SingularityDAO: Protokol DeFi bertenaga AI yang menawarkan manajemen investasi. Bekerja sama dengan SingularityNET, mereka mengamankan $25 juta untuk meningkatkan alat AI dan ekosistem mereka.
  • Arc: Menawarkan ekosistem DeFi yang didorong AI melalui Reactor dan DApp. Mengakuisisi Lychee AI, bergabung dengan Program Startup AI Google Cloud, dan merilis ARC Swaps yang didukung AI.
  • AQTIS: Protokol likuiditas yang didukung AI yang bertujuan untuk membangun ekosistem berkelanjutan dengan $AQTIS mirip dengan gas di Ethereum.
  • Jarvis Network: Memanfaatkan algoritma AI untuk mengoptimalkan strategi perdagangan untuk kripto dan aset lainnya. Token asli mereka JRT beredar aktif.
  • LeverFi: Protokol perdagangan leverage yang mengembangkan solusi DeFi AI dengan Microsoft. Mengamankan $2 juta dari DWF Labs untuk manajemen investasi AI.
  • Mozaic: Protokol auto-farming yang memadukan konsep AI dan teknologi LayerZero.

Gaming

  • Sleepless AI: Menggunakan blockchain AI untuk game pendamping virtual. Game pertama, HIM, menampilkan karakter SBT unik on-chain. Binance meluncurkan token Sleepless AI melalui Launchpool.
  • Phantasma: Blockchain layer 1 yang berfokus pada gaming yang menawarkan smartNFT dan encoder kontrak pintar AI.
  • Delysium: Penerbit game Web3 yang didorong AI dengan kerangka dunia terbuka. Mereka menawarkan Lucy, OS Web3 AI, dan memungkinkan pembuatan AI-Twins untuk game interaktif.
  • Mars4.me: Proyek metaverse 3D interaktif yang didukung oleh data NASA. Mengamankan pendanaan jangka panjang dari DWF Labs.
  • GamerHash: Memanfaatkan daya komputasi berlebih selama gaming kelas atas untuk penambangan kripto. Fitur Play&Earn mereka menyediakan tugas untuk komputer berspesifikasi lebih rendah.
  • Gaimin: Didirikan oleh tim eSports, menggabungkan komputasi awan dengan gaming untuk membangun dApp yang menyediakan imbalan GPU tambahan.
  • Cerebrum Tech: Penyedia solusi AI generatif, gaming, dan Web3. Baru-baru ini mengumpulkan $1,8 juta untuk ekspansi gaming dan AI.
  • Ultiverse: Platform gaming metaverse yang mengumpulkan dana dari Binance Labs untuk meluncurkan protokol metaverse terbuka yang didorong AI, Bodhi.

NFT

  • NFPrompt: Platform yang didorong AI di mana pengguna dapat menghasilkan seni NFT. Launchpool Binance mendukung staking NFP untuk imbalan.
  • Vertex Labs: Penyedia infrastruktur Web3 dan AI dengan merek blockchain, komputasi AI, dan Web3 seperti Hape Prime.

Pendidikan

  • Hooked Protocol: Menawarkan game edukasi sosial dan memiliki Hooked Academy, alat pendidikan yang didorong AI yang didukung oleh ChatGPT.

Sistem

  • Terminus OS: OS Web3 berbasis arsitektur blockchain-edge-client, dirancang untuk bukti kecerdasan era AI. ByteTrade mengamankan pendanaan $50 juta untuk pengembangannya.

Kesimpulan

Fusi AI dan cryptocurrency membuka peluang revolusioner di berbagai sektor, dari komputasi awan dan aplikasi AI hingga tokenisasi data dan pembelajaran mesin tanpa pengetahuan. Kombinasi teknologi ini sudah menunjukkan kekuatan transformasinya. Dengan lebih banyak proyek inovatif di cakrawala, masa depan AI dan kripto akan beragam, cerdas, dan aman.

Kami sangat menantikan kolaborasi baru dan teknologi mutakhir yang akan memperluas jangkauan AI dan blockchain ke aplikasi yang lebih luas lagi.