Peluang dan Tantangan Integrasi AI dan Web3: Inovasi Stacking dari Data ke Daya Komputasi

AI+Web3: Menara dan Lapangan

TL;DR

  1. Proyek Web3 dengan konsep AI menjadi target penggalangan dana di pasar primer dan sekunder.

  2. Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang, lintas data, penyimpanan, dan komputasi; sambil membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.

  3. AI di industri Web3 terutama digunakan untuk keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta membantu pengembangan.

  4. Kegunaan AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan konsentrasi AI, sementara AI diharapkan dapat membantu Web3 untuk menjangkau lebih luas.

AI+Web3:Menara dan Lapangan

Pendahuluan

Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat. Gelombang yang dipicu oleh Chatgpt ini tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga telah memicu gelombang besar di bidang Web3.

Dengan dukungan konsep AI, pendanaan di pasar kripto yang melambat mengalami peningkatan yang jelas. Hanya di paruh pertama tahun 2024, 64 proyek Web3+AI telah menyelesaikan pendanaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS di putaran A.

Pasar sekunder semakin berkembang pesat, data Coingecko menunjukkan bahwa dalam waktu lebih dari satu tahun, total kapitalisasi pasar di jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS. Kemajuan teknologi AI yang utama membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata sektor AI meningkat sebesar 151%. Efek AI juga menjangkau salah satu sektor yang menarik perhatian cryptocurrency, Meme: MemeCoin pertama dengan konsep AI Agent—GOAT dengan cepat menjadi populer dan mendapatkan valuasi 1,4 miliar dolar AS, berhasil memicu gelombang Meme AI.

Tentang penelitian dan topik AI+Web3 juga sama panas, dari AI+Depin hingga AI Memecoin dan sekarang AI Agent dan AI DAO, perasaan FOMO jelas tidak dapat mengikuti kecepatan pergantian narasi baru.

AI+Web3, kombinasi istilah yang penuh dengan uang panas, peluang, dan fantasi masa depan, tak pelak dianggap sebagai pernikahan yang diatur oleh modal. Kita sepertinya sulit untuk membedakan di balik jubah megah ini, apakah ini adalah arena para spekulan, ataukah malam menjelang ledakan fajar?

Untuk menjawab pertanyaan ini, sebuah pemikiran yang krusial bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuatnya lebih baik? Apakah ada keuntungan yang bisa didapat dari pola satu sama lain? Dalam artikel ini, kami berusaha untuk melihat pola ini dari sudut pandang para pendahulu: bagaimana Web3 dapat berperan di berbagai tahap tumpukan teknologi AI, dan apa yang dapat AI bawa untuk memberikan kehidupan baru bagi Web3?

Bagian 1 Apa peluang Web3 di bawah tumpukan AI?

Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model AI besar:

Gunakan bahasa yang lebih sederhana untuk menjelaskan seluruh proses: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru saja lahir ke dunia, perlu mengamati dan menyerap informasi besar dari lingkungan sekitar untuk memahami dunia ini, inilah tahap "pengumpulan" data. Karena komputer tidak memiliki banyak indra seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diubah melalui "praproses" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.

Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika konten yang dipelajari mulai terpisah menjadi bidang-bidang khusus, atau ketika berkomunikasi dengan orang lain mendapatkan umpan balik dan melakukan perbaikan, maka masuk ke tahap "penyesuaian halus" dari model besar.

Anak-anak secara bertahap tumbuh dan setelah mereka belajar berbicara, mereka dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan mereka, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan aplikasi model AI besar dalam tahap penalaran setelah selesai dilatih dan digunakan dalam berbagai tugas spesifik, seperti pengklasifikasian gambar, pengenalan suara, dan lain-lain.

AI Agent semakin mendekati bentuk berikutnya dari model besar—mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga mampu mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.

Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem yang saling terhubung dan berlapis-lapis, mencakup setiap tahap proses model AI.

AI+Web3: Menara dan Lapangan

Satu, Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data

Daya Komputasi

Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi.

Salah satu contohnya adalah, LLAMA3 milik Meta membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) selama 30 hari untuk menyelesaikan pelatihan. Harga satuan versi 80GB berkisar antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS setiap bulan.

Untuk dekompresi kekuatan komputasi AI, ini adalah salah satu bidang awal di mana Web3 beririsan dengan AI - DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.

Logika utama di sini adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan tingkat pemanfaatan sumber daya GPU yang tidak sepenuhnya digunakan, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan sanksi yang sesuai.

Ciri-cirinya adalah:

  • Mengumpulkan sumber daya GPU yang menganggur: Penyedia utama adalah pusat data kecil dan menengah independen pihak ketiga, sumber daya kelebihan dari operator tambang kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti FileCoin dan mesin tambang ETH. Saat ini, ada juga proyek yang berupaya untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk menjalankan inferensi model besar.

  • Menghadapi pasar tail panjang dari kekuatan komputasi AI:

a. "Dari sisi teknis", pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU skala besar, sementara inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering latensi rendah dan aplikasi inferensi AI.

b. "Dari sisi permintaan" pihak dengan kemampuan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya akan memilih untuk mengoptimalkan dan menyesuaikan model besar yang sedikit, dan skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang menganggur.

  • Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kendali atas sumber daya tersebut, dapat menyesuaikan secara fleksibel berdasarkan permintaan, sekaligus mendapatkan keuntungan.

Data

Data adalah fondasi AI. Tanpa data, perhitungan bagaikan dedaunan yang mengapung tanpa tujuan, dan hubungan antara data dan model bagaikan pepatah "Garbage in, Garbage out", di mana jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan penampilan yang manusiawi. Saat ini, tantangan kebutuhan data AI terutama berfokus pada empat aspek berikut:

  • Ketergantungan data: Pelatihan model AI bergantung pada masukan data yang besar. Data publik menunjukkan bahwa OpenAI melatih parameter GPT-4 mencapai tingkat triliun.

  • Kualitas data: Dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keragaman data, spesialisasi data vertikal, serta pengambilan sumber data baru seperti emosi media sosial juga telah mengajukan tuntutan baru terhadap kualitasnya.

  • Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.

  • Biaya pengolahan data yang tinggi: Volume data besar, proses pengolahan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pengolahan data dasar.

Saat ini, solusi web3 terwujud dalam empat aspek berikut:

  1. Pengumpulan Data: Kemampuan untuk secara gratis menyediakan data dunia nyata yang diambil dengan cepat menipis, dan pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali kepada kontributor data yang sebenarnya, dan platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data.

Mengizinkan pengguna yang benar-benar berkontribusi untuk berpartisipasi dalam penciptaan nilai yang dihasilkan oleh data, serta memperoleh data yang lebih pribadi dan lebih berharga dengan biaya rendah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.

  • Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass untuk menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai guna menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;

  • Vana memperkenalkan konsep kolam likuiditas data (DLP) yang unik, di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan menjelajah, aktivitas media sosial, dll.) ke DLP tertentu dan memilih dengan fleksibel apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data ini;

  • Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di X dan @PublicAI untuk melakukan pengumpulan data.

  1. Pra-pemrosesan data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, yang melibatkan tugas berulang seperti normalisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit tahapan manual dalam industri AI, yang telah melahirkan industri penandaan data; seiring dengan meningkatnya permintaan model terhadap kualitas data, ambang batas untuk penandaan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
  • Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk bergabung dalam tahap kunci ini, yaitu penandaan data.

  • Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data berlabel, catatan, atau bentuk masukan lainnya.

  • Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin guna mendapatkan lebih banyak poin.

  1. Privasi dan Keamanan Data: Yang perlu diperjelas adalah bahwa privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data berkaitan dengan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, pengrusakan, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi skenario aplikasinya tercermin dalam dua aspek: (1) Pelatihan data sensitif; (2) Kolaborasi data: Beberapa pemilik data dapat berpartisipasi dalam pelatihan AI bersama tanpa harus berbagi data asli mereka.

Teknologi privasi Web3 yang umum saat ini meliputi:

  • Lingkungan Eksekusi Tepercaya ( TEE ), seperti Protokol Super;

  • Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io atau Inco Network;

  • Teknologi zero-knowledge (zk), seperti Reclaim Protocol yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, yang memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman, tanpa mengungkapkan informasi sensitif.

Namun, saat ini bidang ini masih berada pada tahap awal, sebagian besar proyek masih dalam tahap eksplorasi, salah satu dilema saat ini adalah biaya perhitungan yang terlalu tinggi, beberapa contohnya adalah:

  • Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti untuk model 1M-nanoGPT.

  • Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.

  1. Penyimpanan Data: Setelah memiliki data, diperlukan tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, throughputnya sebelum peningkatan Danksharding di Ethereum adalah 0,08MB. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Selisih skala ini membuat solusi blockchain yang ada kesulitan dalam menghadapi "aplikasi AI yang membutuhkan sumber daya besar."
  • 0g.AI adalah proyek perwakilan dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk kebutuhan kinerja tinggi AI, yang...
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 5
  • Posting ulang
  • Bagikan
Komentar
0/400
RektCoastervip
· 13jam yang lalu
Jangan bicara konsep lagi... buat aplikasi yang bisa diterapkan terlebih dahulu.
Lihat AsliBalas0
degenonymousvip
· 13jam yang lalu
Hanya dengan memainkan orang untuk suckers yang bisa berbicara tentang cita-cita.
Lihat AsliBalas0
not_your_keysvip
· 13jam yang lalu
Sekali lagi memasak nasi dingin, Dianggap Bodoh.
Lihat AsliBalas0
MidsommarWalletvip
· 13jam yang lalu
Menanti melihat AI mengangkat web3
Lihat AsliBalas0
ConfusedWhalevip
· 13jam yang lalu
Saya tidak mengerti, tidak tahu apa yang sedang dibicarakan.
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)