Proyek Web3 dengan konsep AI menjadi target menarik di pasar primer dan sekunder.
Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial dalam ekor panjang—melalui data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta untuk membantu pengembangan.
Kegunaan AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan konsentrasi AI, dan AI diharapkan dapat membantu Web3 untuk menjangkau lebih luas.
Pendahuluan
Dua tahun terakhir, perkembangan AI seolah-olah telah dipercepat, efek kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga telah mengguncang Web3 di sisi lainnya.
Dengan dukungan konsep AI, ada peningkatan yang jelas dalam pembiayaan pasar kripto yang melambat. Media mencatat bahwa hanya dalam enam bulan pertama tahun 2024, ada 64 proyek Web3+AI yang telah menyelesaikan pembiayaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 berhasil mencapai jumlah pembiayaan tertinggi sebesar 100 juta dolar AS dalam putaran A.
Pasar sekunder semakin berkembang pesat, data dari situs agregasi kripto menunjukkan bahwa dalam waktu hanya lebih dari satu tahun, total nilai pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI utama yang dihasilkan sangat menguntungkan, setelah peluncuran model teks ke video Sora oleh OpenAI, harga rata-rata di sektor AI naik 151%; efek AI juga menjalar ke salah satu sektor pengumpul dana kripto, Meme: konsep MemeCoin AI Agent pertama—GOAT—cepat menjadi terkenal dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren AI Meme.
Penelitian dan topik mengenai AI+Web3 juga sedang ramai, dari AI+Depin hingga AI Memecoin, kini beralih ke AI Agent dan AI DAO, suasana FOMO sudah tidak bisa mengikuti kecepatan pergantian narasi baru.
AI+Web3, kombinasi istilah yang penuh dengan uang panas, kesempatan, dan fantasi masa depan, tidak dapat dihindari dipandang sebagai pernikahan yang diatur oleh modal; kita tampaknya sulit untuk membedakan di bawah jubah yang megah ini, apakah ini adalah panggung para spekulan, atau malam sebelum meledaknya fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang penting bagi kedua belah pihak adalah, apakah akan menjadi lebih baik dengan keberadaan satu sama lain? Apakah bisa mendapatkan manfaat dari pola yang dimiliki oleh pihak lain? Dalam artikel ini, kami juga berusaha untuk berdiri di atas bahu para pendahulu untuk melihat pola ini: bagaimana Web3 dapat berperan di setiap aspek tumpukan teknologi AI, dan apa yang dapat diberikan AI untuk membawa kehidupan baru ke Web3?
Bagian 1 Apa kesempatan Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Dengan menggunakan bahasa yang lebih sederhana untuk menggambarkan keseluruhan proses: "model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi luar yang sangat banyak untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indra seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi luar yang tidak terlabeli dalam skala besar perlu melalui "pra-pemrosesan" untuk diubah menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika konten yang dipelajari mulai dibagi menjadi disiplin, atau ketika berkomunikasi dengan orang lain mendapatkan umpan balik dan diperbaiki, maka masuk ke tahap "penyesuaian halus" dari model besar.
Anak-anak yang tumbuh besar dan belajar berbicara akan dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka, tahap ini mirip dengan "penalaran" dari model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan memecahkan berbagai masalah melalui kemampuan berbahasa, ini juga mirip dengan penerapan model AI besar dalam tahap penalaran setelah selesai dilatih untuk berbagai tugas tertentu, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent semakin mendekati bentuk berikutnya dari model besar - mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem yang saling terhubung dan berlapis-lapis, mencakup setiap tahap dari proses model AI.
I. Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data
▎Kekuatan Komputasi
Saat ini, salah satu biaya tertinggi untuk AI adalah daya komputasi dan energi yang dibutuhkan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, LLAMA3 dari Meta membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) untuk menyelesaikan pelatihan dalam 30 hari. Versi 80GB dari yang terakhir memiliki harga per unit antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk dekompresi daya AI, ini adalah bidang pertama kali Web3 berinteraksi dengan AI—DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek-proyek yang mewakili berbagi daya GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang tidak sepenuhnya terpakai, sehingga pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pemasok utama adalah pusat data kecil dan menengah independen pihak ketiga, serta operator tambang kripto dengan sumber daya kelebihan daya komputasi, perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini juga ada proyek yang berusaha untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan daya komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang untuk kekuatan AI:
a. "Dari sisi teknis," pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih tergantung pada kemampuan pemrosesan data yang dibawa oleh skala GPU cluster besar, sementara inferensi memiliki kebutuhan relatif rendah terhadap kinerja komputasi GPU, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan" pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Kepemilikan terdesentralisasi: Makna teknis blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya mereka, dapat menyesuaikan secara fleksibel sesuai permintaan, sambil mendapatkan keuntungan.
▎Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti daun terapung yang tidak berguna, dan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Dalam pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Ketergantungan data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa jumlah parameter yang digunakan OpenAI untuk melatih GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keberagaman data, spesialisasi data vertikal, serta penerimaan sumber data baru seperti emosi media sosial juga mengharapkan kualitas yang lebih tinggi.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Pengumpulan data: Kemampuan untuk menyediakan data dunia nyata yang diambil secara gratis semakin menipis, pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali ke kontributor data yang sebenarnya; platform sepenuhnya menikmati nilai yang diciptakan oleh data, seperti Reddit yang menghasilkan total pendapatan sebesar 203 juta dolar AS melalui perjanjian lisensi data dengan perusahaan AI.
Visi Web3 adalah untuk memungkinkan pengguna yang benar-benar berkontribusi juga ikut serta dalam penciptaan nilai yang dihasilkan dari data, serta memperoleh data yang lebih pribadi dan lebih berharga dari pengguna dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif.
Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep unik tentang kolam likuiditas data (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori dan @PublicAI untuk mengumpulkan data.
Pra-pemrosesan data: Dalam proses pengolahan data AI, karena data yang dikumpulkan biasanya bising dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, yang melibatkan standarisasi, penyaringan, dan penanganan nilai yang hilang dalam tugas yang berulang. Tahap ini adalah salah satu dari sedikit langkah manual dalam industri AI, yang telah melahirkan industri penandaan data. Seiring dengan meningkatnya tuntutan model terhadap kualitas data, ambang batas untuk penandaan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk memasukkan pelabelan data sebagai langkah kunci.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data yang diberi label, komentar, atau bentuk input lainnya.
Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: Yang perlu dijelaskan adalah bahwa privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keuntungan teknologi privasi Web3 dan potensi aplikasi tercermin dalam dua aspek: (1) Pelatihan data sensitif; (2) Kolaborasi data: Beberapa pemilik data dapat berpartisipasi dalam pelatihan AI bersama tanpa harus berbagi data asli mereka.
Teknologi privasi yang cukup umum di Web3 saat ini meliputi:
Lingkungan Eksekusi Tepercaya ( TEE ), seperti Protokol Super;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, yang memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu tantangan saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:
kerangka zkML E
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
19 Suka
Hadiah
19
5
Bagikan
Komentar
0/400
Ser_Liquidated
· 7jam yang lalu
Apa yang sedang dipromosikan, semuanya adalah cerita arbitrase.
Lihat AsliBalas0
NotFinancialAdviser
· 7jam yang lalu
ai menghasilkan banyak uang, siapa yang peduli dengan hidup mati web3
Lihat AsliBalas0
RetiredMiner
· 7jam yang lalu
juga hanya menghasilkan sedikit scamcoin
Lihat AsliBalas0
SmartContractPhobia
· 7jam yang lalu
Desentralisasi mengelabui, kan?
Lihat AsliBalas0
AirdropChaser
· 7jam yang lalu
play people for suckers datang dan pergi masih orang dunia kripto yang sama
Perpaduan AI dan Web3: Peluang Baru dan Pemberdayaan Satu Sama Lain
AI+Web3: Menara dan Lapangan
TL;DR
Proyek Web3 dengan konsep AI menjadi target menarik di pasar primer dan sekunder.
Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial dalam ekor panjang—melalui data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta untuk membantu pengembangan.
Kegunaan AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan konsentrasi AI, dan AI diharapkan dapat membantu Web3 untuk menjangkau lebih luas.
Pendahuluan
Dua tahun terakhir, perkembangan AI seolah-olah telah dipercepat, efek kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga telah mengguncang Web3 di sisi lainnya.
Dengan dukungan konsep AI, ada peningkatan yang jelas dalam pembiayaan pasar kripto yang melambat. Media mencatat bahwa hanya dalam enam bulan pertama tahun 2024, ada 64 proyek Web3+AI yang telah menyelesaikan pembiayaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 berhasil mencapai jumlah pembiayaan tertinggi sebesar 100 juta dolar AS dalam putaran A.
Pasar sekunder semakin berkembang pesat, data dari situs agregasi kripto menunjukkan bahwa dalam waktu hanya lebih dari satu tahun, total nilai pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI utama yang dihasilkan sangat menguntungkan, setelah peluncuran model teks ke video Sora oleh OpenAI, harga rata-rata di sektor AI naik 151%; efek AI juga menjalar ke salah satu sektor pengumpul dana kripto, Meme: konsep MemeCoin AI Agent pertama—GOAT—cepat menjadi terkenal dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren AI Meme.
Penelitian dan topik mengenai AI+Web3 juga sedang ramai, dari AI+Depin hingga AI Memecoin, kini beralih ke AI Agent dan AI DAO, suasana FOMO sudah tidak bisa mengikuti kecepatan pergantian narasi baru.
AI+Web3, kombinasi istilah yang penuh dengan uang panas, kesempatan, dan fantasi masa depan, tidak dapat dihindari dipandang sebagai pernikahan yang diatur oleh modal; kita tampaknya sulit untuk membedakan di bawah jubah yang megah ini, apakah ini adalah panggung para spekulan, atau malam sebelum meledaknya fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang penting bagi kedua belah pihak adalah, apakah akan menjadi lebih baik dengan keberadaan satu sama lain? Apakah bisa mendapatkan manfaat dari pola yang dimiliki oleh pihak lain? Dalam artikel ini, kami juga berusaha untuk berdiri di atas bahu para pendahulu untuk melihat pola ini: bagaimana Web3 dapat berperan di setiap aspek tumpukan teknologi AI, dan apa yang dapat diberikan AI untuk membawa kehidupan baru ke Web3?
Bagian 1 Apa kesempatan Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Dengan menggunakan bahasa yang lebih sederhana untuk menggambarkan keseluruhan proses: "model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi luar yang sangat banyak untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indra seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi luar yang tidak terlabeli dalam skala besar perlu melalui "pra-pemrosesan" untuk diubah menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika konten yang dipelajari mulai dibagi menjadi disiplin, atau ketika berkomunikasi dengan orang lain mendapatkan umpan balik dan diperbaiki, maka masuk ke tahap "penyesuaian halus" dari model besar.
Anak-anak yang tumbuh besar dan belajar berbicara akan dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka, tahap ini mirip dengan "penalaran" dari model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan memecahkan berbagai masalah melalui kemampuan berbahasa, ini juga mirip dengan penerapan model AI besar dalam tahap penalaran setelah selesai dilatih untuk berbagai tugas tertentu, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent semakin mendekati bentuk berikutnya dari model besar - mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem yang saling terhubung dan berlapis-lapis, mencakup setiap tahap dari proses model AI.
I. Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data
▎Kekuatan Komputasi
Saat ini, salah satu biaya tertinggi untuk AI adalah daya komputasi dan energi yang dibutuhkan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, LLAMA3 dari Meta membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) untuk menyelesaikan pelatihan dalam 30 hari. Versi 80GB dari yang terakhir memiliki harga per unit antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk dekompresi daya AI, ini adalah bidang pertama kali Web3 berinteraksi dengan AI—DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek-proyek yang mewakili berbagi daya GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang tidak sepenuhnya terpakai, sehingga pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pemasok utama adalah pusat data kecil dan menengah independen pihak ketiga, serta operator tambang kripto dengan sumber daya kelebihan daya komputasi, perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini juga ada proyek yang berusaha untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan daya komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang untuk kekuatan AI:
a. "Dari sisi teknis," pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih tergantung pada kemampuan pemrosesan data yang dibawa oleh skala GPU cluster besar, sementara inferensi memiliki kebutuhan relatif rendah terhadap kinerja komputasi GPU, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan" pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
▎Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti daun terapung yang tidak berguna, dan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Dalam pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Ketergantungan data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa jumlah parameter yang digunakan OpenAI untuk melatih GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keberagaman data, spesialisasi data vertikal, serta penerimaan sumber data baru seperti emosi media sosial juga mengharapkan kualitas yang lebih tinggi.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Visi Web3 adalah untuk memungkinkan pengguna yang benar-benar berkontribusi juga ikut serta dalam penciptaan nilai yang dihasilkan dari data, serta memperoleh data yang lebih pribadi dan lebih berharga dari pengguna dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif.
Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep unik tentang kolam likuiditas data (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori dan @PublicAI untuk mengumpulkan data.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk memasukkan pelabelan data sebagai langkah kunci.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data yang diberi label, komentar, atau bentuk input lainnya.
Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi yang cukup umum di Web3 saat ini meliputi:
Lingkungan Eksekusi Tepercaya ( TEE ), seperti Protokol Super;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, yang memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu tantangan saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah: