Jaringan Mira: Membangun Lapisan Kepercayaan untuk AI
Baru-baru ini, jaringan uji publik Mira resmi diluncurkan, memicu diskusi luas di industri mengenai masalah kepercayaan terhadap AI. Tujuan utama jaringan Mira adalah membangun lapisan kepercayaan untuk AI, menyelesaikan masalah "halusinasi" dan bias yang dihadapi oleh sistem AI saat ini. Lalu, mengapa AI perlu dipercaya? Bagaimana Mira berusaha menyelesaikan masalah kompleks ini?
Dalam diskusi tentang AI, orang sering kali lebih memperhatikan kemampuannya yang luar biasa. Namun, satu fakta yang tidak bisa diabaikan adalah bahwa AI memiliki masalah "ilusi" atau bias. Apa yang disebut "ilusi" AI, secara sederhana, adalah bahwa AI kadang-kadang "mengada-ada" informasi, memberikan penjelasan yang tampaknya masuk akal untuk beberapa fenomena yang sebenarnya tidak ada. Misalnya, ketika ditanya tentang "mengapa bulan berwarna pink," yang merupakan pertanyaan yang tidak sesuai dengan kenyataan, AI mungkin memberikan serangkaian penjelasan yang tampaknya masuk akal tetapi sebenarnya tidak berdasar.
Penyebab AI muncul "ilusi" atau bias sangat terkait dengan jalur teknologi AI saat ini. AI generatif biasanya menghasilkan keluaran yang koheren dan masuk akal dengan memprediksi konten yang "paling mungkin", tetapi metode ini sulit untuk menjamin keakuratan keluaran. Selain itu, data pelatihan AI itu sendiri mungkin mengandung kesalahan, bias, atau bahkan konten fiktif, yang semuanya dapat mempengaruhi kualitas keluaran AI. Bisa dikatakan, AI lebih banyak belajar dari pola bahasa manusia, bukan dari fakta itu sendiri.
Mekanisme generasi probabilitas saat ini dan model berbasis data hampir pasti akan menyebabkan AI menghasilkan "ilusi". Meskipun dalam bidang pengetahuan umum atau konten hiburan, masalah ini mungkin tidak akan menyebabkan konsekuensi serius dalam jangka pendek, namun dalam bidang yang memerlukan ketelitian tinggi seperti kesehatan, hukum, penerbangan, dan keuangan, bias dan ilusi AI dapat menyebabkan masalah besar. Oleh karena itu, mengatasi masalah ilusi dan bias AI telah menjadi tantangan inti dalam proses pengembangan AI.
Proyek Mira adalah solusi yang diajukan untuk masalah ini. Ini mencoba mengurangi bias dan ilusi AI serta meningkatkan keandalannya dengan membangun lapisan kepercayaan AI. Inti pemikiran Mira adalah memanfaatkan konsensus dari beberapa model AI untuk memverifikasi output AI.
Secara khusus, Mira adalah jaringan verifikasi yang memvalidasi keandalan output AI melalui konsensus dari berbagai model AI. Yang lebih penting, Mira mengadopsi mekanisme verifikasi konsensus terdesentralisasi, yang merupakan keahlian di bidang kripto. Melalui mode verifikasi kolektif, Mira dapat secara efektif mengurangi bias dan ilusi yang mungkin dihasilkan oleh model tunggal.
Dalam hal arsitektur verifikasi, protokol Mira mendukung konversi konten kompleks menjadi pernyataan yang dapat diverifikasi secara independen. Operator node terlibat dalam proses verifikasi pernyataan ini, dan untuk memastikan perilaku jujur dari operator node, Mira memperkenalkan insentif ekonomi kriptografi dan mekanisme hukuman.
Arsitektur jaringan Mira terdiri dari tiga bagian utama: konversi konten, verifikasi terdistribusi, dan mekanisme konsensus. Pertama, sistem memecah konten kandidat yang diajukan oleh klien menjadi pernyataan yang dapat diverifikasi yang kemudian didistribusikan ke node untuk diverifikasi. Node menentukan validitas pernyataan tersebut dan merangkum hasilnya untuk mencapai konsensus. Akhirnya, hasil dan konsensus ini akan dikembalikan kepada klien. Untuk melindungi privasi klien, konten kandidat diubah menjadi pasangan pernyataan dan didistribusikan ke node yang berbeda dengan cara pemotongan acak, mencegah kebocoran informasi selama proses verifikasi.
Operator node berpartisipasi dalam operasi jaringan dengan menjalankan model validator, memproses pernyataan, dan mengajukan hasil verifikasi. Pendapatan mereka berasal dari nilai yang diciptakan untuk pelanggan, yaitu mengurangi tingkat kesalahan AI. Di bidang medis, hukum, penerbangan, dan keuangan, mengurangi tingkat kesalahan AI dapat menghasilkan nilai yang besar, sehingga pelanggan bersedia membayar untuk itu. Selain itu, untuk mencegah operator node melakukan kecurangan, sistem akan menghukum node yang terus-menerus menyimpang dari konsensus, sehingga memastikan kejujuran proses verifikasi.
Secara keseluruhan, Mira memberikan pendekatan baru untuk mencapai keandalan AI. Dengan membangun jaringan verifikasi konsensus terdesentralisasi berdasarkan banyak model AI, Mira bertujuan untuk memberikan layanan AI yang lebih dapat diandalkan kepada pelanggan, mengurangi bias dan ilusi AI, serta memenuhi kebutuhan pelanggan akan akurasi dan presisi yang tinggi. Inovasi ini diharapkan dapat mendorong perkembangan mendalam aplikasi AI dan memberikan kontribusi penting dalam membangun ekosistem AI yang terpercaya.
Saat ini, Mira telah menjalin kemitraan dengan beberapa kerangka agen AI terkenal. Dengan peluncuran jaringan pengujian publik Mira, pengguna dapat mengalami keluaran AI yang telah diverifikasi melalui Klok (aplikasi obrolan LLM berbasis Mira) dan memiliki kesempatan untuk mendapatkan poin Mira. Ini memberikan pengguna kesempatan untuk secara intuitif membandingkan perbedaan keluaran AI sebelum dan setelah diverifikasi, yang membantu pemahaman yang lebih baik tentang nilai jaringan Mira.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
14 Suka
Hadiah
14
6
Bagikan
Komentar
0/400
DaoDeveloper
· 07-28 17:24
mekanisme konsensus yang menarik sejujurnya... perlu menyelami repositori github mereka terlebih dahulu
Lihat AsliBalas0
shadowy_supercoder
· 07-27 18:13
Hanya bertanya bagaimana ai tahu bahwa dirinya sedang berhalusinasi.
Lihat AsliBalas0
DancingCandles
· 07-25 22:46
Perdagangan Mata Uang Kripto! Siapa yang masih peduli apakah AI berhalusinasi atau tidak
Lihat AsliBalas0
BloodInStreets
· 07-25 22:42
Dalam gelombang lapisan kepercayaan AI ini, siapa yang menjadi suckers masih belum pasti.
Lihat AsliBalas0
0xSleepDeprived
· 07-25 22:35
Hmm, AI masih perlu bergantung pada AI lain untuk memverifikasi, sangat menarik.
Lihat AsliBalas0
TheMemefather
· 07-25 22:27
Berbicara baik tidak ada artinya kecuali setelah diluncurkan.
Mira Network: Membangun Lapisan Kepercayaan AI untuk Menurunkan Risiko Ilusi dan Bias
Jaringan Mira: Membangun Lapisan Kepercayaan untuk AI
Baru-baru ini, jaringan uji publik Mira resmi diluncurkan, memicu diskusi luas di industri mengenai masalah kepercayaan terhadap AI. Tujuan utama jaringan Mira adalah membangun lapisan kepercayaan untuk AI, menyelesaikan masalah "halusinasi" dan bias yang dihadapi oleh sistem AI saat ini. Lalu, mengapa AI perlu dipercaya? Bagaimana Mira berusaha menyelesaikan masalah kompleks ini?
Dalam diskusi tentang AI, orang sering kali lebih memperhatikan kemampuannya yang luar biasa. Namun, satu fakta yang tidak bisa diabaikan adalah bahwa AI memiliki masalah "ilusi" atau bias. Apa yang disebut "ilusi" AI, secara sederhana, adalah bahwa AI kadang-kadang "mengada-ada" informasi, memberikan penjelasan yang tampaknya masuk akal untuk beberapa fenomena yang sebenarnya tidak ada. Misalnya, ketika ditanya tentang "mengapa bulan berwarna pink," yang merupakan pertanyaan yang tidak sesuai dengan kenyataan, AI mungkin memberikan serangkaian penjelasan yang tampaknya masuk akal tetapi sebenarnya tidak berdasar.
Penyebab AI muncul "ilusi" atau bias sangat terkait dengan jalur teknologi AI saat ini. AI generatif biasanya menghasilkan keluaran yang koheren dan masuk akal dengan memprediksi konten yang "paling mungkin", tetapi metode ini sulit untuk menjamin keakuratan keluaran. Selain itu, data pelatihan AI itu sendiri mungkin mengandung kesalahan, bias, atau bahkan konten fiktif, yang semuanya dapat mempengaruhi kualitas keluaran AI. Bisa dikatakan, AI lebih banyak belajar dari pola bahasa manusia, bukan dari fakta itu sendiri.
Mekanisme generasi probabilitas saat ini dan model berbasis data hampir pasti akan menyebabkan AI menghasilkan "ilusi". Meskipun dalam bidang pengetahuan umum atau konten hiburan, masalah ini mungkin tidak akan menyebabkan konsekuensi serius dalam jangka pendek, namun dalam bidang yang memerlukan ketelitian tinggi seperti kesehatan, hukum, penerbangan, dan keuangan, bias dan ilusi AI dapat menyebabkan masalah besar. Oleh karena itu, mengatasi masalah ilusi dan bias AI telah menjadi tantangan inti dalam proses pengembangan AI.
Proyek Mira adalah solusi yang diajukan untuk masalah ini. Ini mencoba mengurangi bias dan ilusi AI serta meningkatkan keandalannya dengan membangun lapisan kepercayaan AI. Inti pemikiran Mira adalah memanfaatkan konsensus dari beberapa model AI untuk memverifikasi output AI.
Secara khusus, Mira adalah jaringan verifikasi yang memvalidasi keandalan output AI melalui konsensus dari berbagai model AI. Yang lebih penting, Mira mengadopsi mekanisme verifikasi konsensus terdesentralisasi, yang merupakan keahlian di bidang kripto. Melalui mode verifikasi kolektif, Mira dapat secara efektif mengurangi bias dan ilusi yang mungkin dihasilkan oleh model tunggal.
Dalam hal arsitektur verifikasi, protokol Mira mendukung konversi konten kompleks menjadi pernyataan yang dapat diverifikasi secara independen. Operator node terlibat dalam proses verifikasi pernyataan ini, dan untuk memastikan perilaku jujur dari operator node, Mira memperkenalkan insentif ekonomi kriptografi dan mekanisme hukuman.
Arsitektur jaringan Mira terdiri dari tiga bagian utama: konversi konten, verifikasi terdistribusi, dan mekanisme konsensus. Pertama, sistem memecah konten kandidat yang diajukan oleh klien menjadi pernyataan yang dapat diverifikasi yang kemudian didistribusikan ke node untuk diverifikasi. Node menentukan validitas pernyataan tersebut dan merangkum hasilnya untuk mencapai konsensus. Akhirnya, hasil dan konsensus ini akan dikembalikan kepada klien. Untuk melindungi privasi klien, konten kandidat diubah menjadi pasangan pernyataan dan didistribusikan ke node yang berbeda dengan cara pemotongan acak, mencegah kebocoran informasi selama proses verifikasi.
Operator node berpartisipasi dalam operasi jaringan dengan menjalankan model validator, memproses pernyataan, dan mengajukan hasil verifikasi. Pendapatan mereka berasal dari nilai yang diciptakan untuk pelanggan, yaitu mengurangi tingkat kesalahan AI. Di bidang medis, hukum, penerbangan, dan keuangan, mengurangi tingkat kesalahan AI dapat menghasilkan nilai yang besar, sehingga pelanggan bersedia membayar untuk itu. Selain itu, untuk mencegah operator node melakukan kecurangan, sistem akan menghukum node yang terus-menerus menyimpang dari konsensus, sehingga memastikan kejujuran proses verifikasi.
Secara keseluruhan, Mira memberikan pendekatan baru untuk mencapai keandalan AI. Dengan membangun jaringan verifikasi konsensus terdesentralisasi berdasarkan banyak model AI, Mira bertujuan untuk memberikan layanan AI yang lebih dapat diandalkan kepada pelanggan, mengurangi bias dan ilusi AI, serta memenuhi kebutuhan pelanggan akan akurasi dan presisi yang tinggi. Inovasi ini diharapkan dapat mendorong perkembangan mendalam aplikasi AI dan memberikan kontribusi penting dalam membangun ekosistem AI yang terpercaya.
Saat ini, Mira telah menjalin kemitraan dengan beberapa kerangka agen AI terkenal. Dengan peluncuran jaringan pengujian publik Mira, pengguna dapat mengalami keluaran AI yang telah diverifikasi melalui Klok (aplikasi obrolan LLM berbasis Mira) dan memiliki kesempatan untuk mendapatkan poin Mira. Ini memberikan pengguna kesempatan untuk secara intuitif membandingkan perbedaan keluaran AI sebelum dan setelah diverifikasi, yang membantu pemahaman yang lebih baik tentang nilai jaringan Mira.