@Mira_Network'ün çalışma mekanizmasından, yapay zekanın doğruyu söyleyip söylemediğini nasıl ayırt edeceğimizi inceleyelim!
Şu anda LLM modellerini kullanan AI'lar, genellikle ciddi bir şekilde saçmalıyorlar ve aslında güvenilir olamazlar. Sorun teknoloji ile ilgili değil, temel prensiplerdeki sınırlamalardan kaynaklanıyor; hem doğru hem de tarafsız olmasını aynı anda sağlamak mümkün değil.
Veri setiniz ne kadar çoksa, önyargıları azaltma olasılığınız o kadar artar, ancak hikaye anlatmaya başlamak da kolaylaşır. Veriyi ne kadar temizlerseniz, belirli bir duruma yönelik önyargı o kadar artabilir.
Mira'nın temel mekanizması konsensüs doğrulamasıdır. Aslında bu, bir modelin cevabına güvenmemek demektir; birden fazla model bir araya gelerek değerlendirme yapar. Ancak herkes "evet" dediğinde, bu cevap doğrulanmış sayılır.
Tüm süreç aşağıdaki üç adıma ayrılmıştır!
1⃣Binarizasyon Yapay Zeka'nın cevabı bir bütün olarak değerlendirilmemeli, bunun yerine cümle cümle küçük değerlendirmelere ayrılmalıdır. Örneğin: Dünya Güneş'in etrafında döner, Ay Dünya'nın etrafında döner. Mira bu cümleyi şuna ayıracak: Dünya Güneş'in etrafında döner Ay, Dünya etrafında döner.
Her cümle bağımsız olarak doğrulanır. Bu, genel olarak doğru gibi görünmesini sağlayan ancak detayların tamamen yanlış olduğu sorunları önler.
2⃣ Dağıtık doğrulama Bu parçalanmış ifadeler, Mira ağı içindeki farklı doğrulama düğümlerine gönderilecektir. Her düğüm bir model veya bir grup modeldir, bunlar tam bağlamı göremez; sadece kendi ifadelerinin doğru veya yanlış olduğunu değerlendirmekten sorumludur, böylece doğrulama daha tarafsız olur.
3⃣ Konsensüs mekanizmasını doğrulama Mira'nın "iş kanıtı" gerçek bir AI çıkarımıdır.
Her doğrulama modelinin stake (teminat) token'ları olması gerekir, doğrulamadan sonra sonuç vermelidir. Eğer kötü performans sergilenirse "slash" yapılacak, stake edilen tokenler düşürülecek.
Modelin "konsensüs hesaplaması" neredeyse tüm modellerin bir yargıya katılması gerektiği anlamına gelir. Bu mekanizma, modeller arasındaki "çoklu konsensüs" ile gerçeğe yaklaşmak içindir.
Sonuçta, @Mira_Network, AI'nın çıktısına bir güvenilirlik kanıtı katmanı ekliyor; bu katman, tek bir model ile doğrulama yapmak yerine, konsensüs yoluyla sağlanıyor.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
@Mira_Network'ün çalışma mekanizmasından, yapay zekanın doğruyu söyleyip söylemediğini nasıl ayırt edeceğimizi inceleyelim!
Şu anda LLM modellerini kullanan AI'lar, genellikle ciddi bir şekilde saçmalıyorlar ve aslında güvenilir olamazlar. Sorun teknoloji ile ilgili değil, temel prensiplerdeki sınırlamalardan kaynaklanıyor; hem doğru hem de tarafsız olmasını aynı anda sağlamak mümkün değil.
Veri setiniz ne kadar çoksa, önyargıları azaltma olasılığınız o kadar artar, ancak hikaye anlatmaya başlamak da kolaylaşır. Veriyi ne kadar temizlerseniz, belirli bir duruma yönelik önyargı o kadar artabilir.
Mira'nın temel mekanizması konsensüs doğrulamasıdır. Aslında bu, bir modelin cevabına güvenmemek demektir; birden fazla model bir araya gelerek değerlendirme yapar. Ancak herkes "evet" dediğinde, bu cevap doğrulanmış sayılır.
Tüm süreç aşağıdaki üç adıma ayrılmıştır!
1⃣Binarizasyon
Yapay Zeka'nın cevabı bir bütün olarak değerlendirilmemeli, bunun yerine cümle cümle küçük değerlendirmelere ayrılmalıdır.
Örneğin: Dünya Güneş'in etrafında döner, Ay Dünya'nın etrafında döner.
Mira bu cümleyi şuna ayıracak:
Dünya Güneş'in etrafında döner
Ay, Dünya etrafında döner.
Her cümle bağımsız olarak doğrulanır. Bu, genel olarak doğru gibi görünmesini sağlayan ancak detayların tamamen yanlış olduğu sorunları önler.
2⃣ Dağıtık doğrulama
Bu parçalanmış ifadeler, Mira ağı içindeki farklı doğrulama düğümlerine gönderilecektir. Her düğüm bir model veya bir grup modeldir, bunlar tam bağlamı göremez; sadece kendi ifadelerinin doğru veya yanlış olduğunu değerlendirmekten sorumludur, böylece doğrulama daha tarafsız olur.
3⃣ Konsensüs mekanizmasını doğrulama
Mira'nın "iş kanıtı" gerçek bir AI çıkarımıdır.
Her doğrulama modelinin stake (teminat) token'ları olması gerekir, doğrulamadan sonra sonuç vermelidir.
Eğer kötü performans sergilenirse "slash" yapılacak, stake edilen tokenler düşürülecek.
Modelin "konsensüs hesaplaması" neredeyse tüm modellerin bir yargıya katılması gerektiği anlamına gelir. Bu mekanizma, modeller arasındaki "çoklu konsensüs" ile gerçeğe yaklaşmak içindir.
Sonuçta, @Mira_Network, AI'nın çıktısına bir güvenilirlik kanıtı katmanı ekliyor; bu katman, tek bir model ile doğrulama yapmak yerine, konsensüs yoluyla sağlanıyor.