AI kullanırken ona bir soru soruyoruz, o da çok mantıklı bir şekilde cevap veriyor, ancak bu ifadenin nasıl oluştuğunu bilemiyoruz, bu "tahmin" mi yoksa gerçekten bir eğitim verisinde gördüğü bir şey mi. Bu, birine bir soru sorduğunuzda, size cevabı verdiği ve her cümlede "doğru olduğunu düşünüyorum" dediği ama asla kaynak göstermediği bir duruma benziyor.
Basit bir şekilde anlayacak olursak, geleneksel dil modelleri n-gram teknolojisini kullanır. 1️⃣uni-gram, tek bir kelimeyi görmektedir. 2️⃣bi-gram iki kelimenin bir araya gelmesidir. 3️⃣tri-gram üç kelimenin birleşimidir
Yukarıdaki dil mantığı bir miktar bağlam sağlayacaktır, ancak içerik oldukça sınırlıdır, mevcut sorunlara bakarak, küçük ifadelerin ilişkisini dikkate alarak yanıt verecektir, ancak mevcut sorunun tüm diyalog içindeki mantığını göz ardı edecektir.
Ve Infini-gram başka bir yaklaşımdır. Bu, mevcut sorunlara bakmakla kalmaz, aynı zamanda modelin çıkışındaki her parçayı, eğitim setinde ortaya çıkabilecek tüm "ifadelerle" karşılaştırarak, onun nereden öğrenildiğini ve kimin katkısıyla ilgili olduğunu anlamaya çalışır.
Örneğin modele şunu soruyorsunuz: "Bir cüzdanın Bot olduğunu nasıl anlayabilirim?" Genel bir model sana şunu söyler: "Bu tür bir adres genellikle çok kısa bir süre içinde birçok DEX sözleşmesinde yüksek frekansta işlem yapar."
Arkasındaki teknoloji aslında oldukça sert, suffix-array tabanlı bir ∞-gram çerçevesi kullanıyor - esasen, eğitim setindeki tüm parçaları önceden indeksliyor, çıktı alırken doğrudan karşılaştırma yapıyor, modeli yeniden çalıştırmaya veya gradyan hesaplamaya ihtiyaç duymuyor. Bu da hızlı, kararlı ve yeniden üretilebilir olduğu anlamına geliyor.
Kullanıcılar için, modelin yanıtının "orijinal" mi yoksa "taşınmış" mı olduğunu bilebilirsiniz. Veri katkıcıları için hak ettiğiniz "isim hakkı" hatta "ekonomik teşvik" alabilirsiniz. Bu, düzenleyici kurumlar için "açıklanabilir" bir arayüz sunuyor.
OpenLedger'in yaptığı şey, modeli daha "akıllı" hale getirmek değil, daha "sorumlu" hale getirmektir - her cümleyi yanıtladığında şunu net bir şekilde ifade edebilmesi: "Bunu neden söylüyorum, nereden öğrendim".
Bana göre, OpenLedger'in önerdiği Atıf Kanıtı (Proof of Attribution) sistemi "güvenilir AI" için atılan kritik bir adım ve veri mülkiyeti ile katkı izinin oluşturulmasında temel bir altyapı olabilir.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI kullanırken ona bir soru soruyoruz, o da çok mantıklı bir şekilde cevap veriyor, ancak bu ifadenin nasıl oluştuğunu bilemiyoruz, bu "tahmin" mi yoksa gerçekten bir eğitim verisinde gördüğü bir şey mi. Bu, birine bir soru sorduğunuzda, size cevabı verdiği ve her cümlede "doğru olduğunu düşünüyorum" dediği ama asla kaynak göstermediği bir duruma benziyor.
Basit bir şekilde anlayacak olursak, geleneksel dil modelleri n-gram teknolojisini kullanır.
1️⃣uni-gram, tek bir kelimeyi görmektedir.
2️⃣bi-gram iki kelimenin bir araya gelmesidir.
3️⃣tri-gram üç kelimenin birleşimidir
Yukarıdaki dil mantığı bir miktar bağlam sağlayacaktır, ancak içerik oldukça sınırlıdır, mevcut sorunlara bakarak, küçük ifadelerin ilişkisini dikkate alarak yanıt verecektir, ancak mevcut sorunun tüm diyalog içindeki mantığını göz ardı edecektir.
Ve Infini-gram başka bir yaklaşımdır. Bu, mevcut sorunlara bakmakla kalmaz, aynı zamanda modelin çıkışındaki her parçayı, eğitim setinde ortaya çıkabilecek tüm "ifadelerle" karşılaştırarak, onun nereden öğrenildiğini ve kimin katkısıyla ilgili olduğunu anlamaya çalışır.
Örneğin modele şunu soruyorsunuz: "Bir cüzdanın Bot olduğunu nasıl anlayabilirim?"
Genel bir model sana şunu söyler: "Bu tür bir adres genellikle çok kısa bir süre içinde birçok DEX sözleşmesinde yüksek frekansta işlem yapar."
Arkasındaki teknoloji aslında oldukça sert, suffix-array tabanlı bir ∞-gram çerçevesi kullanıyor - esasen, eğitim setindeki tüm parçaları önceden indeksliyor, çıktı alırken doğrudan karşılaştırma yapıyor, modeli yeniden çalıştırmaya veya gradyan hesaplamaya ihtiyaç duymuyor. Bu da hızlı, kararlı ve yeniden üretilebilir olduğu anlamına geliyor.
Kullanıcılar için, modelin yanıtının "orijinal" mi yoksa "taşınmış" mı olduğunu bilebilirsiniz.
Veri katkıcıları için hak ettiğiniz "isim hakkı" hatta "ekonomik teşvik" alabilirsiniz.
Bu, düzenleyici kurumlar için "açıklanabilir" bir arayüz sunuyor.
OpenLedger'in yaptığı şey, modeli daha "akıllı" hale getirmek değil, daha "sorumlu" hale getirmektir - her cümleyi yanıtladığında şunu net bir şekilde ifade edebilmesi: "Bunu neden söylüyorum, nereden öğrendim".
Bana göre, OpenLedger'in önerdiği Atıf Kanıtı (Proof of Attribution) sistemi "güvenilir AI" için atılan kritik bir adım ve veri mülkiyeti ile katkı izinin oluşturulmasında temel bir altyapı olabilir.