تقرير بحث Layer1 AI: البحث عن أرض خصبة لـ DeAI داخل السلسلة
نظرة عامة
الخلفية
في السنوات الأخيرة، تستمر شركات التكنولوجيا الكبرى مثل OpenAI وAnthropic وGoogle وMeta في دفع التطور السريع لنماذج اللغة الكبيرة. تظهر نماذج اللغة الكبيرة قدرات غير مسبوقة في جميع المجالات، مما يوسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات، تظهر إمكانات لاستبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات محصور بإحكام في أيدي عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والتحكم في موارد الحوسبة باهظة الثمن، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على الغالبية العظمى من المطورين وفرق الابتكار التنافس معها.
في الوقت نفسه، خلال المراحل المبكرة من تطور الذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي تجلبها التكنولوجيا، بينما يكون الاهتمام بالقضايا الأساسية مثل حماية الخصوصية، والشفافية، والأمان نسبيًا غير كافٍ. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على الصحة العامة لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستظهر الجدل حول ما إذا كان الذكاء الاصطناعي "يهدف إلى الخير" أو "يهدف إلى الشر" بشكل أكثر وضوحًا، بينما تفتقر الشركات الكبرى المركزية، المدفوعة بغريزة الربح، غالبًا إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تقدم تقنية blockchain بفضل خصائصها اللامركزية والشفافة والمقاومة للرقابة إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حاليًا، ظهرت العديد من تطبيقات "Web3 AI" على بعض سلاسل الكتل الرئيسية. ولكن من خلال التحليل المتعمق، يمكن ملاحظة أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، فإن مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم نظام بيئي مفتوح حقًا؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، لا تزال قدرات الذكاء الاصطناعي داخل السلسلة محدودة في مجالات مثل القدرة على النموذج، واستخدام البيانات، وسيناريوهات التطبيق، مما يتطلب تحسين عمق وعمق الابتكار.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وجعل blockchain قادرًا على استيعاب تطبيقات الذكاء الاصطناعي الكبيرة بشكل آمن وفعال وديمقراطي، والتنافس مع الحلول المركزية من حيث الأداء، نحتاج إلى تصميم blockchain من الطبقة الأولى مصممة خصيصًا للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، وديمقراطية الحكم، وأمان البيانات، مما يعزز تطور نظام الذكاء الاصطناعي اللامركزي.
الخصائص الأساسية للطبقة الأولى للذكاء الاصطناعي
AI Layer 1 ككتلة سلسلة مصممة خصيصاً لتطبيقات الذكاء الاصطناعي، يعتمد هيكلها الأساسي وتصميم أدائها بشكل وثيق على احتياجات مهام الذكاء الاصطناعي، وتهدف إلى دعم التنمية المستدامة والازدهار للإيكولوجيا الذكية داخل السلسلة. بشكل محدد، يجب أن تمتلك AI Layer 1 القدرات الأساسية التالية:
آلية تحفيز فعالة وآلية توافق لامركزية. تكمن جوهر AI Layer 1 في بناء شبكة مشتركة مفتوحة للموارد مثل قوة الحساب والتخزين. على عكس النقاط التقليدية في السلسلة التي تركز بشكل أساسي على تسجيل دفاتر الحسابات، تحتاج نقاط AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يجب عليها تقديم قوة حسابية، وإنجاز تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين والبيانات والنطاق الترددي والموارد المتنوعة الأخرى، مما يكسر احتكار العملاق المركزي في بنية الذكاء الاصطناعي التحتية. هذا يطرح متطلبات أعلى على آلية التوافق والتحفيز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم وتحفيز والتحقق بدقة من المساهمات الفعلية للنقاط في مهام الاستدلال والتدريب الخاصة بالذكاء الاصطناعي، مما يحقق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل تكلفة قوة الحساب الإجمالية بشكل فعّال.
أداء عالي ممتاز ودعم المهام غير المتجانسة تتطلب مهام الذكاء الاصطناعي، وخاصة تدريب واستنتاج نماذج اللغة الكبيرة، متطلبات عالية من حيث الأداء الحاسوبي والقدرة على المعالجة المتوازية. علاوة على ذلك، غالبًا ما تحتاج بيئة الذكاء الاصطناعي داخل السلسلة إلى دعم أنواع متنوعة وغير متجانسة من المهام، بما في ذلك هياكل نماذج مختلفة، معالجة البيانات، الاستنتاج، والتخزين في مشاهد متعددة. يجب أن يتم تحسين طبقة الذكاء الاصطناعي من المستوى الأول بشكل عميق في البنية التحتية الأساسية لتلبية احتياجات السعة العالية، وانخفاض التأخير، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحاسوبية غير المتجانسة، لضمان تشغيل جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق توسع سلس من "المهام الأحادية" إلى "البيئات المعقدة والمتنوعة".
القابلية للتحقق وضمان المخرجات الموثوقة يجب أن يمنع Layer 1 الذكاء الاصطناعي ليس فقط من الأذى الناتج عن النموذج، أو التلاعب بالبيانات، بل يجب أيضاً ضمان القابلية للتحقق من نتائج الذكاء الاصطناعي ومواءمتها من خلال الآليات الأساسية. من خلال دمج بيئات التنفيذ الموثوقة، والإثباتات الصفرية، والحساب الآمن متعدد الأطراف، يمكن للمنصة أن تتيح لكل عملية استدلال نموذج، وتدريب، ومعالجة بيانات أن تكون قابلة للتحقق بشكل مستقل، مما يضمن عدالة وشفافية نظام الذكاء الاصطناعي. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم المنطق والأسس وراء مخرجات الذكاء الاصطناعي، مما يحقق "ما تحصل عليه هو ما ترغب فيه"، وزيادة ثقة المستخدمين ورضاهم عن منتجات الذكاء الاصطناعي.
حماية خصوصية البيانات تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات المستخدم الحساسة، وفي مجالات مثل المالية والرعاية الصحية والتواصل الاجتماعي، تكون حماية خصوصية البيانات أساسية بشكل خاص. يجب أن تعتمد AI Layer 1 تقنيات معالجة البيانات القائمة على التشفير، وبروتوكولات الحوسبة الخصوصية وإدارة صلاحيات البيانات، مع ضمان القابلية للتحقق، لضمان أمان البيانات في جميع مراحل الاستدلال والتدريب والتخزين، ومنع تسرب البيانات وإساءة استخدامها بفعالية، وإزالة مخاوف المستخدمين بشأن أمان البيانات.
قدرة قوية على دعم وتحمل النظام البيئي والتطوير كمنصة بنية تحتية من الطبقة الأولى الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة التقنية، ولكن أيضاً بتوفير أدوات تطوير متكاملة، وSDK متكامل، ودعم التشغيل والصيانة، وآليات تحفيز لمطوري البرمجيات، ومشغلي العقد، ومزودي خدمات الذكاء الاصطناعي وغيرهم من المشاركين في النظام البيئي. من خلال تحسين استمرارية استخدام المنصة وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة والغنية، مما يحقق الازدهار المستمر للنظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقدم هذه المقالة تفاصيل حول ستة مشاريع تمثيلية من المستوى الأول في الذكاء الاصطناعي بما في ذلك Sentient و Sahara AI و Ritual و Gensyn و Bittensor و 0G، وستقوم بتلخيص آخر التطورات في هذا المجال، وتحليل حالة تطوير المشاريع، واستكشاف الاتجاهات المستقبلية.
Sentient: بناء نموذج AI مفتوح المصدر لامركزي مخلص
نظرة عامة على المشروع
Sentient هو منصة بروتوكولات مفتوحة المصدر، تعمل على بناء سلسلة كتل AI Layer1 في المرحلة الأولية كـ Layer 2، ثم ستنتقل إلى Layer 1(، من خلال دمج AI Pipeline وتقنية سلسلة الكتل، لبناء اقتصاد الذكاء الاصطناعي اللامركزي. الهدف الأساسي هو من خلال إطار "OML" (مفتوح، قابل للربح، موثوق) حل مشاكل ملكية النموذج، تتبع الاستدعاءات وتوزيع القيمة في سوق النماذج اللغوية الكبيرة المركزية، مما يسمح لنماذج الذكاء الاصطناعي بتحقيق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء وتوزيع القيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، امتلاك وتحويل منتجات الذكاء الاصطناعي إلى أموال، مما يدفع نحو شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال سلسلة الكتل من جميع أنحاء العالم، ويعمل على بناء منصة AGI مدفوعة من قبل المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من معهد الهند للعلوم، المسؤولين على التوالي عن أمان الذكاء الاصطناعي وحماية الخصوصية، بينما يقود Sandeep Nailwal، أحد مؤسسي Polygon، الاستراتيجية البيئية لسلسلة الكتل. يمتد خلفية أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، بالإضافة إلى الجامعات الرائدة مثل جامعة برينستون ومعهد الهند للتكنولوجيا، ويغطي مجالات مثل AI/ML وNLP ورؤية الكمبيوتر، مما يعزز جهود تنفيذ المشروع.
باعتبارها مشروعًا ثانيًا لمؤسس Polygon المشارك Sandeep Nailwal، جاءت Sentient منذ بدايتها محاطة بهالة، حيث تمتلك موارد غنية، وشبكة علاقات، ووعي بالسوق، مما يوفر دعمًا قويًا لتطوير المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل بذور بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عشرات من شركات الاستثمار المعروفة مثل Delphi وHashkey وSpartan.
![Biteye و PANews ينشران تقرير بحثي حول AI Layer1: البحث عن أرض خصبة لـ DeAI داخل السلسلة])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
)# تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
الهيكل الأساسي
يتكون الهيكل الأساسي لـ Sentient من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتتضمن عمليتين رئيسيتين:
تخطيط البيانات (Data Curation): عملية اختيار البيانات المدفوعة من المجتمع، المستخدمة لمحاذاة النماذج.
تدريب الولاء (Loyalty Training): ضمان أن يظل النموذج متماشيًا مع نوايا المجتمع خلال عملية التدريب.
يوفر نظام البلوكشين الشفافية والتحكم اللامركزي للبروتوكولات، مما يضمن ملكية أدوات الذكاء الاصطناعي، وتتبع الاستخدام، وتوزيع العائدات، والحكم العادل. الهيكل المحدد مقسم إلى أربع طبقات:
طبقة التخزين: تخزين أوزان النموذج ومعلومات تسجيل بصمات الأصابع؛
طبقة التوزيع: نموذج التحكم في مدخل استدعاء العقد المصرح به؛
طبقة الوصول: التحقق من إذن المستخدم من خلال إثبات الصلاحية؛
طبقة التحفيز: ستقوم عقدة توجيه العائدات بتوزيع المدفوعات في كل استدعاء على المدربين والموزعين والمحققين.
![Biteye و PANews يطلقان تقرير بحثي حول AI Layer1: البحث عن أرض خصبة لـ DeAI داخل السلسلة]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
إطار نموذج OML
إطار OML (مفتوح Open، قابل للتسويق Monetizable، مخلص Loyal) هو الفكرة الأساسية التي اقترحتها Sentient، وتهدف إلى توفير حماية ملكية واضحة وآليات تحفيز اقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال دمج تكنولوجيا داخل السلسلة مع التشفير الأصلي للذكاء الاصطناعي، يتميز بما يلي:
الانفتاح: يجب أن يكون النموذج مفتوح المصدر، مع شفرة وهياكل بيانات شفافة، مما يسهل على المجتمع إعادة إنتاجه وتدقيقه وتحسينه.
التسييل: كل استدعاء للنموذج سيؤدي إلى تدفق إيرادات، وستقوم العقود داخل السلسلة بتوزيع الإيرادات على المدربين، والمطلقين، والمحققين.
الولاء: النموذج يعود إلى مجتمع المساهمين، وتحدد DAO اتجاه الترقية والحكم، وتخضع الاستخدامات والتعديلات لرقابة الآلية المشفرة.
التشفير الأصلي للذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي المدعوم بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وبنية المانيفولد ذات الأبعاد المنخفضة، والخصائص القابلة للاشتقاق للنموذج، لتطوير آلية أمان خفيفة "قابلة للتحقق ولكن غير قابلة للإزالة". التقنية الأساسية هي:
إدراج بصمة الأصبع: إدراج مجموعة من أزواج المفتاح-القيمة المخفية أثناء التدريب لتكوين توقيع فريد للنموذج؛
بروتوكول التحقق من الملكية: التحقق من بصمة الإصبع من خلال كاشف طرف ثالث (Prover) في شكل استفسار.
آلية استدعاء الإذن: يجب الحصول على "شهادة الإذن" الصادرة عن مالك النموذج قبل الاستدعاء، ثم يمنح النظام الإذن للنموذج لفك تشفير هذا الإدخال وإرجاع إجابة دقيقة.
يمكن تحقيق "استدعاءات تفويضية قائمة على السلوك + التحقق من الملكية" بهذه الطريقة دون تكلفة إعادة تشفير.
![Biteye و PANews تصدران تقرير بحث عن AI Layer1: البحث عن تربة DeAI داخل السلسلة])https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
إطار تأكيد ملكية النموذج والتنفيذ الآمن
Sentient تعتمد حاليا على أمان Melange المختلط: تأكيد الهوية من خلال بصمة الإصبع، تنفيذ TEE، وتقاسم الأرباح من العقود داخل السلسلة. حيث إن طريقة بصمة الإصبع هي التنفيذ الرئيسي OML 1.0، وتؤكد على فكرة "الأمان المتفائل (Optimistic Security)", أي الافتراض بالتوافق، والكشف والعقاب في حال المخالفة.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث تتيح من خلال تضمين "سؤال-جواب" معينة، أن ينشئ النموذج توقيعًا فريدًا خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالك النموذج التحقق من الملكية، ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلاً قابلًا للتتبع داخل السلسلة لسلوك استخدام النموذج.
علاوة على ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، الذي يستخدم بيئة التنفيذ الموثوقة لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE يعتمد على الأجهزة ويوجد به بعض المخاطر الأمنية، إلا أن مزاياه من حيث الأداء العالي والزمن الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
استكشاف مسار Layer1 للذكاء الاصطناعي: البنية التحتية الأساسية لبناء نظام بيئي للذكاء الاصطناعي اللامركزي
تقرير بحث Layer1 AI: البحث عن أرض خصبة لـ DeAI داخل السلسلة
نظرة عامة
الخلفية
في السنوات الأخيرة، تستمر شركات التكنولوجيا الكبرى مثل OpenAI وAnthropic وGoogle وMeta في دفع التطور السريع لنماذج اللغة الكبيرة. تظهر نماذج اللغة الكبيرة قدرات غير مسبوقة في جميع المجالات، مما يوسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات، تظهر إمكانات لاستبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات محصور بإحكام في أيدي عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والتحكم في موارد الحوسبة باهظة الثمن، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على الغالبية العظمى من المطورين وفرق الابتكار التنافس معها.
في الوقت نفسه، خلال المراحل المبكرة من تطور الذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي تجلبها التكنولوجيا، بينما يكون الاهتمام بالقضايا الأساسية مثل حماية الخصوصية، والشفافية، والأمان نسبيًا غير كافٍ. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على الصحة العامة لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستظهر الجدل حول ما إذا كان الذكاء الاصطناعي "يهدف إلى الخير" أو "يهدف إلى الشر" بشكل أكثر وضوحًا، بينما تفتقر الشركات الكبرى المركزية، المدفوعة بغريزة الربح، غالبًا إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تقدم تقنية blockchain بفضل خصائصها اللامركزية والشفافة والمقاومة للرقابة إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حاليًا، ظهرت العديد من تطبيقات "Web3 AI" على بعض سلاسل الكتل الرئيسية. ولكن من خلال التحليل المتعمق، يمكن ملاحظة أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، فإن مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم نظام بيئي مفتوح حقًا؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، لا تزال قدرات الذكاء الاصطناعي داخل السلسلة محدودة في مجالات مثل القدرة على النموذج، واستخدام البيانات، وسيناريوهات التطبيق، مما يتطلب تحسين عمق وعمق الابتكار.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وجعل blockchain قادرًا على استيعاب تطبيقات الذكاء الاصطناعي الكبيرة بشكل آمن وفعال وديمقراطي، والتنافس مع الحلول المركزية من حيث الأداء، نحتاج إلى تصميم blockchain من الطبقة الأولى مصممة خصيصًا للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، وديمقراطية الحكم، وأمان البيانات، مما يعزز تطور نظام الذكاء الاصطناعي اللامركزي.
الخصائص الأساسية للطبقة الأولى للذكاء الاصطناعي
AI Layer 1 ككتلة سلسلة مصممة خصيصاً لتطبيقات الذكاء الاصطناعي، يعتمد هيكلها الأساسي وتصميم أدائها بشكل وثيق على احتياجات مهام الذكاء الاصطناعي، وتهدف إلى دعم التنمية المستدامة والازدهار للإيكولوجيا الذكية داخل السلسلة. بشكل محدد، يجب أن تمتلك AI Layer 1 القدرات الأساسية التالية:
آلية تحفيز فعالة وآلية توافق لامركزية. تكمن جوهر AI Layer 1 في بناء شبكة مشتركة مفتوحة للموارد مثل قوة الحساب والتخزين. على عكس النقاط التقليدية في السلسلة التي تركز بشكل أساسي على تسجيل دفاتر الحسابات، تحتاج نقاط AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يجب عليها تقديم قوة حسابية، وإنجاز تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين والبيانات والنطاق الترددي والموارد المتنوعة الأخرى، مما يكسر احتكار العملاق المركزي في بنية الذكاء الاصطناعي التحتية. هذا يطرح متطلبات أعلى على آلية التوافق والتحفيز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم وتحفيز والتحقق بدقة من المساهمات الفعلية للنقاط في مهام الاستدلال والتدريب الخاصة بالذكاء الاصطناعي، مما يحقق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل تكلفة قوة الحساب الإجمالية بشكل فعّال.
أداء عالي ممتاز ودعم المهام غير المتجانسة تتطلب مهام الذكاء الاصطناعي، وخاصة تدريب واستنتاج نماذج اللغة الكبيرة، متطلبات عالية من حيث الأداء الحاسوبي والقدرة على المعالجة المتوازية. علاوة على ذلك، غالبًا ما تحتاج بيئة الذكاء الاصطناعي داخل السلسلة إلى دعم أنواع متنوعة وغير متجانسة من المهام، بما في ذلك هياكل نماذج مختلفة، معالجة البيانات، الاستنتاج، والتخزين في مشاهد متعددة. يجب أن يتم تحسين طبقة الذكاء الاصطناعي من المستوى الأول بشكل عميق في البنية التحتية الأساسية لتلبية احتياجات السعة العالية، وانخفاض التأخير، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحاسوبية غير المتجانسة، لضمان تشغيل جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق توسع سلس من "المهام الأحادية" إلى "البيئات المعقدة والمتنوعة".
القابلية للتحقق وضمان المخرجات الموثوقة يجب أن يمنع Layer 1 الذكاء الاصطناعي ليس فقط من الأذى الناتج عن النموذج، أو التلاعب بالبيانات، بل يجب أيضاً ضمان القابلية للتحقق من نتائج الذكاء الاصطناعي ومواءمتها من خلال الآليات الأساسية. من خلال دمج بيئات التنفيذ الموثوقة، والإثباتات الصفرية، والحساب الآمن متعدد الأطراف، يمكن للمنصة أن تتيح لكل عملية استدلال نموذج، وتدريب، ومعالجة بيانات أن تكون قابلة للتحقق بشكل مستقل، مما يضمن عدالة وشفافية نظام الذكاء الاصطناعي. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم المنطق والأسس وراء مخرجات الذكاء الاصطناعي، مما يحقق "ما تحصل عليه هو ما ترغب فيه"، وزيادة ثقة المستخدمين ورضاهم عن منتجات الذكاء الاصطناعي.
حماية خصوصية البيانات تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات المستخدم الحساسة، وفي مجالات مثل المالية والرعاية الصحية والتواصل الاجتماعي، تكون حماية خصوصية البيانات أساسية بشكل خاص. يجب أن تعتمد AI Layer 1 تقنيات معالجة البيانات القائمة على التشفير، وبروتوكولات الحوسبة الخصوصية وإدارة صلاحيات البيانات، مع ضمان القابلية للتحقق، لضمان أمان البيانات في جميع مراحل الاستدلال والتدريب والتخزين، ومنع تسرب البيانات وإساءة استخدامها بفعالية، وإزالة مخاوف المستخدمين بشأن أمان البيانات.
قدرة قوية على دعم وتحمل النظام البيئي والتطوير كمنصة بنية تحتية من الطبقة الأولى الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة التقنية، ولكن أيضاً بتوفير أدوات تطوير متكاملة، وSDK متكامل، ودعم التشغيل والصيانة، وآليات تحفيز لمطوري البرمجيات، ومشغلي العقد، ومزودي خدمات الذكاء الاصطناعي وغيرهم من المشاركين في النظام البيئي. من خلال تحسين استمرارية استخدام المنصة وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة والغنية، مما يحقق الازدهار المستمر للنظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقدم هذه المقالة تفاصيل حول ستة مشاريع تمثيلية من المستوى الأول في الذكاء الاصطناعي بما في ذلك Sentient و Sahara AI و Ritual و Gensyn و Bittensor و 0G، وستقوم بتلخيص آخر التطورات في هذا المجال، وتحليل حالة تطوير المشاريع، واستكشاف الاتجاهات المستقبلية.
Sentient: بناء نموذج AI مفتوح المصدر لامركزي مخلص
نظرة عامة على المشروع
Sentient هو منصة بروتوكولات مفتوحة المصدر، تعمل على بناء سلسلة كتل AI Layer1 في المرحلة الأولية كـ Layer 2، ثم ستنتقل إلى Layer 1(، من خلال دمج AI Pipeline وتقنية سلسلة الكتل، لبناء اقتصاد الذكاء الاصطناعي اللامركزي. الهدف الأساسي هو من خلال إطار "OML" (مفتوح، قابل للربح، موثوق) حل مشاكل ملكية النموذج، تتبع الاستدعاءات وتوزيع القيمة في سوق النماذج اللغوية الكبيرة المركزية، مما يسمح لنماذج الذكاء الاصطناعي بتحقيق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء وتوزيع القيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، امتلاك وتحويل منتجات الذكاء الاصطناعي إلى أموال، مما يدفع نحو شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال سلسلة الكتل من جميع أنحاء العالم، ويعمل على بناء منصة AGI مدفوعة من قبل المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من معهد الهند للعلوم، المسؤولين على التوالي عن أمان الذكاء الاصطناعي وحماية الخصوصية، بينما يقود Sandeep Nailwal، أحد مؤسسي Polygon، الاستراتيجية البيئية لسلسلة الكتل. يمتد خلفية أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، بالإضافة إلى الجامعات الرائدة مثل جامعة برينستون ومعهد الهند للتكنولوجيا، ويغطي مجالات مثل AI/ML وNLP ورؤية الكمبيوتر، مما يعزز جهود تنفيذ المشروع.
باعتبارها مشروعًا ثانيًا لمؤسس Polygon المشارك Sandeep Nailwal، جاءت Sentient منذ بدايتها محاطة بهالة، حيث تمتلك موارد غنية، وشبكة علاقات، ووعي بالسوق، مما يوفر دعمًا قويًا لتطوير المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل بذور بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عشرات من شركات الاستثمار المعروفة مثل Delphi وHashkey وSpartan.
![Biteye و PANews ينشران تقرير بحثي حول AI Layer1: البحث عن أرض خصبة لـ DeAI داخل السلسلة])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
)# تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
الهيكل الأساسي
يتكون الهيكل الأساسي لـ Sentient من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتتضمن عمليتين رئيسيتين:
يوفر نظام البلوكشين الشفافية والتحكم اللامركزي للبروتوكولات، مما يضمن ملكية أدوات الذكاء الاصطناعي، وتتبع الاستخدام، وتوزيع العائدات، والحكم العادل. الهيكل المحدد مقسم إلى أربع طبقات:
![Biteye و PANews يطلقان تقرير بحثي حول AI Layer1: البحث عن أرض خصبة لـ DeAI داخل السلسلة]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
إطار نموذج OML
إطار OML (مفتوح Open، قابل للتسويق Monetizable، مخلص Loyal) هو الفكرة الأساسية التي اقترحتها Sentient، وتهدف إلى توفير حماية ملكية واضحة وآليات تحفيز اقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال دمج تكنولوجيا داخل السلسلة مع التشفير الأصلي للذكاء الاصطناعي، يتميز بما يلي:
التشفير الأصلي للذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي المدعوم بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وبنية المانيفولد ذات الأبعاد المنخفضة، والخصائص القابلة للاشتقاق للنموذج، لتطوير آلية أمان خفيفة "قابلة للتحقق ولكن غير قابلة للإزالة". التقنية الأساسية هي:
يمكن تحقيق "استدعاءات تفويضية قائمة على السلوك + التحقق من الملكية" بهذه الطريقة دون تكلفة إعادة تشفير.
![Biteye و PANews تصدران تقرير بحث عن AI Layer1: البحث عن تربة DeAI داخل السلسلة])https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
إطار تأكيد ملكية النموذج والتنفيذ الآمن
Sentient تعتمد حاليا على أمان Melange المختلط: تأكيد الهوية من خلال بصمة الإصبع، تنفيذ TEE، وتقاسم الأرباح من العقود داخل السلسلة. حيث إن طريقة بصمة الإصبع هي التنفيذ الرئيسي OML 1.0، وتؤكد على فكرة "الأمان المتفائل (Optimistic Security)", أي الافتراض بالتوافق، والكشف والعقاب في حال المخالفة.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث تتيح من خلال تضمين "سؤال-جواب" معينة، أن ينشئ النموذج توقيعًا فريدًا خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالك النموذج التحقق من الملكية، ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلاً قابلًا للتتبع داخل السلسلة لسلوك استخدام النموذج.
علاوة على ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، الذي يستخدم بيئة التنفيذ الموثوقة لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE يعتمد على الأجهزة ويوجد به بعض المخاطر الأمنية، إلا أن مزاياه من حيث الأداء العالي والزمن الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
في المستقبل، تخطط Sentient لإدخال معرفة صفرية