استكشاف كيفية التمييز بين ما تقوله الذكاء الاصطناعي من خلال آلية العمل الخاصة بـ @Mira_Network!
معظم الذكاء الاصطناعي المستخدم الآن نماذج LLM، يتحدث بشكل جدّي ولكنه في الواقع لا يمكن الاعتماد عليه. ليس لأن التكنولوجيا غير قادرة، بل لأن هناك قيودًا في المبادئ تجعل من المستحيل أن يكون دقيقًا ومحايدًا في نفس الوقت.
كلما زادت البيانات التي تم تدريبك عليها، زادت قدرتك على تقليل التحيز، لكن من السهل أن تبدأ في تأليف القصص. كلما كانت بيانات التنظيف أنظف، قد تصبح أكثر انحيازًا نحو موقف معين.
الآلية الأساسية لميرا هي التحقق من الإجماع. في الواقع، لا يعتمد الأمر على إجابة نموذج واحد، بل يشارك العديد من النماذج في الحكم. فقط عندما يقول الجميع نعم، تُعتبر هذه الإجابة قد تم التحقق منها.
تتكون العملية بأكملها من ثلاث خطوات!
1⃣تحويل إلى ثنائي إجابة الذكاء الاصطناعي ليست عبارة كاملة تُستخدم للحكم، بل يتم تقسيمها إلى جمل صغيرة للحكم. على سبيل المثال: تدور الأرض حول الشمس، وتدور القمر حول الأرض. Mira ستفكك هذه الجملة إلى: تدور الأرض حول الشمس القمر يدور حول الأرض
كل جملة سيتم التحقق منها بشكل مستقل. إنه يتجنب المشكلة التي تجعل الكلام يبدو جيدًا ككل، بينما التفاصيل كلها خاطئة.
2⃣التحقق الموزع ستُرسل هذه الجمل المفككة إلى عقد التحقق المختلفة في شبكة ميرا، حيث كل عقدة هي نموذج أو مجموعة من النماذج، ولن ترى السياق الكامل، بل ستكون مسؤولة فقط عن تحديد صحة الجملة الخاصة بها، مما يضمن تحققًا أكثر حيادية.
3⃣آلية التحقق من الإجماع التحقق من العمل" لميرا هو استدلال AI حقيقي.
يجب على كل نموذج تحقق أن يراهن (يستثمر) الرموز، وبعد التحقق يجب تقديم النتائج. إذا كان الأداء سيئًا، سيتم "خفض" الرمز المميز المرهون.
يجب أن تتفق جميع النماذج تقريبًا على حكم واحد حتى يُعتبر "الحساب التوافقي" للنموذج مقبولًا. هذه الآلية هي استخدام "التوافق المتعدد" بين النماذج للاقتراب من الحقيقة نفسها.
في نهاية المطاف، @Mira_Network هي مجرد طبقة من إثبات الموثوقية المضافة إلى مخرجات الذكاء الاصطناعي، وهذه الطبقة تم التوصل إليها من خلال الإجماع، وليس من خلال التحقق من نموذج واحد.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
استكشاف كيفية التمييز بين ما تقوله الذكاء الاصطناعي من خلال آلية العمل الخاصة بـ @Mira_Network!
معظم الذكاء الاصطناعي المستخدم الآن نماذج LLM، يتحدث بشكل جدّي ولكنه في الواقع لا يمكن الاعتماد عليه. ليس لأن التكنولوجيا غير قادرة، بل لأن هناك قيودًا في المبادئ تجعل من المستحيل أن يكون دقيقًا ومحايدًا في نفس الوقت.
كلما زادت البيانات التي تم تدريبك عليها، زادت قدرتك على تقليل التحيز، لكن من السهل أن تبدأ في تأليف القصص. كلما كانت بيانات التنظيف أنظف، قد تصبح أكثر انحيازًا نحو موقف معين.
الآلية الأساسية لميرا هي التحقق من الإجماع. في الواقع، لا يعتمد الأمر على إجابة نموذج واحد، بل يشارك العديد من النماذج في الحكم. فقط عندما يقول الجميع نعم، تُعتبر هذه الإجابة قد تم التحقق منها.
تتكون العملية بأكملها من ثلاث خطوات!
1⃣تحويل إلى ثنائي
إجابة الذكاء الاصطناعي ليست عبارة كاملة تُستخدم للحكم، بل يتم تقسيمها إلى جمل صغيرة للحكم.
على سبيل المثال: تدور الأرض حول الشمس، وتدور القمر حول الأرض.
Mira ستفكك هذه الجملة إلى:
تدور الأرض حول الشمس
القمر يدور حول الأرض
كل جملة سيتم التحقق منها بشكل مستقل. إنه يتجنب المشكلة التي تجعل الكلام يبدو جيدًا ككل، بينما التفاصيل كلها خاطئة.
2⃣التحقق الموزع
ستُرسل هذه الجمل المفككة إلى عقد التحقق المختلفة في شبكة ميرا، حيث كل عقدة هي نموذج أو مجموعة من النماذج، ولن ترى السياق الكامل، بل ستكون مسؤولة فقط عن تحديد صحة الجملة الخاصة بها، مما يضمن تحققًا أكثر حيادية.
3⃣آلية التحقق من الإجماع
التحقق من العمل" لميرا هو استدلال AI حقيقي.
يجب على كل نموذج تحقق أن يراهن (يستثمر) الرموز، وبعد التحقق يجب تقديم النتائج.
إذا كان الأداء سيئًا، سيتم "خفض" الرمز المميز المرهون.
يجب أن تتفق جميع النماذج تقريبًا على حكم واحد حتى يُعتبر "الحساب التوافقي" للنموذج مقبولًا. هذه الآلية هي استخدام "التوافق المتعدد" بين النماذج للاقتراب من الحقيقة نفسها.
في نهاية المطاف، @Mira_Network هي مجرد طبقة من إثبات الموثوقية المضافة إلى مخرجات الذكاء الاصطناعي، وهذه الطبقة تم التوصل إليها من خلال الإجماع، وليس من خلال التحقق من نموذج واحد.