ستيوارت راسل: النموذج الكبير هو مجرد قطعة معزولة من أحجية الذكاء الاصطناعي العام ، ولا تزال هناك ألغاز غير موجودة

المصدر: الورقة

وو تيان يى المراسل المتدرب تشن Xiaorui

"لا أعتقد أن الطريقة الوحيدة لفهم سلامة الذكاء الاصطناعي هي نشر مئات الملايين من نسخ نظام ما في العالم الحقيقي ورؤية النتائج." البشر لا يفعلون ذلك باللقاحات ، علينا اختبار لقاح قبل نشرها ، لأننا سنحقنها في مئات الملايين من الأشخاص ".

"نحن لا نفهم النماذج اللغوية الكبيرة وكيفية عملها. نحن بحاجة إلى هذا الفهم من أجل أن نكون واثقين بشأن السلامة. يجب ألا تعتمد التقنيات التي يستخدمها البشر لبناء أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات للتدريب والصناديق السوداء باستخدام مكونات داخلية غير معروفة ".

ألقى ستيوارت راسل ، أستاذ علوم الكمبيوتر بجامعة كاليفورنيا ، بيركلي ، خطابًا رئيسيًا في مؤتمر زيوان بكين 2023.

"الذكاء الاصطناعي مثل مغناطيس ضخم من المستقبل يدفعنا إلى الأمام ، كيف نضمن أننا لن يتحكم علينا الذكاء خارج الإنسان؟" 10 يونيو ، أستاذ علوم الكمبيوتر ، جامعة كاليفورنيا ، بيركلي ، مركز الذكاء الاصطناعي البشري المتوافق ألقى مدير (مركز الذكاء الاصطناعي المتوافق مع الإنسان) ستيوارت راسل (ستيوارت راسل) خطابًا في مؤتمر بكين تشى يوان عام 2023 ، قائلًا إن تصميم أنظمة الذكاء الاصطناعي يجب أن يتبع مبدأين. أولاً ، يجب أن يعمل الذكاء الاصطناعي لصالح البشرية ؛ ثانيًا ، يجب ألا يعرف الذكاء الاصطناعي نفسه ما هي تلك المصالح.

في جلسة الحوار ، ناقش راسل وياو كيجي ، الحائز على جائزة تورينج والأكاديمي في الأكاديمية الصينية للعلوم ، مستقبل الذكاء الاصطناعي على المدى الطويل وعلاقته بالبشر. وعندما يتم اتخاذ القرارات نيابة عن المجتمع ، ينبغي مراعاة مصالح الجميع على النحو الواجب ".

تم الترحيب بكتاب "الذكاء الاصطناعي: نهج حديث" ، الذي شارك في تأليفه راسل ، باعتباره الكتاب المدرسي الأكثر شعبية في مجال الذكاء الاصطناعي ، والذي تبنته أكثر من 1500 جامعة في 135 دولة. في عام 2022 ، سيمنح المؤتمر الدولي المشترك للذكاء الاصطناعي (IJCAI) راسل جائزة التميز في البحث. وقد فاز سابقًا بجائزة IJCAI للكمبيوتر والفكر ، وبذلك أصبح ثاني عالم في العالم يمكنه الفوز بجائزتين رئيسيتين من IJCAI في نفس الوقت.

** الذكاء الاصطناعي العام لا يزال بعيدًا **

في مؤتمر بكين ، عرّف راسل الذكاء الاصطناعي العام (AGI) في خطاب بعنوان "الذكاء الاصطناعي: بعض الأفكار؟" أنظمة الذكاء الاصطناعي التي تتجاوز القدرات البشرية في المهام. يمكن لهذا النوع من أنظمة الذكاء الاصطناعي أن يتعلم ويؤدي أي مهمة بشكل أفضل وأسرع من البشر ، بما في ذلك المهام التي لا يستطيع البشر التعامل معها ، وبسبب المزايا الهائلة للآلات في السرعة والذاكرة والاتصال وعرض النطاق الترددي ، في المستقبل ، فإن الذكاء الاصطناعي العام سوف تستخدم في جميع المجالات تقريبًا ستتجاوز القدرات البشرية.

إذن ، إلى أي مدى يبعد البشر عن الذكاء الاصطناعي العام؟ قال راسل إننا ما زلنا بعيدين عن الذكاء الاصطناعي العام. "في الواقع ، لا يزال هناك العديد من الأسئلة المهمة التي لم تتم الإجابة عليها."

أشار راسل في حديثه إلى أن ChatGPT و GPT-4 لا يفهمان العالم ، ولا يجيبان على الأسئلة ، "إذا كان الذكاء الاصطناعي العام عبارة عن لغز كامل ، فإن نموذج اللغة الكبير هو قطعة واحدة فقط ، لكننا لا نفعل ذلك حقًا. فهم كيفية ربط ذلك بأجزاء أخرى من اللغز لتحقيق ذكاء اصطناعي عام ، "أعتقد أن هناك حتى أجزاء من اللغز المفقود لم يتم العثور عليها."

وفقًا لرسل ، تتمثل إحدى نقاط الضعف الأساسية في أنظمة الذكاء الاصطناعي الحالية في أنها تستخدم الدوائر لتوليد المخرجات. "نحن نحاول إخراج سلوك ذكي للغاية من الدوائر ، والتي تعد في حد ذاتها شكلًا محدودًا إلى حد ما من الحسابات". ويجادل بأن عدم قدرة الدوائر على التعبير بدقة وفهم بعض المفاهيم الأساسية يعني أن هذه الأنظمة تتطلب الكثير من التدريب البيانات لتعلم بعض الوظائف التي يمكن تعريفها ببرامج بسيطة. وهو يعتقد أن اتجاه التطوير المستقبلي للذكاء الاصطناعي يجب أن يكون استخدام التكنولوجيا القائمة على تمثيل المعرفة الواضح.

ونقل راسل عن آلان تورينج ، مؤسس علوم الكمبيوتر الحديثة ، قوله: "بصرف النظر عن المشكلات الفنية ، إذا قمنا بإنشاء ذكاء اصطناعي عام. فماذا سيحدث بعد ذلك؟ يبدو الأمر مخيفًا أن تتفوق على قوتنا الضعيفة ".

"كيف نتأكد بشكل دائم من أننا لا نسيطر على الذكاء الاصطناعي؟ هذه هي المشكلة التي نواجهها - إذا لم نتمكن من العثور على إجابة لهذا السؤال ، فأعتقد أنه لا يوجد خيار سوى التوقف عن تطوير الذكاء الاصطناعي العام." قال راسل.

في مارس من هذا العام ، وقع راسل خطابًا مفتوحًا مع الآلاف من الأشخاص بما في ذلك الرئيس التنفيذي لشركة Tesla Elon Musk و "عراب الذكاء الاصطناعي" Geoffrey Hinton ، يدعو إلى تعليق تدريب أنظمة الذكاء الاصطناعي التي تكون أقوى من GPT-4 لمدة ستة أشهر على الأقل.

أكد راسل في الاجتماع أن الإجابة على المشكلة موجودة. يجب أن يتبع تصميم نظام الذكاء الاصطناعي مبدأين. أولاً ، يجب أن يعمل الذكاء الاصطناعي لصالح البشرية ؛ ثانيًا ، يجب ألا يعرف الذكاء الاصطناعي نفسه ما هي تلك المصالح. على هذا النحو ، فهم غير متأكدين من التفضيلات البشرية والمستقبل ، وهذا الشك يمنح البشر السيطرة.

قال راسل إن الناس بحاجة إلى تغيير آرائهم ، وليس السعي وراء "يجب أن تكون الآلات ذكية" ، ولكن التركيز على "فائدة" الآلات بحيث تتماشى مع المصالح الأساسية للبشرية. "الأجانب أذكياء جدًا ، لكننا لا نريدهم بالضرورة أن يأتوا إلى الأرض."

** أفكار الأخوة بين منظمة العفو الدولية ومنسيوس **

في جلسة الحوار ، أجرى راسل وياو كيجي مناقشة عميقة وثاقبة.

عندما سأله ياو كيجي عن المستقبل طويل الأمد للعلاقة بين الذكاء الاصطناعي والبشر ، قال راسل إن ظاهرة استخدام البشر للذكاء الاصطناعي لتلبية مصالحهم الخاصة ، مما يجعل الذكاء الاصطناعي لا يمكن السيطرة عليه ، تنبع من النفعية. خطوة مهمة في تقدم الإنسان ، ولكنها أيضًا تؤدي إلى بعض المشاكل. "على سبيل المثال ، كيف يتم اتخاذ القرارات عندما يؤثر القرار على عدد الأشخاص الموجودين جسديًا؟ هل يريد الناس مجموعة كبيرة ليست سعيدة جدًا أم مجموعة صغيرة سعيدة جدًا؟ "ليس لدينا إجابات جيدة على هذه الأنواع من الأسئلة ، لكننا بحاجة للإجابة على هذه الأسئلة الأساسية للفلسفة الأخلاقية ، لأن أنظمة الذكاء الاصطناعي ستتمتع بقوة كبيرة ، ونحن نتأكد بشكل أفضل من أنها تستخدم هذه القوة بالطريقة الصحيحة. "

ناقش راسل وياو كيجي (إلى اليمين) ، الحائزان على جائزة تورينج والأكاديمي في الأكاديمية الصينية للعلوم ، مستقبل الذكاء الاصطناعي على المدى الطويل وعلاقته بالبشر.

استشهد راسل بالفيلسوف الصيني القديم منسيوس في إجابته ، "تحدث منسيوس عن مفهوم الأخوة في الصين ، مما يعني أنه عند اتخاذ القرارات الأخلاقية ، يجب أخذ مصالح الجميع في الاعتبار. وينبغي معاملة تفضيلات الجميع على قدم المساواة." هناك نهج ، قائم على الأشكال المعقدة من نفعية التفضيل ، يمكن أن يسمح لأنظمة الذكاء الاصطناعي بأخذ مصالح الجميع في الاعتبار عند اتخاذ القرارات نيابة عن المجتمع.

سأل راسل ، عندما يكون هناك شخص واحد والعديد من الآلات ، كيف تضمن أن هذه الآلات تتعاون مع بعضها البعض لمساعدة البشر؟ هذا يمس الأسئلة الأساسية للفلسفة الأخلاقية عندما يكون لدى الكثير من الناس العديد من الآلات. وهو يعتقد أن أنظمة الذكاء الاصطناعي يجب أن تكون مصممة للعمل نيابة عن جميع البشر. "إذا كنت تريد أن يتوافق نظام الذكاء الاصطناعي مع رغبات الفرد ، فعليك أن تثبت أن نظام الذكاء الاصطناعي محدود في نطاق عمله لتلك المخاوف الخاصة بالفرد ، وأنه لا يمكن أن يؤذي الأفراد الآخرين من خلال متابعته المصالح الخاصة لأنها لا تهتم بالأفراد الآخرين. لذلك أعتقد أن الوضع الافتراضي هو أن تعمل أنظمة الذكاء الاصطناعي نيابة عن البشر. "

بالإضافة إلى ذلك ، في المناقشة ، ذكر راسل المصطلح الاقتصادي "السلع الموضعية" ، يشير مصطلح "السلع الموضعية" إلى حقيقة أن الناس لا يقدرون العناصر نفسها ، ولكن المعنى الضمني لكونهم متفوقين على الآخرين. وقال "لماذا جائزة نوبل ذات قيمة؟ لأنه لا يمتلكها أي شخص آخر ، وهذا يثبت أنك أذكى من أي شخص في العالم تقريبًا".

"طبيعة السلع الموضعية هي أن هناك نوعًا ما لعبة محصلتها صفر. وببساطة ، لا يدخل الجميع في أعلى 1 في المائة. لذلك إذا اكتسبت قيمة شخصية ، فالفخر بكونك 1 في المائة لا يمكننا إعطاء ذلك قال راسل: الكبرياء واحترام الذات للجميع.

لذا ، هل يجب أن تأخذ أنظمة الذكاء الاصطناعي بعين الاعتبار السلع الموضعية عند اتخاذ القرارات نيابة عن المجتمع؟ "إذا قلنا أنه لا ينبغي لنا ذلك ، فسيحدث ذلك تغييرًا كبيرًا في طريقة عمل المجتمع. إنها مشكلة أكثر صعوبة. أعتقد أن الكثير من الاحتكاك الداخلي في المجتمع ناتج بالفعل عن هذه السلع الموضعية التي يمكن ببساطة" أن يحققها الجميع ".

** خطيرة مثل خوارزمية وسائل التواصل الاجتماعي **

تساءل ياو كيجي عما إذا كان من الممكن في المستقبل تطوير "قائمة بيضاء" تسمح باستخدام أنظمة الذكاء الاصطناعي للقيام بأشياء تفيد رفاهية الإنسان ، مثل استخدام أساليب الذكاء الاصطناعي لتصميم الأدوية وحل مشاكل السرطان.

قال راسل إن K. Eric Drexler ، أحد مؤسسي تقنية النانو ، كان يعمل على سلامة الذكاء الاصطناعي خلال السنوات القليلة الماضية ، واقترح خدمات الذكاء الاصطناعي الشاملة (خدمات الذكاء الاصطناعي الشاملة). ، CAIS) ، أي أنظمة الذكاء الاصطناعي هي ليس مصممًا للأهداف العامة ، ولكن لحل مشكلات محددة وضيقة ، مثل طي البروتين ، والتنبؤ بحركة المرور ، وما إلى ذلك. تعد المخاطر واسعة النطاق التي تشكلها هذه الأنظمة صغيرة نسبيًا مقارنة بالذكاء الاصطناعي العام.

قال راسل ، "على المدى القصير ، هذا نهج معقول" ، لكن "لا أعتقد أن الطريقة الوحيدة لفهم سلامة الذكاء الاصطناعي هي نشر مئات الملايين من نسخ النظام في العالم الحقيقي و لاحظ النتائج. "وقال ، لن يفعل البشر هذا للقاح ،" علينا اختباره قبل نشره ، لأننا سنحقنه في مئات الملايين من الناس ".

لذلك ، هناك حاجة حاليًا إلى مزيد من العمل لضمان سلامة الأشخاص الذين يستخدمون هذه الأنظمة. أشار راسل إلى أن أنظمة الذكاء الاصطناعي يمكن أن تغير آراء وعواطف مئات الملايين من الناس من خلال الحوار. يجب على شركات التكنولوجيا مثل OpenAI التوقف عن إطلاق أنظمة ذكاء اصطناعي جديدة لمئات الملايين من الأشخاص دون إخبارهم أن هذه الأنظمة يمكنها التلاعب والتأثير على التفكير والسلوك البشري من خلال الحوار ، مما يؤدي إلى بعض العواقب الكارثية ، مثل الحرب النووية أو الكوارث المناخية. "إذا كان بإمكانك التحدث إلى مئات الملايين من الناس ، يمكنك إقناع هؤلاء مئات الملايين من الناس بأن يكونوا أقل صداقة مع البلدان الأخرى ، ويمكنك إقناع الناس بأن يكونوا أقل قلقًا بشأن تغير المناخ."

قال راسل: "هذا الموقف يشبه خوارزميات وسائل التواصل الاجتماعي ، ولا ندرك حتى أنه يغير الخطاب العام ، والمشاعر ، وكيف نرى الآخرين والمستقبل ، وهو أمر خطير للغاية." اكتشاف الأجسام الداخلية ، مما يؤدي بالذكاء الاصطناعي إلى دفعنا في هذا الاتجاه ".

إذن ، كيف نضمن سلامة تكنولوجيا الذكاء الاصطناعي وإمكانية التحكم فيها؟

"إذا كان الذكاء الاصطناعي أقوى أو أقوى من الأسلحة النووية ، فقد نحتاج إلى إدارته بطريقة مماثلة." قال راسل ، "قبل اختراع تكنولوجيا الأسلحة النووية ، كان هناك فيزيائيون يعتقدون أننا بحاجة إلى هيكل حوكمة للتأكد من أن التكنولوجيا تستخدم فقط لصالح الإنسان وليس في شكل أسلحة. لسوء الحظ ، لم يستمع مجتمع الفيزياء ولا الحكومة إلى آرائهم ". وأكد أن تقنية الذكاء الاصطناعي قوية مثل الأسلحة النووية وتكنولوجيا الطيران ، ويجب على الدول أن تسعى جاهدة لبدء هذا التعاون في مجال السلامة باستخدام الذكاء الاصطناعي في أقرب وقت ممكن.

يعتقد راسل أن ضمان الفوائد المحتملة للذكاء الاصطناعي يتطلب تغييرات شاملة ، ليس فقط التنظيم ووضع قواعد صارمة ومعايير السلامة ، ولكن أيضًا تغيير ثقافي في مجال الذكاء الاصطناعي بأكمله.

قدم اقتراحات: أولاً ، بناء نظام ذكاء اصطناعي يمكن للبشر فهمه. "نحن لا نفهم نماذج اللغة الكبيرة وكيفية عملها. نحن بحاجة إلى هذا الفهم من أجل أن نثق في السلامة. لا ينبغي أن تعتمد التقنيات التي يستخدمها البشر لبناء أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات للتدريب والصناديق السوداء بأجزاء داخلية غير معروفة ".

علاوة على ذلك ، فإن منع نشر أنظمة الذكاء الاصطناعي غير الآمنة ، وخاصة من قبل الجهات الخبيثة ، "يتطلب تغييرات في النظام البيئي الرقمي بأكمله ، بدءًا من الطريقة التي يعمل بها الكمبيوتر ، أي لا يقوم الكمبيوتر بتشغيل البرامج التي يعتبرها غير آمنة."

في نهاية المناقشة ، خلص راسل إلى أن الذكاء الاصطناعي هو علم ، لذا قبل استخدامه ، تحتاج إلى فهم هيكله الداخلي ومبدأ عمله. "تمامًا كما نصنع الطائرات ، يمكننا معرفة كيفية بقائها في الهواء بناءً على شكلها المادي ومحركاتها وما إلى ذلك." وقال: "في الوقت الحالي ، لا سيما في مجال النماذج اللغوية الكبيرة ، لم يتحقق الذكاء الاصطناعي بعد مثل هذا المستوى. لا نعرف كيف يولدون هذه الخصائص. في الواقع ، لا نعرف حتى الخصائص التي لديهم ، لذلك لا يمكننا ربط هذه الظواهر بأعمالهم الداخلية. "لذلك ، الذكاء الاصطناعي هو مجال يحتاج إلى مزيد من التطوير علم الاستكشاف.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت