هذا المقال من بكين بقلم Zhang Xiaojun ، مؤلف Tencent News "Periscope".
* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *
قبل نصف شهر ، وقع المئات من كبار شخصيات الذكاء الاصطناعي ، بما في ذلك الرئيس التنفيذي لشركة OpenAI Sam Altman والحائز على جائزة Turing Geoffrey Hinton ، بيانًا قصيرًا حول تهديد الذكاء الاصطناعي للانقراض البشري.
يحتوي هذا البيان على جملة واحدة فقط - "يجب أن يصبح التخفيف من مخاطر انقراض الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".
كان ديفيد كروجر ، الأستاذ المساعد لأبحاث الذكاء الاصطناعي بجامعة كامبريدج ، أحد المبادرين الأصليين للرسالة وهو أيضًا أحد الموقعين.
في 9 يونيو ، أجرى كروجر حوارًا معمقًا مع Tencent News "Periscope" أثناء حضوره مؤتمر بكين Zhiyuan 2023. لطالما كان قلقًا بشأن محاذاة الذكاء الاصطناعي وقضايا الأمن.منذ عام 2012 ، كان قلقًا بشأن المخاطر المحتملة للذكاء الاصطناعي للانقراض البشري ، وهو ما يطلق عليه المجال "X-Risk" (خطر وجودي).
استجابةً لمخاطر الذكاء الاصطناعي ، عارض أحد الآراء أن هذا القلق الشديد قد يكون مشابهًا للذعر المفرط للبشر عندما ظهر المحرك البخاري قبل مئات السنين. لكن كروجر قال إن الاختلاف الأكبر بين الاثنين هو أن المحرك البخاري لن يجعل البشر ينقرضون ، لكن الذكاء الاصطناعي سوف ينقرض.
يعتقد كروجر أن الذكاء الاصطناعي أكثر ذكاءً من البشر ، والمنافسة غير المنظمة ، وبناء أنظمة الذكاء الاصطناعي التي لها تأثير مباشر أكثر على العالم - هذه العوامل الثلاثة ستزيد بشكل كبير من عامل الخطر لخروج أنظمة الذكاء الاصطناعي عن السيطرة. قال: "كلما كان النظام أكثر انفتاحًا ، كلما كان أكثر استقلالية ، وأكثر ذكاءً ، وكلما كان مصممًا لتحقيق أهداف طويلة الأجل ، زاد خطر خروج النظام عن السيطرة".
وفي رأيه أن قضية أمن الذكاء الاصطناعي مثل قضية تغير المناخ العالمي ، فجميع الأطراف لها مصالحها الخاصة ، وستكون هناك العديد من الصراعات والخلافات ، مما يجعلها في نهاية المطاف قضية تنسيق عالمية معقدة. لذلك ، من الضروري البدء في أسرع وقت ممكن ومن خلال جهود جميع الأطراف ، حتى لا يتحول البشر إلى مصير الاستيلاء على الذكاء الاصطناعي.
بهذه الطريقة فقط يمكن للبشر البقاء على قيد الحياة.
ديفيد كروجر
فيما يلي جوهر حديث ديفيد كروجر.
** 01 الرسالة المشتركة "بيان مخاطر الذكاء الاصطناعي" عبارة عن جملة واحدة فقط ، وهي مصممة بعناية **
** أخبار Tencent "Periscope": أنت أحد الموقعين على "بيان حول مخاطر الذكاء الاصطناعي" هل يمكن أن تخبرنا كيف جاء هذا البيان؟ **
ديفيد كروجر: لقد توصلت إلى هذه الفكرة منذ أكثر من عام ، لأن الناس قلقون أكثر فأكثر بشأن مخاطر الذكاء الاصطناعي ، لا سيما خطر أن يتسبب الذكاء الاصطناعي في انقراض البشر. في الوقت نفسه ، لا يناقش الكثير من الناس هذه القضية علانية.
أحد الأسباب الكبيرة هو التاريخ ، حيث كانت الفكرة تعتبر ذات يوم فكرة هامشية ويخشى الناس من أن مناقشتها علنًا ستؤثر سلبًا عليهم ، أو حتى على آفاق حياتهم المهنية.
قبل بضعة أشهر ، حان الوقت المناسب. منذ إصدار ChatGPT و GPT-4 ، وصل اهتمام الناس بالذكاء الاصطناعي إلى مستويات غير مسبوقة. لفترة طويلة ، كان من المسلم به أن هذا قد يكون قضية افتراضية في المستقبل ، ولكن من السابق لأوانه معرفة ذلك.
بالنسبة لكيفية ظهور هذا البيان ، فقد تواصلت مع عدد من الزملاء ، بمن فيهم دان هندريكس ، مدير مركز أمان الذكاء الاصطناعي. أخبرته أنه يجب علينا الإدلاء بمثل هذا البيان ، وأعتزم القيام بذلك في أقرب وقت ممكن. لكنني لست متأكدًا من أنني جيد بما يكفي للقيام بذلك. إنه أمر عاجل. لذلك ، أخذ دان الموضوع وضغط من أجل الإعلان.
** أخبار Tencent "Periscope": ما هي تعليقاتك على صياغة هذه الرسالة؟ **
ديفيد كروجر: أقترح استخدام جملة واحدة فقط. هناك عدة أسباب.
أولاً ، عندما يكون لديك بيان طويل ، فهناك فرصة جيدة أن يختلف شخص ما مع بعضها.
رأينا قبل بضعة أشهر أن معهد Future of Life قد أصدر دعوة لوقف فوري لجميع مختبرات الذكاء الاصطناعي التي تدرب على أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 لمدة 6 أشهر على الأقل. رد فعل الكثير من الناس على هذا يبدو رائعًا ، لكنني لا أعتقد أنه يمكننا إيقاف تطوير الذكاء الاصطناعي مؤقتًا.
بالطبع لقد أدلوا بهذا البيان وما زال صالحًا لأنه بمجرد أن يقول الناس أننا لا نستطيع التوقف مؤقتًا ، فهذه علامة على أننا بحاجة إلى التصرف. نحتاج حقًا إلى القدرة على تعليق تقنية خطيرة جدًا بحيث يتعذر تطويرها.
أستخدم هذا المثال لتوضيح أنه كلما تحدثت أكثر ، زاد اختلاف الناس. في هذه الحالة ، لم نذكر كيفية التعامل مع هذا الخطر ، لأن الناس لديهم آراء مختلفة حول الطريقة الصحيحة ؛ ولم نذكر أيضًا لماذا قد يؤدي ذلك إلى الانقراض البشري ، لأن الأشخاص المختلفين لديهم آراء مختلفة حول هذا - بعض الناس أكثر قلقًا بشأن التكنولوجيا. إساءة استخدامها ، والبعض الآخر أكثر قلقًا من خروج التكنولوجيا عن السيطرة ، وهذا ليس نتيجة مقصودة لممثل ضار.
في كلتا الحالتين ، طالما أن الكثير من الناس يتفقون على أن هذه مخاطرة كبيرة وعلينا التصرف ، فلا بأس بذلك.
** 02 تختلف مخاطر الذكاء الاصطناعي بشكل أساسي عن مخاطر المحركات البخارية **
** أخبار تينسنت "بيريسكوب": ما هو الفرق الأكبر بين مخاوف الناس من خطر الذكاء الاصطناعي وخوف الناس من المحركات البخارية قبل مائتي أو ثلاثمائة عام؟ **
ديفيد كروجر: لا أعرف الكثير عن هذا التاريخ. لست متأكدًا مما إذا كان أي شخص قد قال إن ذلك سيؤدي إلى انقراض البشرية في ذلك الوقت. إذا قال أحدهم ذلك ، فأنا أيضًا لست متأكدًا من نوع الحجج التي سيستخدمونها ، يبدو من غير المحتمل بالنسبة لي.
الاختلاف الرئيسي هو أننا نتحدث عن الانقراض. نحن نتحدث عن تقنية يحتمل أن تكون أكثر ذكاءً وقوة من البشر في كل القدرات ذات الصلة.
يسمح لنا المحرك البخاري بتكوين قوى جسدية أقوى وأسرع من البشر. لكن المحرك البخاري ليس ذكيًا ويسهل التحكم فيه نسبيًا. حتى لو خرج المرء عن نطاق السيطرة ، فإن أسوأ سيناريو هو أنه يتعطل وقد يموت أو يصاب من حوله. ولكن إذا خرج نظام ذكي أو نظام استنساخ ذاتي عن السيطرة ، يمكن أن يموت الكثير من الناس لأنه يمكن أن ينمو ويكتسب المزيد من القوة ، وهذا هو الفرق الرئيسي.
** أخبار Tencent "Periscope": يعتقد بعض الناس أن التصريحات العامة لا يمكن إلا أن توقف الأشخاص الطيبين ، وتحاول جعل الأشخاص الطيبين ينتبهون أكثر للقضايا الأمنية ويبطئون سرعة البحث والتطوير ، لكنهم لا يستطيعون إيقاف تصرفات الأشخاص السيئين . كيف نمنع الأشرار؟ **
ديفيد كروجر: تنظيم السلوك من خلال التنظيم والتعاون الدولي.
أنا لا أحب الحديث عن ذلك من منظور "الأخيار" و "الأشرار" لأن الجميع يعتقد دائمًا أنهم رجال طيبون. الخطر الرئيسي الذي يقلقني ليس التلاعب الخبيث بأنظمة الذكاء الاصطناعي من قبل شخص سيء أو فاعل خبيث ، ولكن شيء مثل تغير المناخ - قد يكسب الأفراد المزيد من حرق المزيد من الوقود الأحفوري أو صنع أنظمة أكثر قوة يصعب التحكم فيها. هناك العديد الفوائد ، لكن كل منها يتحمل بعض التكلفة. في حالة تغير المناخ ، يمكن أن يتسبب ذلك في الإضرار بالبيئة. في حالة الذكاء الاصطناعي ، يكمن الخطر في أن النظام يخرج عن نطاق السيطرة ويؤدي إلى كارثة.
هذا هو أكثر من سؤال تحفيزي. في الواقع ، يهتم البشر بأنفسهم وأصدقائهم وأحبائهم ومجتمعهم أكثر من شخص غريب على الجانب الآخر من العالم. لذلك ، لا توجد نوايا خبيثة مطلوبة ، فقط الغرائز الأنانية. لهذا السبب هناك حاجة إلى التنظيم ، فهو السبيل لحل هذه الأنواع من المشاكل ذات الاهتمام البشري المشترك.
** 03 عمل محاذاة الذكاء الاصطناعي به الكثير من الألغاز التي لم يتم حلها **
** أخبار Tencent "Periscope": اهتماماتك البحثية هي التعلم العميق ومواءمة الذكاء الاصطناعي والأمن. هل يمكنك شرح ما هو التوافق في لغة يمكن للناس العاديين فهمها؟ قلت إن "المحاذاة ستكون أحد المحركات الرئيسية لتطوير الذكاء الاصطناعي" ، ما سبب أهميتها؟ **
ديفيد كروجر: أود أن أقول إن الناس لديهم ثلاثة تفسيرات مختلفة لهذا. الأول هو جعل أنظمة الذكاء الاصطناعي تعمل بناءً على إرادتنا. لكنني لا أعتقد أن هذا تعريف جيد ، فهو واسع جدًا وكل مهندس يحاول جعل نظام الذكاء الاصطناعي يتصرف كما يريد.
هناك أيضًا تعريف أكثر تحديدًا ، وهو "المحاذاة حسب النية". في رأيي ، هذا هو التعريف الصحيح ويشير إلى جعل النظام يحاول أن يفعل ما نريده أن يفعله. عند تصميم نظام ما ، فأنت تريد أن يكون لديه النوايا والدوافع والأهداف الصحيحة. قد لا يزال غير قادر على التصرف كما يحلو لك ، لأنه قد لا يكون قادرًا أو ذكيًا بما يكفي لمعرفة كيفية تنفيذ رغباتك. ولكن إذا كانت النية صحيحة ، فيمكنك القول إنها متوائمة.
المعنى النهائي للناس للمواءمة هو أي جهد تكنولوجي للحد من خطر الانقراض البشري. في بعض الأحيان ، يشير أيضًا إلى مجتمع الأشخاص مثلي المتخصصين في مجال المواءمة والأمن. هذا ليس تعريفي المفضل أيضًا. هذه مجرد فكرة واحدة لدى الناس حول كيفية حل هذه المشكلة. في نهاية المطاف ، على الرغم من ذلك ، هناك حاجة إلى مزيد من العمل بشأن الحوكمة والتنظيم والتعاون الدولي ، مثل إبرام المعاهدات ، وهو أمر ضروري للتخفيف من هذه المخاطر.
** أخبار Tencent "Periscope": ما هو التقدم الجديد الذي حققته شركات التكنولوجيا ومؤسسات البحث العلمي في تكنولوجيا المحاذاة مؤخرًا؟ ما هي أكثر التحديات والمشكلات إلحاحًا التي تواجهك؟ **
ديفيد كروجر: أهم شيء هو ضبط تقنيات نماذج اللغات الكبيرة ، لقد قاموا بالكثير من العمل لتغيير سلوك النموذج. على سبيل المثال ، يتمثل الاختلاف بين GPT-3 و GPT-4 في أن النظام مصمم للعمل بشكل أكبر وفقًا لنية المصمم. بشكل أساسي من خلال التعلم المعزز وردود الفعل البشرية ، على الرغم من أن التفاصيل ليست عامة. نجح هذا في الغالب ، لكنه لم يقضي تمامًا على مشاكل هذه النماذج.
أشعر بالقلق من أن هذه التقنية قد لا تكون كافية لأنظمة أكثر قوة ، لأن التغييرات التي تجريها على السلوك قد تكون سطحية نسبيًا. يمكن أن تصبح هذه المشكلة أكثر خطورة عندما يصبح النظام أكثر قوة.
يشبه إلى حد ما تشبيه تدريب الحيوانات ، مثل تدريب كلب على عدم ارتداء الأثاث. ربما يكون هذا جيدًا حقًا عندما تكون هناك ، لكن إذا غادرت الغرفة ، فستظل تلتقط الأثاث. قد تحدث مواقف مماثلة في هذه النماذج. قد يبدو أنهم منحازون ، لكن لا يزال بإمكانهم إساءة التصرف إذا اعتقدوا أننا لن نلاحظ سوء سلوكهم.
** أخبار Tencent "Periscope": عندما يكون الذكاء الاصطناعي أكثر ذكاءً من البشر ، كيف يمكن للبشر إكمال عمل المحاذاة على جسم فائق الذكاء؟ **
ديفيد كروجر: هذا سؤال بحث مفتوح. لذلك ، من المهم إجراء بحث حول محاذاة الذكاء الاصطناعي من أجل العثور على إجابة لهذا السؤال.
** أخبار Tencent "Periscope": كيف يمكننا أن نجعل الذكاء الاصطناعي يحب البشر بدلاً من إيذائهم من خلال المحاذاة؟ **
ديفيد كروجر: هذا هو نفس السؤال السابق. أتمنى لو كان لدي إجابة ، لكن لا أعرف بعد.
** 04 يمكن لهذه الحوافز الثلاثة الرئيسية أن تزيد من خطر خروج الذكاء الاصطناعي عن السيطرة **
** أخبار Tencent "Periscope": برأيك ، في أي نقطة في تاريخ الذكاء الاصطناعي هذه النقطة الزمنية؟ **
ديفيد كروجر: لقد وصلنا إلى نقطة حيث يستيقظ العالم على المخاطر. لقد كنت أنتظر هذه اللحظة لفترة طويلة.
** أخبار Tencent "Periscope": منذ أن استمعت إلى دورة التعلم العميق التي يدرسها جيفري هينتون قبل عشر سنوات ، كنت قلقًا من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر. لماذا بدأت في القلق في مثل هذه المرحلة المبكرة؟ **
ديفيد كروجر: كنت قلقة من حيث المبدأ أن هذا سيحدث في مرحلة ما لأنه سيكون يومًا ما أذكى من البشر ، لكن عندما رأيت فصل هينتون ، تغيرت مخاوفي. التعلم العميق لديه القدرة على إنتاج ذكاء حقيقي أكثر من أي طريقة أخرى سمعتها من قبل.
** أخبار Tencent "Periscope": ما هي الظروف التي يخرج فيها نظام الذكاء الاصطناعي عن السيطرة؟ **
ديفيد كروجر: أولاً ، إذا كانوا أكثر ذكاءً منا ، فإنك تبدأ في القلق بشأن الوقت الذي يخرجون فيه عن السيطرة في التفاصيل ، لكن من الصعب التنبؤ بالضبط كيف سيحدث ذلك.
العامل الثاني الذي يزيد المخاطر هو أن هناك الكثير من المنافسة لتطوير ونشر أنظمة ذكاء اصطناعي قوية في أسرع وقت ممكن. نرى حاليًا وجود هذه المنافسة بين Google و Microsoft. هناك أيضًا مخاوف بشأن المنافسة الدولية ، والتي يمكن أن تكون اقتصادية أو جيوسياسية أو عسكرية.
العامل الثالث هو إذا كنت تبني أنظمة ذكاء اصطناعي لها تأثير مباشر على العالم. الأنظمة التي نراها حتى الآن هي مجرد نماذج لغوية ، تقوم فقط بإنشاء نصوص. ولكن هناك أيضًا الكثير من الأشخاص الذين يتطلعون إلى دمجها مع أنظمة أخرى ، مثل استخدامها لكتابة التعليمات البرمجية ، واستخدامها للتحكم في أشياء مختلفة ، سواء كانت متصلة بالإنترنت أو استخدامها للتحكم في الأشياء في العالم الحقيقي. إن منح هذه الأنظمة مزيدًا من التحكم والاستقلالية يزيد من المخاطر.
بمقارنة ذلك مرة أخرى بالأنظمة التي لدينا اليوم ، والتي تم تدريبها في الغالب فقط على التنبؤ بالنص ، فهذه طريقة آمنة نسبيًا لبناء الأنظمة - مقارنة بمطالبة النظام بتحقيق هدف في بيئة معينة ، خاصةً بالمقارنة مع النظام في و هذا أكثر أمانًا من تحقيق الأهداف في بيئة يتفاعل فيها العالم الحقيقي ، العالم المادي ، بشكل متكرر. عندما تحاول الأنظمة تحقيق أهداف في العالم الحقيقي ، فقد تحاول بشكل طبيعي الحصول على المزيد من الموارد والقوة ، لأنها مفيدة في تحقيق الأهداف طويلة المدى.
وبالتالي ، كلما كان النظام أكثر انفتاحًا واستقلالية وذكاءًا ، وكلما زاد تصميمه لتحقيق أهداف طويلة الأجل ، زاد خطر خروج النظام عن السيطرة.
** Tencent News "Periscope": إذا كنت تعتقد أنه يجب صياغة إطار عمل للتعاون العالمي لضمان اتباع البلدان للمبادئ والمعايير المشتركة في تطوير الذكاء الاصطناعي ، فماذا يجب أن تكون هذه المبادئ والمعايير المحددة؟ **
ديفيد كروجر: نحن في حاجة ماسة للقيام بذلك ، وعلينا أن نبدأ في القيام بذلك بشكل عاجل. لأنه سيكون صعبا وسيتطلب الكثير من المناقشات والمفاوضات لوجود العديد من الصراعات والاختلافات بين الدول المختلفة.
بالنسبة إلى التفاصيل ، هذا شيء ما زلت أفكر فيه. نريد أن نتأكد من أن لدينا هيئة حاكمة أو نظام حوكمة شرعي للغاية يمكنه الضغط من أجل وقف اختياري إذا شعرنا في وقت ما في المستقبل بالحاجة إلى القيام بذلك. هذا جزء مهم منه.
تزداد الأمور تعقيدًا عندما يتعلق الأمر بالأنظمة التي نطورها وننشرها. نود أن يكون لدينا بعض آليات الاختبار والتقييم والتدقيق. قد نحتاج أيضًا إلى التفكير في شكل من أشكال الترخيص ، ولكن هناك الكثير من التفاصيل للعمل بها. في الوقت الحالي ، ليس لدي سيناريو كامل في رأسي. لهذا السبب آمل أن نتمكن من إلهام المزيد من الأشخاص في صنع السياسات ، من ذوي الخبرة في السياسة والعلاقات الدولية ، للتفكير في الأمر.
** أخبار Tencent "Periscope": في نظام الذكاء الاصطناعي الحالي ، ما هي الجوانب التي تحتاج إلى تحسين في أسرع وقت ممكن للتعامل مع المخاطر والتهديدات المحتملة؟ **
ديفيد كروجر: الأول هو المتانة (ملاحظة: القوة تشير إلى قدرة النظام على البقاء في المواقف غير الطبيعية والخطيرة). تعاني أنظمتنا الحالية من مشاكل كبيرة تتعلق بالقوة ، وأبرزها مشكلة المتانة العدائية ، حيث يمكن للتغييرات الصغيرة في أحد المدخلات ، حتى غير المحسوسة للبشر ، أن يكون لها تأثير كبير على سلوك النظام. كانت هذه المشكلة مشكلة معروفة منذ حوالي 10 سنوات ، ولكن يبدو أنه لا يوجد حل لها. هذا يمثل مشكلة كبيرة إذا أخذنا في الاعتبار الأنظمة التي تسعى إلى تحقيق هدف ما ومحاولة تحسين فهمهم لهذا الهدف. لأنه اعتمادًا على فهمهم للهدف ، يمكن أن تكون النتيجة المثلى مختلفة تمامًا عما نتخيله أو نعتزمه. ومن الصعب تحديد التقييمات التي نقوم بها الآن.
آخر هو عدم فهمنا لكيفية عمل هذه الأنظمة. نريد حقًا أن نكون قادرين على فهم كيفية عمل هذه الأنظمة ، فهي واحدة من أفضل الطرق التي يمكننا من خلالها التنبؤ بسلوكها. نريد أن نتأكد من أنهم لا يتصرفون بطرق غير متوقعة وخطيرة في المواقف الجديدة. هذا مرتبط بقضية المتانة.
** 05 هل انقراض الإنسان بعيد؟ **
** أخبار تينسنت "بيريسكوب": بالنظر إليها الآن ، هل البشر بعيدون عن الانقراض؟ كم سنة من المتوقع أن تكون؟ **
ديفيد كروجر: ظل جيفري هينتون يقول إن الأمر سيستغرق 20 عامًا أو أقل للحصول على ذكاء عام اصطناعي (AGI) ، وهو إطار زمني معقول. هذا مشابه تمامًا لوجهة نظري.
أعتقد أن البشر قد ينقرضون بعد ذلك بوقت قصير ، لكن قد يستغرق الأمر وقتًا أطول ، وأعتقد أن هذا ما أحاول التأكيد عليه ، حتى لو كان على بعد عقود ، نحتاج إلى البدء في معالجة ذلك في أقرب وقت ممكن.
العودة مرة أخرى إلى قياس تغير المناخ. لقد استغرق الأمر منا عقودًا حتى نبدأ بالفعل في اتخاذ إجراءات فعالة ، وما زال يتم بذل جهود غير كافية لمنع العواقب الوخيمة لتغير المناخ. هذا لأنها مشكلة تنسيق عالمية معقدة. سيواجه الذكاء الاصطناعي موقفًا مشابهًا. يجب أن نبدأ في أقرب وقت ممكن.
** أخبار Tencent "Periscope": هل يمكن لنموذج لغة كبير أن يجلب الذكاء الاصطناعي العام؟ **
ديفيد كروجر: يسأل الكثير من الناس هذا السؤال الآن. وجهة نظري أكثر تعقيدًا. قد أقول إن هذا ممكن ، لكن من المرجح أنه سيحتاج إلى أن يتم دمجه مع تقنيات أخرى ، وربما حتى بعض التقنيات الجديدة سوف تحتاج إلى التطوير.
** أخبار تينسنت "بيريسكوب": كيف تنظرون إلى العلاقة بين الإنسان والذكاء الاصطناعي؟ هل سيكون البشر انتقالًا ذكيًا؟ **
ديفيد كروجر: الوقت وحده كفيل بإثبات. لا اتمنى. لكن الآن ، هذا سؤال لا يزال لدينا بعض المبادرة والقدرة على توجيه وتحديد كيفية تطور المستقبل. إذا تمكنا من التصرف بطريقة ذكية ومنسقة ، وإذا حالفنا الحظ ، فسيكون الأمر متروكًا لنا كبشر لتقرير ما إذا كان الذكاء الاصطناعي سيتولى المسؤولية في مرحلة ما.
** أخبار تينسنت "بيريسكوب": لدى هينتون وجهة نظر شيقة للغاية. قال: اليرقات تستخرج العناصر الغذائية ثم تتحول إلى فراشات ، وقد استخرج الناس بلايين من المغذيات المعرفية .. GPT-4 هي الفراشة البشرية. هل توافق على وجهة النظر هذه؟ **
ديفيد كروجر: شاعرية للغاية ، ولا أعتقد أنها دقيقة تمامًا ، ولكن ربما تتطرق إلى بعض الحقائق الأساسية التي مفادها أن نظام الذكاء الاصطناعي لا يحتاج بالضرورة إلى تعلم كل شيء بالطريقة الصعبة من الصفر. يحتاج البشر إلى الخوض في تطور طويل للوصول إلى مستوى الذكاء البشري ، ولكن الآن أنتج البشر كل هذه المنتجات الثقافية ، بما في ذلك جميع النصوص على الإنترنت ، وهو أمر ملهم جدًا لأنظمة الذكاء الاصطناعي. على هذا النحو ، لا يحتاجون بالضرورة إلى متابعة تطورهم بالكامل مرة أخرى لتحقيق مستوى مماثل من الذكاء.
** أخبار تينسنت "بيريسكوب": هل هذه هي المرة الأولى لك في الصين؟ ما هو انطباعك عن القدوم إلى الصين؟ هل لديكم أي اقتراحات لتطوير الذكاء الاصطناعي والنماذج واسعة النطاق في الصين؟ **
ديفيد كروجر: هذه هي المرة الأولى لي في الصين. لقد وصلت للتو صباح أمس. كانت الزيارة بأكملها عبارة عن لقاء والتحدث مع الناس ، وكان الناس ودودين ولدي تجربة جيدة هنا. لكني لا أشعر أنني اختبرت الصين حقًا. أنا فقط ألتقي بالباحثين ، ولسوء الحظ ستكون رحلة قصيرة بالنسبة لي ، لكنني آمل أن ألقي نظرة فاحصة على بكين على الأقل في آخر يوم لي قبل المغادرة.
(نصيحة للصين) أعتقد أنه من المهم التفكير وفهم الأمن والمواءمة. من خلال المحادثات التي أجريتها ، من الواضح أن الناس يعملون بالفعل على هذا ، على الأقل إلى حد ما.
** أخبار Tencent "Periscope": ظهرت مشاهد كثيرة في فيلم "Her" تدريجياً في عالمنا الحقيقي. هل لدى البشر عواطف للذكاء الاصطناعي؟ هل تشعر بارتباط عاطفي بنموذج الذكاء الاصطناعي الذي تطوره؟ **
ديفيد كروجر: ليس لدي واحد ، لكن على حد علمي ، بعض الناس يمتلكون.
توجد روبوتات محادثة مماثلة لصديقة الذكاء الاصطناعي ، وأصبح شخص ما يعتمد عاطفيًا على العلاقة. هذه نتيجة محزنة لهذه التكنولوجيا.
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
حوار مع البادئ بـ "بيان مخاطر الذكاء الاصطناعي": المحركات البخارية لن تجعل البشر ينقرضون ، لكن الذكاء الاصطناعي سوف ينقرض!
هذا المقال من بكين بقلم Zhang Xiaojun ، مؤلف Tencent News "Periscope".
قبل نصف شهر ، وقع المئات من كبار شخصيات الذكاء الاصطناعي ، بما في ذلك الرئيس التنفيذي لشركة OpenAI Sam Altman والحائز على جائزة Turing Geoffrey Hinton ، بيانًا قصيرًا حول تهديد الذكاء الاصطناعي للانقراض البشري.
يحتوي هذا البيان على جملة واحدة فقط - "يجب أن يصبح التخفيف من مخاطر انقراض الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".
كان ديفيد كروجر ، الأستاذ المساعد لأبحاث الذكاء الاصطناعي بجامعة كامبريدج ، أحد المبادرين الأصليين للرسالة وهو أيضًا أحد الموقعين.
في 9 يونيو ، أجرى كروجر حوارًا معمقًا مع Tencent News "Periscope" أثناء حضوره مؤتمر بكين Zhiyuan 2023. لطالما كان قلقًا بشأن محاذاة الذكاء الاصطناعي وقضايا الأمن.منذ عام 2012 ، كان قلقًا بشأن المخاطر المحتملة للذكاء الاصطناعي للانقراض البشري ، وهو ما يطلق عليه المجال "X-Risk" (خطر وجودي).
استجابةً لمخاطر الذكاء الاصطناعي ، عارض أحد الآراء أن هذا القلق الشديد قد يكون مشابهًا للذعر المفرط للبشر عندما ظهر المحرك البخاري قبل مئات السنين. لكن كروجر قال إن الاختلاف الأكبر بين الاثنين هو أن المحرك البخاري لن يجعل البشر ينقرضون ، لكن الذكاء الاصطناعي سوف ينقرض.
يعتقد كروجر أن الذكاء الاصطناعي أكثر ذكاءً من البشر ، والمنافسة غير المنظمة ، وبناء أنظمة الذكاء الاصطناعي التي لها تأثير مباشر أكثر على العالم - هذه العوامل الثلاثة ستزيد بشكل كبير من عامل الخطر لخروج أنظمة الذكاء الاصطناعي عن السيطرة. قال: "كلما كان النظام أكثر انفتاحًا ، كلما كان أكثر استقلالية ، وأكثر ذكاءً ، وكلما كان مصممًا لتحقيق أهداف طويلة الأجل ، زاد خطر خروج النظام عن السيطرة".
وفي رأيه أن قضية أمن الذكاء الاصطناعي مثل قضية تغير المناخ العالمي ، فجميع الأطراف لها مصالحها الخاصة ، وستكون هناك العديد من الصراعات والخلافات ، مما يجعلها في نهاية المطاف قضية تنسيق عالمية معقدة. لذلك ، من الضروري البدء في أسرع وقت ممكن ومن خلال جهود جميع الأطراف ، حتى لا يتحول البشر إلى مصير الاستيلاء على الذكاء الاصطناعي.
بهذه الطريقة فقط يمكن للبشر البقاء على قيد الحياة.
فيما يلي جوهر حديث ديفيد كروجر.
** 01 الرسالة المشتركة "بيان مخاطر الذكاء الاصطناعي" عبارة عن جملة واحدة فقط ، وهي مصممة بعناية **
** أخبار Tencent "Periscope": أنت أحد الموقعين على "بيان حول مخاطر الذكاء الاصطناعي" هل يمكن أن تخبرنا كيف جاء هذا البيان؟ **
ديفيد كروجر: لقد توصلت إلى هذه الفكرة منذ أكثر من عام ، لأن الناس قلقون أكثر فأكثر بشأن مخاطر الذكاء الاصطناعي ، لا سيما خطر أن يتسبب الذكاء الاصطناعي في انقراض البشر. في الوقت نفسه ، لا يناقش الكثير من الناس هذه القضية علانية.
أحد الأسباب الكبيرة هو التاريخ ، حيث كانت الفكرة تعتبر ذات يوم فكرة هامشية ويخشى الناس من أن مناقشتها علنًا ستؤثر سلبًا عليهم ، أو حتى على آفاق حياتهم المهنية.
قبل بضعة أشهر ، حان الوقت المناسب. منذ إصدار ChatGPT و GPT-4 ، وصل اهتمام الناس بالذكاء الاصطناعي إلى مستويات غير مسبوقة. لفترة طويلة ، كان من المسلم به أن هذا قد يكون قضية افتراضية في المستقبل ، ولكن من السابق لأوانه معرفة ذلك.
بالنسبة لكيفية ظهور هذا البيان ، فقد تواصلت مع عدد من الزملاء ، بمن فيهم دان هندريكس ، مدير مركز أمان الذكاء الاصطناعي. أخبرته أنه يجب علينا الإدلاء بمثل هذا البيان ، وأعتزم القيام بذلك في أقرب وقت ممكن. لكنني لست متأكدًا من أنني جيد بما يكفي للقيام بذلك. إنه أمر عاجل. لذلك ، أخذ دان الموضوع وضغط من أجل الإعلان.
** أخبار Tencent "Periscope": ما هي تعليقاتك على صياغة هذه الرسالة؟ **
ديفيد كروجر: أقترح استخدام جملة واحدة فقط. هناك عدة أسباب.
أولاً ، عندما يكون لديك بيان طويل ، فهناك فرصة جيدة أن يختلف شخص ما مع بعضها.
رأينا قبل بضعة أشهر أن معهد Future of Life قد أصدر دعوة لوقف فوري لجميع مختبرات الذكاء الاصطناعي التي تدرب على أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 لمدة 6 أشهر على الأقل. رد فعل الكثير من الناس على هذا يبدو رائعًا ، لكنني لا أعتقد أنه يمكننا إيقاف تطوير الذكاء الاصطناعي مؤقتًا.
بالطبع لقد أدلوا بهذا البيان وما زال صالحًا لأنه بمجرد أن يقول الناس أننا لا نستطيع التوقف مؤقتًا ، فهذه علامة على أننا بحاجة إلى التصرف. نحتاج حقًا إلى القدرة على تعليق تقنية خطيرة جدًا بحيث يتعذر تطويرها.
أستخدم هذا المثال لتوضيح أنه كلما تحدثت أكثر ، زاد اختلاف الناس. في هذه الحالة ، لم نذكر كيفية التعامل مع هذا الخطر ، لأن الناس لديهم آراء مختلفة حول الطريقة الصحيحة ؛ ولم نذكر أيضًا لماذا قد يؤدي ذلك إلى الانقراض البشري ، لأن الأشخاص المختلفين لديهم آراء مختلفة حول هذا - بعض الناس أكثر قلقًا بشأن التكنولوجيا. إساءة استخدامها ، والبعض الآخر أكثر قلقًا من خروج التكنولوجيا عن السيطرة ، وهذا ليس نتيجة مقصودة لممثل ضار.
في كلتا الحالتين ، طالما أن الكثير من الناس يتفقون على أن هذه مخاطرة كبيرة وعلينا التصرف ، فلا بأس بذلك.
** 02 تختلف مخاطر الذكاء الاصطناعي بشكل أساسي عن مخاطر المحركات البخارية **
** أخبار تينسنت "بيريسكوب": ما هو الفرق الأكبر بين مخاوف الناس من خطر الذكاء الاصطناعي وخوف الناس من المحركات البخارية قبل مائتي أو ثلاثمائة عام؟ **
ديفيد كروجر: لا أعرف الكثير عن هذا التاريخ. لست متأكدًا مما إذا كان أي شخص قد قال إن ذلك سيؤدي إلى انقراض البشرية في ذلك الوقت. إذا قال أحدهم ذلك ، فأنا أيضًا لست متأكدًا من نوع الحجج التي سيستخدمونها ، يبدو من غير المحتمل بالنسبة لي.
الاختلاف الرئيسي هو أننا نتحدث عن الانقراض. نحن نتحدث عن تقنية يحتمل أن تكون أكثر ذكاءً وقوة من البشر في كل القدرات ذات الصلة.
يسمح لنا المحرك البخاري بتكوين قوى جسدية أقوى وأسرع من البشر. لكن المحرك البخاري ليس ذكيًا ويسهل التحكم فيه نسبيًا. حتى لو خرج المرء عن نطاق السيطرة ، فإن أسوأ سيناريو هو أنه يتعطل وقد يموت أو يصاب من حوله. ولكن إذا خرج نظام ذكي أو نظام استنساخ ذاتي عن السيطرة ، يمكن أن يموت الكثير من الناس لأنه يمكن أن ينمو ويكتسب المزيد من القوة ، وهذا هو الفرق الرئيسي.
** أخبار Tencent "Periscope": يعتقد بعض الناس أن التصريحات العامة لا يمكن إلا أن توقف الأشخاص الطيبين ، وتحاول جعل الأشخاص الطيبين ينتبهون أكثر للقضايا الأمنية ويبطئون سرعة البحث والتطوير ، لكنهم لا يستطيعون إيقاف تصرفات الأشخاص السيئين . كيف نمنع الأشرار؟ **
ديفيد كروجر: تنظيم السلوك من خلال التنظيم والتعاون الدولي.
أنا لا أحب الحديث عن ذلك من منظور "الأخيار" و "الأشرار" لأن الجميع يعتقد دائمًا أنهم رجال طيبون. الخطر الرئيسي الذي يقلقني ليس التلاعب الخبيث بأنظمة الذكاء الاصطناعي من قبل شخص سيء أو فاعل خبيث ، ولكن شيء مثل تغير المناخ - قد يكسب الأفراد المزيد من حرق المزيد من الوقود الأحفوري أو صنع أنظمة أكثر قوة يصعب التحكم فيها. هناك العديد الفوائد ، لكن كل منها يتحمل بعض التكلفة. في حالة تغير المناخ ، يمكن أن يتسبب ذلك في الإضرار بالبيئة. في حالة الذكاء الاصطناعي ، يكمن الخطر في أن النظام يخرج عن نطاق السيطرة ويؤدي إلى كارثة.
هذا هو أكثر من سؤال تحفيزي. في الواقع ، يهتم البشر بأنفسهم وأصدقائهم وأحبائهم ومجتمعهم أكثر من شخص غريب على الجانب الآخر من العالم. لذلك ، لا توجد نوايا خبيثة مطلوبة ، فقط الغرائز الأنانية. لهذا السبب هناك حاجة إلى التنظيم ، فهو السبيل لحل هذه الأنواع من المشاكل ذات الاهتمام البشري المشترك.
** 03 عمل محاذاة الذكاء الاصطناعي به الكثير من الألغاز التي لم يتم حلها **
** أخبار Tencent "Periscope": اهتماماتك البحثية هي التعلم العميق ومواءمة الذكاء الاصطناعي والأمن. هل يمكنك شرح ما هو التوافق في لغة يمكن للناس العاديين فهمها؟ قلت إن "المحاذاة ستكون أحد المحركات الرئيسية لتطوير الذكاء الاصطناعي" ، ما سبب أهميتها؟ **
ديفيد كروجر: أود أن أقول إن الناس لديهم ثلاثة تفسيرات مختلفة لهذا. الأول هو جعل أنظمة الذكاء الاصطناعي تعمل بناءً على إرادتنا. لكنني لا أعتقد أن هذا تعريف جيد ، فهو واسع جدًا وكل مهندس يحاول جعل نظام الذكاء الاصطناعي يتصرف كما يريد.
هناك أيضًا تعريف أكثر تحديدًا ، وهو "المحاذاة حسب النية". في رأيي ، هذا هو التعريف الصحيح ويشير إلى جعل النظام يحاول أن يفعل ما نريده أن يفعله. عند تصميم نظام ما ، فأنت تريد أن يكون لديه النوايا والدوافع والأهداف الصحيحة. قد لا يزال غير قادر على التصرف كما يحلو لك ، لأنه قد لا يكون قادرًا أو ذكيًا بما يكفي لمعرفة كيفية تنفيذ رغباتك. ولكن إذا كانت النية صحيحة ، فيمكنك القول إنها متوائمة.
المعنى النهائي للناس للمواءمة هو أي جهد تكنولوجي للحد من خطر الانقراض البشري. في بعض الأحيان ، يشير أيضًا إلى مجتمع الأشخاص مثلي المتخصصين في مجال المواءمة والأمن. هذا ليس تعريفي المفضل أيضًا. هذه مجرد فكرة واحدة لدى الناس حول كيفية حل هذه المشكلة. في نهاية المطاف ، على الرغم من ذلك ، هناك حاجة إلى مزيد من العمل بشأن الحوكمة والتنظيم والتعاون الدولي ، مثل إبرام المعاهدات ، وهو أمر ضروري للتخفيف من هذه المخاطر.
** أخبار Tencent "Periscope": ما هو التقدم الجديد الذي حققته شركات التكنولوجيا ومؤسسات البحث العلمي في تكنولوجيا المحاذاة مؤخرًا؟ ما هي أكثر التحديات والمشكلات إلحاحًا التي تواجهك؟ **
ديفيد كروجر: أهم شيء هو ضبط تقنيات نماذج اللغات الكبيرة ، لقد قاموا بالكثير من العمل لتغيير سلوك النموذج. على سبيل المثال ، يتمثل الاختلاف بين GPT-3 و GPT-4 في أن النظام مصمم للعمل بشكل أكبر وفقًا لنية المصمم. بشكل أساسي من خلال التعلم المعزز وردود الفعل البشرية ، على الرغم من أن التفاصيل ليست عامة. نجح هذا في الغالب ، لكنه لم يقضي تمامًا على مشاكل هذه النماذج.
أشعر بالقلق من أن هذه التقنية قد لا تكون كافية لأنظمة أكثر قوة ، لأن التغييرات التي تجريها على السلوك قد تكون سطحية نسبيًا. يمكن أن تصبح هذه المشكلة أكثر خطورة عندما يصبح النظام أكثر قوة.
يشبه إلى حد ما تشبيه تدريب الحيوانات ، مثل تدريب كلب على عدم ارتداء الأثاث. ربما يكون هذا جيدًا حقًا عندما تكون هناك ، لكن إذا غادرت الغرفة ، فستظل تلتقط الأثاث. قد تحدث مواقف مماثلة في هذه النماذج. قد يبدو أنهم منحازون ، لكن لا يزال بإمكانهم إساءة التصرف إذا اعتقدوا أننا لن نلاحظ سوء سلوكهم.
** أخبار Tencent "Periscope": عندما يكون الذكاء الاصطناعي أكثر ذكاءً من البشر ، كيف يمكن للبشر إكمال عمل المحاذاة على جسم فائق الذكاء؟ **
ديفيد كروجر: هذا سؤال بحث مفتوح. لذلك ، من المهم إجراء بحث حول محاذاة الذكاء الاصطناعي من أجل العثور على إجابة لهذا السؤال.
** أخبار Tencent "Periscope": كيف يمكننا أن نجعل الذكاء الاصطناعي يحب البشر بدلاً من إيذائهم من خلال المحاذاة؟ **
ديفيد كروجر: هذا هو نفس السؤال السابق. أتمنى لو كان لدي إجابة ، لكن لا أعرف بعد.
** 04 يمكن لهذه الحوافز الثلاثة الرئيسية أن تزيد من خطر خروج الذكاء الاصطناعي عن السيطرة **
** أخبار Tencent "Periscope": برأيك ، في أي نقطة في تاريخ الذكاء الاصطناعي هذه النقطة الزمنية؟ **
ديفيد كروجر: لقد وصلنا إلى نقطة حيث يستيقظ العالم على المخاطر. لقد كنت أنتظر هذه اللحظة لفترة طويلة.
** أخبار Tencent "Periscope": منذ أن استمعت إلى دورة التعلم العميق التي يدرسها جيفري هينتون قبل عشر سنوات ، كنت قلقًا من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر. لماذا بدأت في القلق في مثل هذه المرحلة المبكرة؟ **
ديفيد كروجر: كنت قلقة من حيث المبدأ أن هذا سيحدث في مرحلة ما لأنه سيكون يومًا ما أذكى من البشر ، لكن عندما رأيت فصل هينتون ، تغيرت مخاوفي. التعلم العميق لديه القدرة على إنتاج ذكاء حقيقي أكثر من أي طريقة أخرى سمعتها من قبل.
** أخبار Tencent "Periscope": ما هي الظروف التي يخرج فيها نظام الذكاء الاصطناعي عن السيطرة؟ **
ديفيد كروجر: أولاً ، إذا كانوا أكثر ذكاءً منا ، فإنك تبدأ في القلق بشأن الوقت الذي يخرجون فيه عن السيطرة في التفاصيل ، لكن من الصعب التنبؤ بالضبط كيف سيحدث ذلك.
العامل الثاني الذي يزيد المخاطر هو أن هناك الكثير من المنافسة لتطوير ونشر أنظمة ذكاء اصطناعي قوية في أسرع وقت ممكن. نرى حاليًا وجود هذه المنافسة بين Google و Microsoft. هناك أيضًا مخاوف بشأن المنافسة الدولية ، والتي يمكن أن تكون اقتصادية أو جيوسياسية أو عسكرية.
العامل الثالث هو إذا كنت تبني أنظمة ذكاء اصطناعي لها تأثير مباشر على العالم. الأنظمة التي نراها حتى الآن هي مجرد نماذج لغوية ، تقوم فقط بإنشاء نصوص. ولكن هناك أيضًا الكثير من الأشخاص الذين يتطلعون إلى دمجها مع أنظمة أخرى ، مثل استخدامها لكتابة التعليمات البرمجية ، واستخدامها للتحكم في أشياء مختلفة ، سواء كانت متصلة بالإنترنت أو استخدامها للتحكم في الأشياء في العالم الحقيقي. إن منح هذه الأنظمة مزيدًا من التحكم والاستقلالية يزيد من المخاطر.
بمقارنة ذلك مرة أخرى بالأنظمة التي لدينا اليوم ، والتي تم تدريبها في الغالب فقط على التنبؤ بالنص ، فهذه طريقة آمنة نسبيًا لبناء الأنظمة - مقارنة بمطالبة النظام بتحقيق هدف في بيئة معينة ، خاصةً بالمقارنة مع النظام في و هذا أكثر أمانًا من تحقيق الأهداف في بيئة يتفاعل فيها العالم الحقيقي ، العالم المادي ، بشكل متكرر. عندما تحاول الأنظمة تحقيق أهداف في العالم الحقيقي ، فقد تحاول بشكل طبيعي الحصول على المزيد من الموارد والقوة ، لأنها مفيدة في تحقيق الأهداف طويلة المدى.
وبالتالي ، كلما كان النظام أكثر انفتاحًا واستقلالية وذكاءًا ، وكلما زاد تصميمه لتحقيق أهداف طويلة الأجل ، زاد خطر خروج النظام عن السيطرة.
** Tencent News "Periscope": إذا كنت تعتقد أنه يجب صياغة إطار عمل للتعاون العالمي لضمان اتباع البلدان للمبادئ والمعايير المشتركة في تطوير الذكاء الاصطناعي ، فماذا يجب أن تكون هذه المبادئ والمعايير المحددة؟ **
ديفيد كروجر: نحن في حاجة ماسة للقيام بذلك ، وعلينا أن نبدأ في القيام بذلك بشكل عاجل. لأنه سيكون صعبا وسيتطلب الكثير من المناقشات والمفاوضات لوجود العديد من الصراعات والاختلافات بين الدول المختلفة.
بالنسبة إلى التفاصيل ، هذا شيء ما زلت أفكر فيه. نريد أن نتأكد من أن لدينا هيئة حاكمة أو نظام حوكمة شرعي للغاية يمكنه الضغط من أجل وقف اختياري إذا شعرنا في وقت ما في المستقبل بالحاجة إلى القيام بذلك. هذا جزء مهم منه.
تزداد الأمور تعقيدًا عندما يتعلق الأمر بالأنظمة التي نطورها وننشرها. نود أن يكون لدينا بعض آليات الاختبار والتقييم والتدقيق. قد نحتاج أيضًا إلى التفكير في شكل من أشكال الترخيص ، ولكن هناك الكثير من التفاصيل للعمل بها. في الوقت الحالي ، ليس لدي سيناريو كامل في رأسي. لهذا السبب آمل أن نتمكن من إلهام المزيد من الأشخاص في صنع السياسات ، من ذوي الخبرة في السياسة والعلاقات الدولية ، للتفكير في الأمر.
** أخبار Tencent "Periscope": في نظام الذكاء الاصطناعي الحالي ، ما هي الجوانب التي تحتاج إلى تحسين في أسرع وقت ممكن للتعامل مع المخاطر والتهديدات المحتملة؟ **
ديفيد كروجر: الأول هو المتانة (ملاحظة: القوة تشير إلى قدرة النظام على البقاء في المواقف غير الطبيعية والخطيرة). تعاني أنظمتنا الحالية من مشاكل كبيرة تتعلق بالقوة ، وأبرزها مشكلة المتانة العدائية ، حيث يمكن للتغييرات الصغيرة في أحد المدخلات ، حتى غير المحسوسة للبشر ، أن يكون لها تأثير كبير على سلوك النظام. كانت هذه المشكلة مشكلة معروفة منذ حوالي 10 سنوات ، ولكن يبدو أنه لا يوجد حل لها. هذا يمثل مشكلة كبيرة إذا أخذنا في الاعتبار الأنظمة التي تسعى إلى تحقيق هدف ما ومحاولة تحسين فهمهم لهذا الهدف. لأنه اعتمادًا على فهمهم للهدف ، يمكن أن تكون النتيجة المثلى مختلفة تمامًا عما نتخيله أو نعتزمه. ومن الصعب تحديد التقييمات التي نقوم بها الآن.
آخر هو عدم فهمنا لكيفية عمل هذه الأنظمة. نريد حقًا أن نكون قادرين على فهم كيفية عمل هذه الأنظمة ، فهي واحدة من أفضل الطرق التي يمكننا من خلالها التنبؤ بسلوكها. نريد أن نتأكد من أنهم لا يتصرفون بطرق غير متوقعة وخطيرة في المواقف الجديدة. هذا مرتبط بقضية المتانة.
** 05 هل انقراض الإنسان بعيد؟ **
** أخبار تينسنت "بيريسكوب": بالنظر إليها الآن ، هل البشر بعيدون عن الانقراض؟ كم سنة من المتوقع أن تكون؟ **
ديفيد كروجر: ظل جيفري هينتون يقول إن الأمر سيستغرق 20 عامًا أو أقل للحصول على ذكاء عام اصطناعي (AGI) ، وهو إطار زمني معقول. هذا مشابه تمامًا لوجهة نظري.
أعتقد أن البشر قد ينقرضون بعد ذلك بوقت قصير ، لكن قد يستغرق الأمر وقتًا أطول ، وأعتقد أن هذا ما أحاول التأكيد عليه ، حتى لو كان على بعد عقود ، نحتاج إلى البدء في معالجة ذلك في أقرب وقت ممكن.
العودة مرة أخرى إلى قياس تغير المناخ. لقد استغرق الأمر منا عقودًا حتى نبدأ بالفعل في اتخاذ إجراءات فعالة ، وما زال يتم بذل جهود غير كافية لمنع العواقب الوخيمة لتغير المناخ. هذا لأنها مشكلة تنسيق عالمية معقدة. سيواجه الذكاء الاصطناعي موقفًا مشابهًا. يجب أن نبدأ في أقرب وقت ممكن.
** أخبار Tencent "Periscope": هل يمكن لنموذج لغة كبير أن يجلب الذكاء الاصطناعي العام؟ **
ديفيد كروجر: يسأل الكثير من الناس هذا السؤال الآن. وجهة نظري أكثر تعقيدًا. قد أقول إن هذا ممكن ، لكن من المرجح أنه سيحتاج إلى أن يتم دمجه مع تقنيات أخرى ، وربما حتى بعض التقنيات الجديدة سوف تحتاج إلى التطوير.
** أخبار تينسنت "بيريسكوب": كيف تنظرون إلى العلاقة بين الإنسان والذكاء الاصطناعي؟ هل سيكون البشر انتقالًا ذكيًا؟ **
ديفيد كروجر: الوقت وحده كفيل بإثبات. لا اتمنى. لكن الآن ، هذا سؤال لا يزال لدينا بعض المبادرة والقدرة على توجيه وتحديد كيفية تطور المستقبل. إذا تمكنا من التصرف بطريقة ذكية ومنسقة ، وإذا حالفنا الحظ ، فسيكون الأمر متروكًا لنا كبشر لتقرير ما إذا كان الذكاء الاصطناعي سيتولى المسؤولية في مرحلة ما.
** أخبار تينسنت "بيريسكوب": لدى هينتون وجهة نظر شيقة للغاية. قال: اليرقات تستخرج العناصر الغذائية ثم تتحول إلى فراشات ، وقد استخرج الناس بلايين من المغذيات المعرفية .. GPT-4 هي الفراشة البشرية. هل توافق على وجهة النظر هذه؟ **
ديفيد كروجر: شاعرية للغاية ، ولا أعتقد أنها دقيقة تمامًا ، ولكن ربما تتطرق إلى بعض الحقائق الأساسية التي مفادها أن نظام الذكاء الاصطناعي لا يحتاج بالضرورة إلى تعلم كل شيء بالطريقة الصعبة من الصفر. يحتاج البشر إلى الخوض في تطور طويل للوصول إلى مستوى الذكاء البشري ، ولكن الآن أنتج البشر كل هذه المنتجات الثقافية ، بما في ذلك جميع النصوص على الإنترنت ، وهو أمر ملهم جدًا لأنظمة الذكاء الاصطناعي. على هذا النحو ، لا يحتاجون بالضرورة إلى متابعة تطورهم بالكامل مرة أخرى لتحقيق مستوى مماثل من الذكاء.
** أخبار تينسنت "بيريسكوب": هل هذه هي المرة الأولى لك في الصين؟ ما هو انطباعك عن القدوم إلى الصين؟ هل لديكم أي اقتراحات لتطوير الذكاء الاصطناعي والنماذج واسعة النطاق في الصين؟ **
ديفيد كروجر: هذه هي المرة الأولى لي في الصين. لقد وصلت للتو صباح أمس. كانت الزيارة بأكملها عبارة عن لقاء والتحدث مع الناس ، وكان الناس ودودين ولدي تجربة جيدة هنا. لكني لا أشعر أنني اختبرت الصين حقًا. أنا فقط ألتقي بالباحثين ، ولسوء الحظ ستكون رحلة قصيرة بالنسبة لي ، لكنني آمل أن ألقي نظرة فاحصة على بكين على الأقل في آخر يوم لي قبل المغادرة.
(نصيحة للصين) أعتقد أنه من المهم التفكير وفهم الأمن والمواءمة. من خلال المحادثات التي أجريتها ، من الواضح أن الناس يعملون بالفعل على هذا ، على الأقل إلى حد ما.
** أخبار Tencent "Periscope": ظهرت مشاهد كثيرة في فيلم "Her" تدريجياً في عالمنا الحقيقي. هل لدى البشر عواطف للذكاء الاصطناعي؟ هل تشعر بارتباط عاطفي بنموذج الذكاء الاصطناعي الذي تطوره؟ **
ديفيد كروجر: ليس لدي واحد ، لكن على حد علمي ، بعض الناس يمتلكون.
توجد روبوتات محادثة مماثلة لصديقة الذكاء الاصطناعي ، وأصبح شخص ما يعتمد عاطفيًا على العلاقة. هذه نتيجة محزنة لهذه التكنولوجيا.