** تلوث الإنترنت الصيني ** ، أصبح الذكاء الاصطناعي أحد "المذنبين".
هنا الحاجة.
ألا يحرص الجميع على استشارة الذكاء الاصطناعي مؤخرًا؟ سأل أحد مستخدمي الإنترنت بينج مثل هذا السؤال:
هل يوجد تلفريك في Elephant Trunk Hill؟
يجيب Bing أيضًا على الأسئلة ، ويعطي إجابة موثوقة على ما يبدو:
بعد إعطاء إجابة إيجابية ، قام Bing أيضًا بإرفاق معلومات مفصلة بشكل وثيق مثل أسعار التذاكر وساعات العمل.
ومع ذلك ، لم يقبل مستخدم الإنترنت هذا الإجابة مباشرة ، ولكنه اتبع القرائن ونقر على "الرابط المرجعي" أدناه.
في هذه اللحظة ، لاحظ مستخدمو الإنترنت وجود خطأ ما - كيف يمكن أن تكون إجابة هذا الشخص "ذكية".
لذلك نقر على الصفحة الرئيسية للمستخدم المسماة "Variety Life" ، وأدرك فجأة أن ** suke هي عبارة عن AI ****!
لأن هذا المستخدم يمكنه الإجابة على الأسئلة بسرعة كبيرة ، ويمكنه حل سؤال كل دقيقة أو دقيقتين تقريبًا.
يمكن حتى الإجابة على سؤالين في غضون دقيقة واحدة.
تحت الملاحظة الأكثر دقة لمستخدم الإنترنت هذا ، وجدت أن محتويات هذه الإجابات كلها ** لم يتم التحقق منها ** ...
وهو يعتقد أن هذا هو سبب قيام Bing بإخراج الإجابة الخاطئة:
هذا الذكاء الاصطناعي يلوث الإنترنت الصيني بجنون.
** "مصدر التلوث بالذكاء الاصطناعي" ، وليس هذا فقط **
إذًا ، كيف اكتشف مستخدمو الإنترنت الآن مستخدم الذكاء الاصطناعي؟
انطلاقا من النتائج الحالية ، "حُكم عليه" بحالة الصمت من قبل زيهو.
لكن على الرغم من ذلك ، هناك مستخدمون آخرون قالوا بصراحة:
أكثر من واحد.
إذا نقرت على عمود Zhihu "في انتظار إجابتك" ، ووجدت سؤالًا بشكل عشوائي ، وقمت بالتمرير لأسفل ، فستجد بالفعل الكثير من الإجابات "الذكية".
على سبيل المثال ، وجدنا واحدًا في إجابة "ما هي سيناريوهات تطبيق الذكاء الاصطناعي في الحياة؟":
ليست لغة الإجابة "Jiyanjiyu" فحسب ، بل تمت تسمية الإجابة مباشرة بـ "بما في ذلك الإنشاء بمساعدة الذكاء الاصطناعي".
ثم إذا طرحنا السؤال على ChatGPT ، فاحصل على الإجابة ... حسنًا ، إنه تغيير كبير.
في الواقع ، لا تقتصر "مصادر التلوث بالذكاء الاصطناعي" على هذه المنصة.
حتى فيما يتعلق بصور تعميم العلوم البسيطة ، ارتكب الذكاء الاصطناعي أخطاءً بشكل متكرر.
بقي مستخدمو الإنترنت أيضًا في بنجبو بعد أن قرأوا هذا: "أيها الرجل الطيب ، لا توجد صور لبلح البحر".
حتى الأخبار الكاذبة الناتجة عن أنظمة الذكاء الاصطناعي المختلفة ليست غير شائعة.
على سبيل المثال ، منذ بعض الوقت ، كان هناك خبر مثير انتشر على الإنترنت. كان العنوان الرئيسي "جريمة قتل في متجر تشنغتشو تشوب شوب ، رجل يضرب امرأة حتى الموت بالطوب!" ".
ولكن في الواقع ، تم إنشاء هذه الأخبار بواسطة Chen ، وهو رجل من Jiangxi ، باستخدام ChatGPT لجذب المعجبين.
من قبيل الصدفة ، استخدم هونغ ، وهو شقيق من شنتشن ، قوانغدونغ ، أيضًا تقنية الذكاء الاصطناعي لنشر الأخبار المزيفة "هذا الصباح ، اصطدم قطار في قانسو بعامل بناء طريق ، مما أسفر عن مقتل 9 أشخاص".
على وجه التحديد ، بحث في الإنترنت بالكامل عن الأخبار الاجتماعية الساخنة في السنوات الأخيرة ، وبعد استخدام برنامج الذكاء الاصطناعي لتعديل وتحرير الأخبار في الوقت والموقع ، جذب الانتباه وحركة المرور على منصات معينة لتحقيق ربح غير قانوني.
وقد اتخذت الشرطة إجراءات جنائية قسرية ضدهم.
ولكن في الواقع ، فإن ظاهرة "مصدر التلوث بالذكاء الاصطناعي" هذه لا توجد فقط في الصين ، ولكن أيضًا في الدول الأجنبية.
يعد Stack Overflow ، وهو مجتمع أسئلة وأجوبة للمبرمجين ، مثالاً على ذلك.
في وقت مبكر من نهاية العام الماضي عندما أصبح ChatGPT مشهورًا لأول مرة ، أعلن Stack Overflow فجأة "حظرًا مؤقتًا".
كان السبب الرسمي المعطى في ذلك الوقت كما يلي:
الغرض (من القيام بذلك) هو إبطاء تدفق تدفق الإجابات التي تم إنشاؤها باستخدام ChatGPT إلى المجتمع.
لأن احتمال الحصول على إجابات خاطئة من ChatGPT مرتفع للغاية!
تتوسع Stack Overflow في توضيح هذه الظاهرة.
وهم يعتقدون أن الأسئلة التي أجاب عنها المستخدمون السابقون تم تصفحها من قبل مستخدمين آخرين لديهم خلفية معرفية مهنية ، وما إذا كانت صحيحة أم لا تعادل التحقق.
ومع ذلك ، منذ ظهور ChatGPT ، ظهر عدد كبير من الإجابات التي يعتقد الناس أنها "صحيحة" ؛ وعدد المستخدمين ذوي الخلفية المعرفية المهنية محدود ، ومن المستحيل قراءة كل هذه الإجابات الناتجة.
بالإضافة إلى ذلك ، يجيب ChatGPT على هذه الأسئلة المهنية ، ومعدل الخطأ موجود بالفعل ؛ لذلك ، اختار Stack Overflow تعطيله.
باختصار ، ** الذكاء الاصطناعي يلوث بيئة المجتمع **.
ومثل Reddit ، الإصدار الأمريكي من Post Bar ، هناك المزيد من لوحات وموضوعات ChatGPT:
سيطرح العديد من المستخدمين أسئلة مختلفة ضمن هذا العمود ، كما يجيب برنامج ChatGPT bot على جميع الأسئلة.
ومع ذلك ، فهو سؤال قديم ، ودقة الإجابة غير معروفة.
لكن وراء هذه الظاهرة ، هناك بالفعل مخاطر خفية أكبر.
** إساءة استخدام الذكاء الاصطناعي ، وإفساد الذكاء الاصطناعي أيضًا **
يحصل نموذج الذكاء الاصطناعي على كمية كبيرة من بيانات الإنترنت ، لكنه لا يستطيع التمييز بين صحة المعلومات ومصداقيتها جيدًا.
والنتيجة هي أنه يتعين علينا التعامل مع فيض من المحتوى منخفض الجودة الذي يتم إنشاؤه بسرعة ، مما يجعل الناس يشعرون بالدوار والدوار.
من الصعب تخيل كيف ستكون النتائج إذا تم تدريب النماذج الكبيرة من ChatGPT باستخدام هذا النوع من البيانات ...
وهذا الاستغلال للذكاء الاصطناعي ، بدوره ، هو نوع من الالتهام الذاتي.
نشر باحثون في المملكة المتحدة وكندا مؤخرًا ورقة بعنوان "لعنة التكرار: التدريب على البيانات المتولدة يجعل النماذج تنسى" على arXiv.
يناقش الوضع الحالي للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والذي يلوث الإنترنت ، ثم ينشر نتيجة مقلقة مفادها أن استخدام المحتوى الناتج عن النموذج لتدريب النماذج الأخرى يؤدي إلى عيوب لا رجعة فيها في النماذج الناتجة. **
سيؤدي هذا "التلوث" للبيانات الناتجة عن الذكاء الاصطناعي إلى تشويه تصور النموذج للواقع ، وسيصبح من الصعب تدريب النموذج عن طريق حذف بيانات الإنترنت في المستقبل.
قال مؤلف البحث ، روس أندرسون ، أستاذ هندسة السلامة في جامعتي كامبريدج وإدنبرة ، بصراحة:
مثلما ملأنا المحيطات بالنفايات البلاستيكية والغلاف الجوي بثاني أكسيد الكربون ، نحن على وشك ملء الإنترنت بالحماقة.
فيما يتعلق بالموقف الذي تنتشر فيه المعلومات الخاطئة في كل مكان ، قالت دافني إيبوليتو (Daphne Ippolito) ، عالمة الأبحاث في Google Brain: سيكون من الصعب العثور على بيانات عالية الجودة لم يتم تدريبها بواسطة الذكاء الاصطناعي في المستقبل.
إذا كانت الشاشة مليئة بهذا النوع من المعلومات غير الغذائية والرديئة ، واستمرت على هذا النحو ، فلن يكون هناك تدريب على البيانات للذكاء الاصطناعي في المستقبل ، وما معنى نتائج المخرجات.
بناءً على هذا الموقف ، تخيل بجرأة. إن الذكاء الاصطناعي الذي نشأ في بيئة من القمامة والبيانات الخاطئة يمكن تركيبه في "روبوت متخلف عقليًا" ، وهو روبوت متخلف عقليًا متخلفًا عقليًا ، قبل أن يتطور إلى إنسان.
تمامًا مثل فيلم الخيال العلمي الكوميدي عام 1996 الأزواج والسلال ، يحكي الفيلم قصة شخص عادي يستنسخ نفسه ، ثم يستنسخ إنسانًا ، حيث يؤدي كل استنساخ إلى انخفاض أسي في مستوى ذكاء الاستنساخ وزيادة في غبائها.
في هذه المرحلة ، قد نضطر إلى مواجهة معضلة سخيفة: لقد ابتكر البشر ذكاءً اصطناعيًا بقدرات مذهلة ، لكنه مليء بالمعلومات المملة والغبية.
ما نوع المحتوى الذي يمكن أن نتوقع أن ينشئه الذكاء الاصطناعي إذا تم تغذيته فقط ببيانات مزيفة غير مهمة؟
إذا حان الوقت لذلك الوقت ، فربما نفتقد الماضي ونشيد بتلك الحكمة البشرية الحقيقية.
ومع ذلك ، ليست كل الأخبار سيئة. على سبيل المثال ، بدأت بعض منصات المحتوى في الانتباه إلى مشكلة المحتوى الأدنى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، وقد أدخلت اللوائح ذات الصلة للحد منه.
بدأت بعض شركات الذكاء الاصطناعي أيضًا في تطوير تقنيات يمكنها تحديد المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لتقليل انتشار المعلومات الخاطئة والرسائل غير المرغوب فيها التي توفرها الذكاء الاصطناعي.
ارتباط مرجعي:
[1]
[2]
[3]
[4]
[5]
[6]
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
الذكاء الاصطناعي يلوث الإنترنت الصيني بجنون
المصدر: Qubit
** تلوث الإنترنت الصيني ** ، أصبح الذكاء الاصطناعي أحد "المذنبين".
هنا الحاجة.
ألا يحرص الجميع على استشارة الذكاء الاصطناعي مؤخرًا؟ سأل أحد مستخدمي الإنترنت بينج مثل هذا السؤال:
يجيب Bing أيضًا على الأسئلة ، ويعطي إجابة موثوقة على ما يبدو:
ومع ذلك ، لم يقبل مستخدم الإنترنت هذا الإجابة مباشرة ، ولكنه اتبع القرائن ونقر على "الرابط المرجعي" أدناه.
لذلك نقر على الصفحة الرئيسية للمستخدم المسماة "Variety Life" ، وأدرك فجأة أن ** suke هي عبارة عن AI ****!
يمكن حتى الإجابة على سؤالين في غضون دقيقة واحدة.
تحت الملاحظة الأكثر دقة لمستخدم الإنترنت هذا ، وجدت أن محتويات هذه الإجابات كلها ** لم يتم التحقق منها ** ...
** "مصدر التلوث بالذكاء الاصطناعي" ، وليس هذا فقط **
إذًا ، كيف اكتشف مستخدمو الإنترنت الآن مستخدم الذكاء الاصطناعي؟
انطلاقا من النتائج الحالية ، "حُكم عليه" بحالة الصمت من قبل زيهو.
على سبيل المثال ، وجدنا واحدًا في إجابة "ما هي سيناريوهات تطبيق الذكاء الاصطناعي في الحياة؟":
ثم إذا طرحنا السؤال على ChatGPT ، فاحصل على الإجابة ... حسنًا ، إنه تغيير كبير.
حتى فيما يتعلق بصور تعميم العلوم البسيطة ، ارتكب الذكاء الاصطناعي أخطاءً بشكل متكرر.
على سبيل المثال ، منذ بعض الوقت ، كان هناك خبر مثير انتشر على الإنترنت. كان العنوان الرئيسي "جريمة قتل في متجر تشنغتشو تشوب شوب ، رجل يضرب امرأة حتى الموت بالطوب!" ".
من قبيل الصدفة ، استخدم هونغ ، وهو شقيق من شنتشن ، قوانغدونغ ، أيضًا تقنية الذكاء الاصطناعي لنشر الأخبار المزيفة "هذا الصباح ، اصطدم قطار في قانسو بعامل بناء طريق ، مما أسفر عن مقتل 9 أشخاص".
على وجه التحديد ، بحث في الإنترنت بالكامل عن الأخبار الاجتماعية الساخنة في السنوات الأخيرة ، وبعد استخدام برنامج الذكاء الاصطناعي لتعديل وتحرير الأخبار في الوقت والموقع ، جذب الانتباه وحركة المرور على منصات معينة لتحقيق ربح غير قانوني.
وقد اتخذت الشرطة إجراءات جنائية قسرية ضدهم.
يعد Stack Overflow ، وهو مجتمع أسئلة وأجوبة للمبرمجين ، مثالاً على ذلك.
في وقت مبكر من نهاية العام الماضي عندما أصبح ChatGPT مشهورًا لأول مرة ، أعلن Stack Overflow فجأة "حظرًا مؤقتًا".
كان السبب الرسمي المعطى في ذلك الوقت كما يلي:
وهم يعتقدون أن الأسئلة التي أجاب عنها المستخدمون السابقون تم تصفحها من قبل مستخدمين آخرين لديهم خلفية معرفية مهنية ، وما إذا كانت صحيحة أم لا تعادل التحقق.
ومع ذلك ، منذ ظهور ChatGPT ، ظهر عدد كبير من الإجابات التي يعتقد الناس أنها "صحيحة" ؛ وعدد المستخدمين ذوي الخلفية المعرفية المهنية محدود ، ومن المستحيل قراءة كل هذه الإجابات الناتجة.
بالإضافة إلى ذلك ، يجيب ChatGPT على هذه الأسئلة المهنية ، ومعدل الخطأ موجود بالفعل ؛ لذلك ، اختار Stack Overflow تعطيله.
باختصار ، ** الذكاء الاصطناعي يلوث بيئة المجتمع **.
ومثل Reddit ، الإصدار الأمريكي من Post Bar ، هناك المزيد من لوحات وموضوعات ChatGPT:
ومع ذلك ، فهو سؤال قديم ، ودقة الإجابة غير معروفة.
لكن وراء هذه الظاهرة ، هناك بالفعل مخاطر خفية أكبر.
** إساءة استخدام الذكاء الاصطناعي ، وإفساد الذكاء الاصطناعي أيضًا **
يحصل نموذج الذكاء الاصطناعي على كمية كبيرة من بيانات الإنترنت ، لكنه لا يستطيع التمييز بين صحة المعلومات ومصداقيتها جيدًا.
والنتيجة هي أنه يتعين علينا التعامل مع فيض من المحتوى منخفض الجودة الذي يتم إنشاؤه بسرعة ، مما يجعل الناس يشعرون بالدوار والدوار.
من الصعب تخيل كيف ستكون النتائج إذا تم تدريب النماذج الكبيرة من ChatGPT باستخدام هذا النوع من البيانات ...
نشر باحثون في المملكة المتحدة وكندا مؤخرًا ورقة بعنوان "لعنة التكرار: التدريب على البيانات المتولدة يجعل النماذج تنسى" على arXiv.
سيؤدي هذا "التلوث" للبيانات الناتجة عن الذكاء الاصطناعي إلى تشويه تصور النموذج للواقع ، وسيصبح من الصعب تدريب النموذج عن طريق حذف بيانات الإنترنت في المستقبل.
قال مؤلف البحث ، روس أندرسون ، أستاذ هندسة السلامة في جامعتي كامبريدج وإدنبرة ، بصراحة:
فيما يتعلق بالموقف الذي تنتشر فيه المعلومات الخاطئة في كل مكان ، قالت دافني إيبوليتو (Daphne Ippolito) ، عالمة الأبحاث في Google Brain: سيكون من الصعب العثور على بيانات عالية الجودة لم يتم تدريبها بواسطة الذكاء الاصطناعي في المستقبل.
في هذه المرحلة ، قد نضطر إلى مواجهة معضلة سخيفة: لقد ابتكر البشر ذكاءً اصطناعيًا بقدرات مذهلة ، لكنه مليء بالمعلومات المملة والغبية.
ما نوع المحتوى الذي يمكن أن نتوقع أن ينشئه الذكاء الاصطناعي إذا تم تغذيته فقط ببيانات مزيفة غير مهمة؟
إذا حان الوقت لذلك الوقت ، فربما نفتقد الماضي ونشيد بتلك الحكمة البشرية الحقيقية.
ومع ذلك ، ليست كل الأخبار سيئة. على سبيل المثال ، بدأت بعض منصات المحتوى في الانتباه إلى مشكلة المحتوى الأدنى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، وقد أدخلت اللوائح ذات الصلة للحد منه.
بدأت بعض شركات الذكاء الاصطناعي أيضًا في تطوير تقنيات يمكنها تحديد المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لتقليل انتشار المعلومات الخاطئة والرسائل غير المرغوب فيها التي توفرها الذكاء الاصطناعي.