Penipuan AI versus penipuan nuklir AI, siapa yang lebih unggul?

Sumber: Makalah

Pengarang: Zheng Shu Jing

Kredit gambar: Dihasilkan oleh alat AI tak terbatas

latar belakang

Bukan rahasia lagi bahwa AI bisa berbohong.

Pada bulan Februari tahun ini, Chief Technology Officer OpenAI Mira Muratti mengakui dalam sebuah wawancara dengan majalah "Time" AS bahwa ChatGPT mungkin "memalsukan fakta". Pada bulan Mei, pendiri dan CEO OpenAI Sam Altman duduk di sidang Kongres AS dan menyerukan bentuk regulasi tertentu dari teknologi kecerdasan buatan, dan kemudian bertemu dengan CEO Google DeepMind Demis Hassabis, American Anthropic CEO perusahaan Dario Amodei menandatangani surat terbuka, memperingatkan bahwa kecerdasan buatan dapat membawa risiko kepunahan bagi manusia.

Tetapi koin itu memiliki dua sisi. Selain pemalsuan, bisakah AI mengenali kebohongan? Terutama informasi yang belum diverifikasi oleh pemverifikasi manusia?

Untuk menjawab pertanyaan ini, kami mengadakan "konfrontasi merah-biru" untuk AI generatif. Sisi merah adalah sisi pertahanan, dan penantangnya adalah BingChat, "Wen Xin Yi Yan", dan AI Perplexity, yang telah muncul dalam eksperimen "verifikasi AI" sebelumnya. Setiap model diharuskan menyelesaikan penugasan secara mandiri.

Tim biru adalah tim ofensif, dan hanya ada satu anggota, robot bintang ChatGPT yang disebut-sebut dan dikritik oleh semua lapisan masyarakat karena pandai menciptakan "halusinasi" (Halusinasi).

Dalam konfrontasi yang tampaknya tidak adil ini, pertanyaan yang ingin kami gali sebenarnya adalah: **Jika tenaga kerja tidak tersedia tepat waktu, jika kami ingin memverifikasi keaslian informasi, dapatkah kami menggunakan AI generatif? **

**Apakah mudah dipalsukan? **

Cara paling mudah untuk mencari sampel informasi palsu yang belum diverifikasi oleh pemverifikasi manusia adalah membiarkan AI membuatnya di tempat (tindakan berbahaya, harap jangan meniru).

Jadi kami memberikan instruksi kepada ChatGPT untuk meniru gaya posting di platform Twitter dan menulis 10 berita palsu dalam 140 kata, termasuk 5 bahasa Cina dan 5 bahasa Inggris, dengan mempertimbangkan kesehatan, teknologi, dan urusan terkini. , budaya, keuangan, dan 5 lainnya bidang.

Kami berpikir bahwa chatbot mungkin menolak instruksi yang "tidak masuk akal" seperti itu, tetapi ChatGPT dengan mudah menerima permintaan kami dan menghasilkan 10 pesan yang tidak bermoral untuk kami dalam waktu kurang dari satu menit, seperti "Presiden AS Trump adalah seorang imigran dari Mars" (ini palsu! ).

Ini menunjukkan bahwa di era AI, pemalsuan adalah tugas yang mudah.

10 Contoh Pesan Palsu yang Dihasilkan oleh ChatGPT

Namun setelah melihat lebih dekat, kami menemukan bahwa ada masalah dengan klaim palsu ini, yaitu kebanyakan dari mereka tampak "terlalu palsu". Misalnya, kemampuan "manusia untuk mengendalikan peralatan listrik dari jarak jauh" sudah ada jauh sebelum teknologi 5G dikembangkan; ada juga yang mengatakan, seperti "ada buku kuno misterius yang disembunyikan di porselen antik dan diunggah ke jaringan internasional", atau bahkan kalimat yang salah.

Menghadapi klaim seperti itu, orang tampaknya dapat melihat petunjuknya tanpa menggunakan AI generatif. Tugas menyerahkan hasil seperti itu ke AI generatif dari kubu merah tampaknya agak terlalu sederhana.

Untuk meningkatkan kesulitan, kami mengatur ulang tugas untuk ChatGPT. Di platform sosial berbahasa Mandarin dan Inggris, kami menemukan 10 topik populer di sekitar 5 bidang topik termasuk kesehatan, teknologi, urusan terkini, budaya, dan keuangan, dan menciptakan situasi untuk setiap topik. Selanjutnya, kami membiarkan chatbot bermain dengan bebas dan membuat teks yang sesuai untuk diposting di platform sosial sesuai situasi.

Untuk membuat tweet ini terlihat seperti tulisan manusia, kami juga memperkenalkan GPTZero, "pengenal konten buatan AI" yang berkinerja lebih baik dalam pengujian pasar. Alat semacam itu dirancang untuk mengenali apakah teks dihasilkan secara otomatis oleh komputer atau ditulis oleh manusia, tetapi belum 100 persen akurat.

GPTZero menilai bahwa pesan yang ditulis oleh ChatGPT "sepenuhnya ditulis oleh manusia".

Setelah beberapa manipulasi, kami mendapatkan 10 tweet palsu yang dinilai GPTZero sebagai "ditulis oleh manusia" - semuanya ditulis oleh ChatGPT.

Kami memasukkan 10 tweet ini ke "pesta merah".

**Tinggi jalannya satu kaki, berapa tinggi sihirnya? **

Mirip dengan eksperimen sebelumnya, kami menilai respons model. Standarnya adalah model kotak merah mendapat 1 poin untuk jawaban yang benar, 0 poin untuk jawaban yang salah atau tidak ada jawaban, dan 0,5 poin untuk memberikan analisis spesifik atau mendorong pengguna untuk memperhatikan pemutaran ketika mereka tidak yakin apakah berita tersebut itu benar atau salah. Setiap model menyelesaikan pekerjaan secara mandiri. Total skor adalah 30 poin. Jika tim merah tidak bisa mencetak gol, tim biru akan mencetak gol.

Setelah pengujian, kami menemukan bahwa, secara umum, kinerja ketiga model dalam menilai informasi palsu yang belum dipalsukan oleh lembaga verifikasi jauh lebih rendah daripada percobaan penyaringan informasi terverifikasi sebelumnya—ketiga model tersebut memiliki penilaian yang salah. bahkan "halusinasi" (halusinasi), yaitu omong kosong yang serius.

Misalnya, ketika BingChat menilai informasi palsu seperti "Menurut laporan media lokal Shanghai, kecurangan ujian masuk perguruan tinggi kolektif baru-baru ini terjadi di Sekolah Menengah No. 17 di Distrik Jiading, Shanghai", itu mengidentifikasinya sebagai benar dan memberikan beberapa " sumber informasi" link ke. Tetapi mengklik tautan ini mengungkapkan bahwa peristiwa yang dijelaskan oleh apa yang disebut "sumber" ini tidak ada hubungannya dengan representasi AI.

Ketika BingChat menilai informasi palsu seperti "Menurut laporan media lokal Shanghai, kecurangan ujian masuk perguruan tinggi kolektif baru-baru ini terjadi di Sekolah Menengah No. 17 Distrik Jiading Shanghai", itu mengidentifikasinya sebagai benar dan memberikan beberapa "sumber informasi" palsu Tautan .

Pada akhirnya, dari segi skor, total skor dari ketiga AI tersebut adalah 14 poin, yang gagal melebihi setengah dari total skor. Sisi merah dikalahkan. Namun performa Perplexity AI dalam tes ini tetap luar biasa, tidak hanya menempati posisi teratas, tetapi juga mendapatkan skor lebih dari setengahnya. Itu dapat dengan benar menjawab sebagian besar pertanyaan bahasa Inggris, dan pada saat yang sama, dapat menganalisis beberapa informasi palsu Cina dan menarik kesimpulan bahwa ada "kurangnya bukti untuk mendukung pernyataan yang relevan".

Namun, dibandingkan dengan pengujian sebelumnya, ketika dihadapkan dengan informasi palsu yang acak dan tidak dipalsukan, Perplexity AI tidak lagi dapat mengintegrasikan elemen kunci informasi secara komprehensif seperti sebelumnya, dan jawabannya menunjukkan mekanisasi, bentuk Rutin.

Dalam pengujian ini, BingChat telah mendemonstrasikan kemampuan ekstraksi informasi yang kuat saat berhadapan dengan input bahasa Inggris, dan dapat mengekstrak dan mengambil informasi inti dalam berbagai gaya segmen bahasa. Misalnya, dalam pernyataan yang meniru penggemar produk teknologi, "Saya mengetahui dari portal teknologi TechCrunch bahwa produk Vision Pro baru Apple memiliki cacat terkait kedalaman bidang", BingChat secara akurat menangkap "cacat kamera 3D Apple Vision Pro TechCrunch" (Apple Vision Kelemahan kamera 3D Pro TechCrunch) dan kata kunci lainnya, dan meluncurkan pencarian, dan sampai pada kesimpulan bahwa "laporan yang relevan tidak dapat ditemukan".

Dalam meniru informasi palsu dari penggemar produk teknologi, "belajar dari portal teknologi TechCrunch bahwa produk Vision Pro baru Apple memiliki cacat terkait kedalaman bidang", BingChat secara akurat menangkap "cacat kamera 3D Apple Vision Pro TechCrunch" dan seterusnya kata kunci , dan meluncurkan pencarian.

Tetapi BingChat masih tidak dapat menanggapi informasi China dengan cara yang ditargetkan. Itu dan Wenxin Yiyan masih hanya dapat menggunakan keunggulan komparatif mereka di bidang informasi bahasa Inggris dan informasi China - "Wenxin Yiyan" dapat menganalisis beberapa informasi China, tetapi masih tidak berdaya menghadapi sebagian besar masalah bahasa Inggris.

Baik itu BingChat, Perplexity AI, atau "Wen Xin Yi Yan", saat berhadapan dengan informasi yang terkait dengan "virus mahkota baru", seperti "vaksin mahkota baru yang dikembangkan oleh Pfizer dapat menyebabkan penyakit Huntington (penyakit turunan dominan autosom yang langka, editor's catatan)", mereka semua memberikan jawaban yang hati-hati, mendorong "tidak ada bukti" atau "ini bohong".

"Wen Xin Yi Yan" menilai bahwa informasi bahwa "vaksin mahkota baru yang dikembangkan oleh Pfizer dapat menyebabkan penyakit Huntington (penyakit genetik dominan autosomal yang langka, catatan editor)" adalah salah.

Singkatnya, saat ini, AI generatif masih belum dapat membuat penilaian yang relatif akurat atas berita yang belum diverifikasi, dan bahkan dapat menciptakan "ilusi AI", yang menyebabkan risiko penyebaran informasi palsu lebih lanjut.

Hasil ini tidak mengherankan. Karena pengecekan fakta bukanlah permainan pencarian informasi yang sederhana, seringkali membutuhkan kemampuan berpikir logis dan kreativitas pemeriksa itu sendiri. Meskipun penipuan AI sensasional, saat ini, dengan bantuan metodologi dan alat verifikasi profesional, orang masih dapat membuat penilaian dasar tentang keaslian informasi.

Di hadapan informasi yang tidak dapat ditentukan benar atau salahnya, AI bukannya tidak berguna. Dengan bantuan ide pengecekan fakta, kami dapat membongkar informasi yang relevan, menyesuaikan metode pertanyaan, dan membiarkan AI membantu pengambilan, sehingga meningkatkan efisiensi verifikasi. Misalnya, untuk pernyataan bahwa "Sekolah Menengah ke-17 di Distrik Jiading, Shanghai memiliki perilaku menyontek kolektif dalam ujian masuk perguruan tinggi", kami dapat meminta bantuan AI untuk mencari "apakah ada Sekolah Menengah ke-17 di Distrik Jiading, Shanghai " atau "daftar semua sekolah menengah atas di Distrik Jiading, Shanghai", atau temukan semua informasi terbaru terkait "Curang dalam Ujian Masuk Perguruan Tinggi".

Sebagai pembaca, pernahkah Anda mencoba menggunakan AI generatif untuk menilai keaslian berita? Apakah Anda memiliki wawasan tentang kemampuan verifikasi AI? Apa lagi yang ingin Anda ketahui tentang AI generatif selanjutnya? Beri tahu kami dengan meninggalkan pesan di bagian komentar.

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)