"Yapay Zeka Risk Bildirimi"ni başlatan kişiyle diyalog: Buhar motorları insanların soyunu yok etmeyecek ama yapay zeka yapacak!

Bu makale, Tencent News "Periscope" yazarı Zhang Xiaojun tarafından Pekin'den alınmıştır.

Resim kaynağı: Unbounded AI aracı tarafından oluşturulmuştur

Altı ay önce, aralarında OpenAI CEO'su Sam Altman ve Turing Ödülü sahibi Geoffrey Hinton'un da bulunduğu yüzlerce üst düzey yapay zeka figürü, yapay zekanın insan soyunun tükenmesine yönelik tehdidi hakkında kısa bir bildiri imzaladı.

Bu açıklamada tek bir cümle var: "Yapay zekanın yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi toplumsal ölçekteki diğer risklerle birlikte küresel bir öncelik haline gelmelidir."

Cambridge Üniversitesi'nde yapay zeka araştırmalarında yardımcı doçent olan David Krueger, mektubun ilk başlatıcılarından biriydi ve aynı zamanda imza sahibi.

9 Haziran'da Krueger, 2023 Pekin Zhiyuan Konferansına katılırken Tencent News "Periscope" ile derinlemesine bir diyalog kurdu. Uzun süredir AI uyumluluğu ve güvenlik sorunlarıyla ilgileniyor.2012'den beri, endüstrinin "X-Risk" (Varoluşsal bir risk) olarak adlandırdığı, yapay zekanın insan neslinin tükenmesine yönelik potansiyel riskinden endişe duyuyor.

Yapay zekanın risklerine yanıt olarak, bir görüşe göre bu yoğun endişe, buhar makinesi yüzlerce yıl önce ortaya çıktığında insanların aşırı paniğine benzer olabilir. Ancak Krueger, ikisi arasındaki en büyük farkın, buhar motorunun insanları yok etmeyeceği, ancak yapay zekanın yok edeceği olduğunu söyledi.

Krueger, AI'nın insanlardan daha akıllı olduğuna, düzensiz rekabete ve dünya üzerinde daha doğrudan etkisi olan AI sistemleri oluşturmaya inanıyor - bu üç faktör, AI sistemlerinin kontrolden çıkma risk faktörünü büyük ölçüde artıracaktır. "Sistem ne kadar açıksa, o kadar otonom, o kadar akıllı ve uzun vadeli hedeflere ulaşmak için ne kadar çok tasarlanırsa, sistemin kontrolden çıkma riski o kadar artar" dedi.

Ona göre yapay zekanın güvenlik konusu, küresel iklim değişikliği sorunu gibidir.Tüm tarafların kendi çıkarları vardır ve sonunda onu karmaşık bir küresel koordinasyon sorunu haline getiren birçok çatışma ve farklılık olacaktır. Bu nedenle, insanoğlunun yapay zeka tarafından ele geçirilme kaderine indirgenmemesi için bir an önce ve tüm tarafların çabalarıyla başlamak gerekiyor.

İnsanoğlu ancak bu şekilde hayatta kalabilir.

David Krueger

Aşağıda, David Krueger'in konuşmasının özü yer almaktadır.

01 "AI Risk Beyanı" ortak yazısı sadece bir cümledir, özenle tasarlanmıştır

**Tencent News "Periscope": "Yapay Zeka Riski Bildirgesi"nin imzacılarından birisiniz. Bu açıklamanın nasıl ortaya çıktığını anlatır mısınız? **

David Krueger: Bu fikir bir yılı aşkın bir süre önce ortaya çıktı, çünkü insanlar yapay zekanın riskleri, özellikle de yapay zekanın insan soyunun tükenmesine neden olma riski konusunda giderek daha fazla endişe duyuyorlar. Aynı zamanda, birçok kişi bu konuyu açıkça tartışmıyor.

Bunun en büyük nedenlerinden biri, fikrin bir zamanlar uç bir fikir olarak görüldüğü ve insanların bunu alenen tartışmanın kendilerini ve hatta kariyer beklentilerini olumsuz etkileyeceğinden korktukları tarihtir.

Birkaç ay önce güzel bir zaman geldi. ChatGPT ve GPT-4'ün piyasaya sürülmesinden bu yana, insanların yapay zekaya olan ilgisi benzeri görülmemiş seviyelere ulaştı. Uzun bir süre bunun varsayımsal bir gelecek sorunu olabileceği kabul edildi, ancak bunu söylemek için henüz çok erken.

Bu açıklamanın nasıl ortaya çıktığına gelince, aralarında Yapay Zeka Güvenliği Merkezi direktörü Dan Hendrycks'in de bulunduğu birkaç meslektaşıma ulaştım. Kendisine böyle bir açıklama yapmamız gerektiğini ve bir an önce yapmaya niyetli olduğumu söyledim. Ama bunu yapacak kadar iyi olduğumdan emin değilim. Bu acele. Dan konuyu ele aldı ve duyuru için bastırdı.

**Tencent News "Periscope": Bu mektubun üslubu hakkında ne gibi yorumlarınız var? **

David Krueger: Sadece bir cümle kullanmayı öneriyorum. Birkaç sebep var.

İlk olarak, uzun bir ifadeniz olduğunda, birisinin bunun bir kısmına katılmama ihtimali yüksektir.

Birkaç ay önce, Future of Life Enstitüsü'nün, GPT-4'ten daha güçlü AI sistemlerini en az 6 ay boyunca eğiten tüm AI laboratuvarları için acil bir moratoryum çağrısı yaptığını gördük. Pek çok insanın buna tepkisi kulağa harika geliyor ama yapay zekanın gelişimini durdurabileceğimizi düşünmüyorum.

Tabii ki bu açıklamayı yaptılar ve bu hala geçerli çünkü insanlar duramayacağımızı söylediğinde, bu harekete geçmemiz gerektiğinin bir işareti. Geliştirilemeyecek kadar tehlikeli bir teknolojiyi askıya alma yeteneğine gerçekten ihtiyacımız var.

Bu örneği, ne kadar çok konuşursanız, o kadar çok insanın aynı fikirde olmadığını göstermek için kullanıyorum. Bu durumda, bu riskle nasıl başa çıkılacağından bahsetmedik, çünkü insanların doğru yöntem hakkında farklı görüşleri var; ayrıca neden insan soyunun tükenmesine yol açabileceğini de söylemedik, çünkü farklı insanların bu konuda farklı görüşleri var. insanlar teknoloji hakkında daha çok endişeleniyor, diğerleri kötü niyetli bir aktörün kasıtlı sonucu olmayan teknolojinin kontrolden çıkması konusunda daha çok endişeleniyor.

Her iki durumda da, pek çok insan bunun büyük bir risk olduğu ve harekete geçmemiz gerektiği konusunda hemfikir olduğu sürece sorun yok.

02AI riski temelde buhar makinesinden farklıdır

**Tencent News "Periscope": İnsanların yapay zeka tehdidine ilişkin endişeleri ile iki veya üç yüz yıl önceki buhar motorlarından korkmaları arasındaki en büyük fark nedir? **

David Krueger: Bu tarih hakkında pek bir şey bilmiyorum. O zamanlar insanlığın yok olmasına yol açacağını kimsenin söylediğinden emin değilim. Birisi bunu söyleseydi, ne tür argümanlar kullanacaklarından da emin değilim, bana pek olası gelmiyor.

Temel fark, yok oluştan bahsediyor olmamız. İlgili her kapasitede potansiyel olarak insanlardan daha akıllı ve daha güçlü bir teknolojiden bahsediyoruz.

Buhar motoru, insanlardan daha güçlü ve daha hızlı fiziksel güçler yaratmamızı sağlar. Ancak buhar makinesi akıllı değildir ve kontrol edilmesi nispeten kolaydır. Biri kontrolden çıksa bile, en kötü senaryo, arızalanması ve içindekilerin ölmesi veya yaralanmasıdır. Ancak akıllı bir sistem veya kendi kendini kopyalayan bir sistem kontrolden çıkarsa, büyüyebileceği ve daha fazla güç kazanabileceği için birçok insan ölebilir ve bu temel farktır.

**Tencent News "Periscope": Bazı insanlar, kamu açıklamalarının yalnızca iyi insanları durdurabileceğini, iyi insanların güvenlik konularına daha fazla dikkat etmesini sağlamaya ve araştırma ve geliştirme hızını yavaşlatmaya çalıştığını düşünüyor, ancak kötü insanların eylemlerini durduramıyorlar . Kötü adamları nasıl engelleriz? **

David Krueger: Yönetmelik ve uluslararası işbirliği yoluyla davranışı düzenlemek.

Bundan "iyi adamlar" ve "kötü adamlar" terimleriyle bahsetmekten pek hoşlanmıyorum çünkü herkes her zaman onların iyi adamlar olduğunu düşünür. Endişelendiğim asıl risk, AI sistemlerinin bazı kötü adamlar veya kötü niyetli aktörler tarafından kötü niyetli manipülasyonu değil, iklim değişikliği gibi bir şey - bireyler daha fazla fosil yakıt yakarak veya kontrol edilmesi daha zor olan daha güçlü sistemler yaparak daha fazla kazanç elde edebilir. fayda sağlar, ancak her birinin bir maliyeti vardır. İklim değişikliği durumunda, bu çevreye zarar verebilir. Yapay zeka söz konusu olduğunda risk, sistemin kontrolden çıkması ve felakete yol açmasıdır.

Bu daha çok motive edici bir soru. Aslında insanlar kendilerini, arkadaşlarını, sevdiklerini ve toplumlarını dünyanın diğer ucundaki bir yabancıdan daha çok önemsiyor. Bu nedenle, kötü niyet gerekmez, yalnızca bencil içgüdüler gerekir. Bu nedenle düzenlemeye ihtiyaç vardır, ortak insani çıkarları ilgilendiren bu tür sorunları çözmenin yolu budur.

03AI hizalama çalışmasında birçok çözülmemiş gizem var

**Tencent News "Periscope": Araştırma ilgi alanlarınız derin öğrenme, yapay zeka hizalaması ve güvenlik. Sıradan insanların anlayabileceği bir dilde hizalamanın ne olduğunu açıklayabilir misiniz? "Uyum, AI gelişiminin temel itici güçlerinden biri olacak" dediniz, bu neden bu kadar önemli? **

David Krueger: İnsanların bununla ilgili üç farklı yorumu olduğunu söylemeyi seviyorum. Birincisi, AI sistemlerinin irademize göre hareket etmesini sağlamaktır. Ama bunun iyi bir tanım olduğunu düşünmüyorum, çok geniş ve her mühendis yapay zeka sisteminin istediği gibi davranmasını sağlamaya çalışıyor.

"Niyete göre hizalama" olan daha spesifik bir tanım da vardır. Kanaatimce bu doğru tanımdır ve sistemin yapmasını istediğimiz şeyi yapmaya çalışmasını ifade eder. Bir sistem tasarlarken, onun doğru niyetlere, motivasyonlara ve hedeflere sahip olmasını istersiniz. Yine de istediğiniz gibi hareket edemeyebilir, çünkü isteklerinizi nasıl gerçekleştireceğini bilecek kadar yetenekli veya akıllı olmayabilir. Ama doğru bir niyeti varsa, uyumlu olduğunu söyleyebilirsin.

İnsanların uyum için sahip oldukları nihai anlam, insan neslinin tükenme riskini azaltmak için herhangi bir teknolojik çabadır. Bazen benim gibi hizalama ve güvenlik alanında uzmanlaşmış insanlardan oluşan topluluğa da atıfta bulunur. Bu da benim tercih ettiğim tanım değil. Bu, insanların bu sorunu nasıl çözeceklerine dair sahip oldukları fikirlerden yalnızca biri. Yine de nihayetinde, bu riski azaltmak için gerekli olan anlaşmaların akdedilmesi gibi yönetişim, düzenleme ve uluslararası işbirliği konularında daha fazla çalışmaya ihtiyaç vardır.

**Tencent News "Periscope": Son zamanlarda teknoloji şirketleri ve bilimsel araştırma kurumları hizalama teknolojisinde hangi yeni ilerlemeleri kaydetti? Karşılaştığınız en acil zorluklar ve sorunlar nelerdir? **

David Krueger: En önemli şey, büyük dil modelleri için ince ayar teknikleridir.Modelin davranışını değiştirmek için çok iş yaptılar. Örneğin GPT-3 ile GPT-4 arasındaki fark, sistemin daha çok tasarımcının niyetine göre hareket edecek şekilde hizalanmış olmasıdır. Ayrıntılar kamuya açık olmasa da, temel olarak takviyeli öğrenme ve insan geri bildirimi yoluyla. Bu, çoğunlukla başarılı oldu, ancak bu modellerdeki sorunları tamamen ortadan kaldırmadı.

Davranışta yaptığı değişiklikler nispeten yüzeysel olabileceğinden, bu tekniğin daha sağlam sistemler için yeterli olmayabileceğinden endişeleniyorum. Sistem daha güçlü hale geldikçe bu sorun daha ciddi hale gelebilir.

Bu bir nevi hayvan eğitimi analojisi gibi, bir köpeği mobilyaların üzerine çıkmaması için eğitmek gibi. Belki siz oradayken bunu gerçekten iyi yapıyor ama odadan çıkarsanız yine de mobilyaları alıyor. Bu modellerde de benzer durumlar yaşanabilir. Aynı hizada gibi görünebilirler, ancak onların yaramazlıklarını fark etmeyeceğimizi düşünürlerse yine de yaramazlık yapabilirler.

**Tencent News "Periscope": AI zekası insanlardan çok daha akıllıyken, insanlar süper zeki bir vücutta hizalama işini nasıl tamamlayabilir? **

David Krueger: Bu açık bir araştırma sorusu. Bu nedenle, bu sorunun cevabını bulmak için AI hizalaması üzerine araştırma yapmak önemlidir.

**Tencent News "Periscope": Yapay zekanın hizalama yoluyla insanlara zarar vermek yerine insanları sevmesini nasıl sağlayabiliriz? **

David Krueger: Bu, önceki soruyla aynı soru. Keşke bir cevabım olsaydı ama henüz bilmiyorum.

04 Bu üç ana teşvik, yapay zekanın kontrolden çıkma riskini artırabilir

**Tencent News "Periscope": Sizce yapay zeka tarihinde bu nokta hangi noktada? **

David Krueger: Dünyanın risklere uyandığı bir noktaya ulaştık. Uzun zamandır bu anı bekliyordum.

**Tencent News "Periscope": On yıl önce Geoffrey Hinton tarafından verilen derin öğrenme kursunu dinlediğinizden beri, yapay zekanın insanların yok olmasına yol açabileceğinden endişeleniyorsunuz. Neden bu kadar erken bir aşamada endişelenmeye başladın? **

David Krueger: Prensipte bunun bir gün insanlardan daha akıllı olacağı için olacağından endişeliydim ama Hinton'un sınıfını görünce endişelerim değişti. Derin öğrenme, daha önce duyduğum diğer tüm yöntemlerden daha fazla gerçek zeka üretme potansiyeline sahiptir.

**Tencent News "Periscope": Yapay zeka sistemi hangi durumlarda kontrolden çıkacak? **

David Krueger: Birincisi, eğer bizden daha akıllılarsa, ayrıntılarda kontrolden çıktıklarında endişelenmeye başlarsınız, ancak bunun tam olarak nasıl olacağını tahmin etmek zordur.

Riski artıran ikinci bir faktör, güçlü yapay zeka sistemlerini mümkün olan en kısa sürede geliştirmek ve devreye almak için çok fazla rekabet olmasıdır. Şu anda bu rekabetin Google ve Microsoft arasında var olduğunu görüyoruz. Ekonomik, jeopolitik, hatta askeri olabilecek uluslararası rekabet konusunda da endişeler var.

Üçüncü faktör, dünya üzerinde daha hızlı etkisi olan yapay zeka sistemleri kuruyor olmanızdır. Şimdiye kadar gördüğümüz sistemler sadece dil modelleri, sadece metin üretiyorlar. Ancak bunları kod yazmak için kullanmak, ister çevrimiçi olsun ister gerçek dünyadaki şeyleri kontrol etmek için kullanmak gibi farklı şeyleri kontrol etmek için kullanmak gibi diğer sistemlerle birleştirmeyi düşünen birçok insan da var. Bu sistemlere daha fazla kontrol ve özerklik vermek riski artırır.

Bugün sahip olduğumuz ve çoğunlukla yalnızca metni tahmin etmek üzere eğitilmiş sistemlerle karşılaştırıldığında, bu, sistem oluşturmanın nispeten güvenli bir yoludur; sistemden belirli bir ortamda bir hedefe ulaşmasını istemekle karşılaştırıldığında, özellikle de Bu sistemle gerçek dünyanın, fiziksel dünyanın sık sık etkileşime girdiği bir ortamda hedeflere ulaşmaktan daha güvenlidir. Sistemler gerçek dünyada hedeflere ulaşmaya çalıştıklarında, doğal olarak daha fazla kaynak ve güç elde etmeye çalışabilirler çünkü bunlar uzun vadeli hedeflere ulaşmaya yardımcı olur.

Bu nedenle, bir sistem ne kadar açık, özerk ve akıllı olursa ve uzun vadeli hedeflere ulaşmak için ne kadar çok tasarlanırsa, sistemin kontrolden çıkma riski o kadar artar.

**Tencent News "Periscope": Ülkelerin yapay zeka geliştirmede ortak ilke ve standartları takip etmesini sağlamak için küresel işbirliği için bir çerçevenin formüle edilmesi gerektiğini düşünüyorsanız, bu belirli ilke ve standartlar ne olmalıdır? **

David Krueger: Bunu kesinlikle yapmalıyız ve bunu acilen yapmaya başlamalıyız. Çünkü zor olacak ve çok fazla tartışma ve müzakere gerektirecek çünkü farklı ülkeler arasında birçok çatışma ve farklılık var.

Ayrıntılara gelince, bu hala düşündüğüm bir şey. Gelecekte bir noktada bunu yapma ihtiyacı hissedersek bir moratoryum için baskı yapabilecek çok meşru bir yönetim organımız veya yönetişim sistemimiz olduğundan emin olmak istiyoruz. Bu onun önemli bir parçasıdır.

Konu geliştirdiğimiz ve dağıttığımız sistemler olduğunda işler daha da karmaşıklaşıyor. Bazı test, değerlendirme ve denetleme mekanizmaları olsun istiyoruz. Bir tür lisanslamayı da düşünmemiz gerekebilir, ancak üzerinde çalışılması gereken pek çok ayrıntı var. Şu anda kafamda tam bir senaryo yok. Bu nedenle, politika ve uluslararası ilişkilerde uzmanlığa sahip, politika yapımında daha fazla insana bu konu hakkında düşünmeleri için ilham verebileceğimizi umuyorum.

**Tencent News "Periscope": Mevcut yapay zeka sisteminde, potansiyel risk ve tehditlerle başa çıkabilmek için en kısa sürede hangi yönlerin iyileştirilmesi gerekiyor? **

David Krueger: Biri sağlamlıktır (Not: Sağlamlık, sistemin anormal ve tehlikeli durumlarda hayatta kalma yeteneğini ifade eder). Mevcut sistemlerimizin sağlamlıkla ilgili önemli sorunları var, en önemlisi de bir girdide insanlar tarafından algılanamayan küçük değişikliklerin bile sistemin davranışı üzerinde büyük bir etkiye sahip olabileceği rakip sağlamlık sorunu. Bu sorun yaklaşık 10 yıldır bilinen bir sorun olmasına rağmen hala bir çözümü yok gibi görünüyor. Bir amaç peşinde koşan ve bu hedefi anlamalarını optimize etmeye çalışan sistemleri düşünürsek, bu çok problemlidir. Çünkü hedefi anlamalarına bağlı olarak, optimum sonuç bizim hayal ettiğimizden veya niyet ettiğimizden çok farklı olabilir. Ve şu anda yaptığımız değerlendirmeleri fark etmek zor.

Bir diğeri, bu sistemlerin nasıl çalıştığına dair anlayış eksikliğimizdir. Bu sistemlerin nasıl çalıştığını gerçekten anlayabilmek istiyoruz, bu onların davranışlarını tahmin etmenin en iyi yollarından biri. Yeni durumlarda beklenmedik ve tehlikeli şekillerde davranmadıklarından emin olmak istiyoruz. Bu sağlamlık sorunu ile ilgilidir.

**05 İnsanlığın yok oluşu çok mu uzak? **

**Tencent News "Periscope": Şimdi bakınca insanoğlu yok olmaktan çok mu uzak? Kaç yıl olması bekleniyor? **

David Krueger: Jeffrey Hinton, makul bir zaman çerçevesi olan yapay genel zekaya (AGI) sahip olmamızın 20 yıl veya daha az süreceğini söyleyip duruyor. Bu benim bakış açıma oldukça benziyor.

Bundan kısa bir süre sonra insanların neslinin tükenebileceğini düşünüyorum, ancak daha uzun sürebilir ve sanırım vurgulamak istediğim de bu, daha onlarca yıl olsa bile, bunu bir an önce ele almaya başlamamız gerekiyor.

Tekrar iklim değişikliği benzetmesine dönüyoruz. Etkili adımlar atmaya başlamamız onlarca yılımızı aldı ve iklim değişikliğinin korkunç sonuçlarını önlemek için hala yeterince şey yapılmıyor. Bunun nedeni karmaşık bir küresel koordinasyon problemi olmasıdır. Yapay zeka da benzer bir durumla karşılaşacak. Mümkün olduğu kadar erken başlamalıyız.

**Tencent News "Periscope": Büyük bir dil modeli AGI getirebilir mi? **

David Krueger: Şu anda pek çok insan bu soruyu soruyor. Benim derdim daha karmaşık. Bunun mümkün olduğunu söyleyebilirim, ancak daha büyük olasılıkla diğer teknolojilerle birleştirilmesi gerekecek ve hatta belki bazı yeni teknolojilerin geliştirilmesi gerekecek.

**Tencent News "Periscope": İnsanlar ve yapay zeka arasındaki ilişkiyi nasıl değerlendiriyorsunuz? İnsanlar akıllı bir geçiş olacak mı? **

David Krueger: Sadece zaman gösterecek. Umarım değildir. Ama şimdi, bu, geleceğin nasıl gelişeceğine rehberlik etmek ve karar vermek için hala biraz inisiyatifimiz ve yeteneğimiz olan bir soru. Akıllı ve koordineli bir şekilde hareket edebilirsek, şansımız yaver giderse, bir noktada yapay zekanın kontrolü ele alıp almayacağına biz insanlar karar vereceğiz.

**Tencent News "Periscope": Hinton'un çok ilginç bir bakış açısı var. "Tırtıllar besinleri çıkaracak ve sonra kelebeğe dönüşecek. İnsanlar milyarlarca bilişsel besin çıkardılar. GPT-4 insan kelebeğidir." Bu bakış açısına katılıyor musunuz? **

David Krueger: Çok şiirsel ve tamamen doğru olduğunu düşünmüyorum, ama belki de bir yapay zeka sisteminin her şeyi zor yoldan sıfırdan öğrenmesi gerekmediğine dair bazı temel gerçeğe değiniyor. İnsanların insan zekası seviyesine ulaşması için uzun bir evrim geçirmesi gerekiyor ama artık insanlar internetteki tüm metinler de dahil olmak üzere tüm bu kültürel ürünleri ürettiler ki bu AI sistemleri için çok ilham verici. Bu nedenle, benzer bir zeka düzeyine ulaşmak için tüm evrimlerini en baştan geçirmeleri gerekmez.

**Tencent News "Periscope": Çin'e ilk gelişiniz mi? Çin'e gelmekle ilgili izleniminiz nedir? Çin'de yapay zeka ve büyük ölçekli modellerin geliştirilmesi için herhangi bir öneriniz var mı? **

David Krueger: Bu benim Çin'e ilk gidişim. Daha dün sabah geldim. Ziyaretin tamamı insanlarla tanışmak ve konuşmaktı, insanlar arkadaş canlısıydı ve burada iyi bir deneyim yaşadım. Ama Çin'i gerçekten deneyimlemiş gibi hissetmiyorum. Araştırmacılarla yeni görüşüyorum, ne yazık ki benim için kısa bir yolculuk olacak ama umarım gitmeden önceki son günümde en azından Pekin'e iyice bir göz atabilirim.

(Çin'e tavsiye) Güvenlik ve uyumu düşünmenin ve anlamanın önemli olduğunu düşünüyorum. Yaptığım konuşmalardan, insanların en azından bir dereceye kadar bunun üzerinde zaten çalıştıkları açık.

**Tencent Haberleri "Periscope": "O" filmindeki birçok sahne yavaş yavaş gerçek dünyamızda yer almaya başladı. İnsanların yapay zekaya karşı duyguları var mı? Geliştirdiğiniz AI modeline duygusal bir bağlılık hissediyor musunuz? **

David Krueger: Bende yok ama bildiğim kadarıyla bazı insanlarda var.

Benzer yapay zekalı kız arkadaş sohbet botları var ve birisi duygusal olarak ilişkiye bağımlı hale geldi. Bu, bu teknolojinin üzücü bir sonucudur.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin