Bài viết này từ Bắc Kinh của Zhang Xiaojun, tác giả của Tencent News "Kính tiềm vọng"
Nguồn hình ảnh: Được tạo bởi công cụ Unbounded AI
Nửa tháng trước, hàng trăm nhân vật trí tuệ nhân tạo hàng đầu, bao gồm Giám đốc điều hành OpenAI Sam Altman và người chiến thắng giải thưởng Turing Geoffrey Hinton, đã ký một tuyên bố ngắn về mối đe dọa tuyệt chủng của AI đối với loài người.
Tuyên bố này chỉ có một câu - "giảm thiểu nguy cơ tuyệt chủng của trí tuệ nhân tạo nên trở thành ưu tiên toàn cầu cùng với các rủi ro quy mô xã hội khác như dịch bệnh và chiến tranh hạt nhân".
David Krueger, trợ lý giáo sư nghiên cứu trí tuệ nhân tạo tại Đại học Cambridge, là một trong những người khởi xướng bức thư ban đầu và cũng là người ký tên.
Vào ngày 9 tháng 6, Krueger đã có một cuộc đối thoại chuyên sâu với "Periscope" của Tencent News khi tham dự Hội nghị Triyuan Bắc Kinh năm 2023. Anh ấy từ lâu đã quan tâm đến các vấn đề bảo mật và liên kết AI, từ năm 2012, anh ấy đã lo ngại về nguy cơ tuyệt chủng của trí tuệ nhân tạo đối với loài người, mà ngành này gọi là "X-Risk" (Rủi ro hiện sinh).
Trước những rủi ro của AI, một quan điểm phản bác rằng mối lo ngại mãnh liệt này có thể giống với sự hoảng sợ quá mức của con người khi động cơ hơi nước xuất hiện hàng trăm năm trước. Nhưng Krueger nói rằng sự khác biệt lớn nhất giữa hai loại này là động cơ hơi nước sẽ không khiến con người tuyệt chủng, nhưng AI thì có.
Krueger tin rằng AI thông minh hơn con người, cạnh tranh hỗn loạn và xây dựng hệ thống AI có tác động trực tiếp hơn đến thế giới - ba yếu tố này sẽ làm tăng đáng kể yếu tố rủi ro khiến hệ thống AI mất kiểm soát. Ông nói: “Hệ thống càng cởi mở, càng tự chủ, càng thông minh và càng được thiết kế để đạt được các mục tiêu dài hạn, thì nguy cơ hệ thống mất kiểm soát càng lớn.
Theo ông, vấn đề an ninh của trí tuệ nhân tạo cũng giống như vấn đề biến đổi khí hậu toàn cầu, các bên đều có lợi ích riêng, sẽ có nhiều mâu thuẫn và khác biệt, cuối cùng trở thành vấn đề phối hợp toàn cầu phức tạp. Do đó, cần phải bắt đầu càng sớm càng tốt và thông qua nỗ lực của tất cả các bên, để loài người không bị hạ xuống số phận bị AI chiếm đoạt.
Chỉ bằng cách này con người mới có thể tồn tại.
David Krueger
Sau đây là nội dung bài nói của David Krueger.
01 Thư chung "Tuyên bố rủi ro AI" chỉ có một câu, được thiết kế cẩn thận
**Tencent News "Kính tiềm vọng": Bạn là một trong những người ký tên vào "Tuyên bố về rủi ro AI". Bạn có thể cho chúng tôi biết tuyên bố này ra đời như thế nào không? **
David Krueger: Tôi nảy ra ý tưởng này cách đây hơn một năm, bởi người ta ngày càng lo ngại hơn về những rủi ro của AI, đặc biệt là nguy cơ AI có thể khiến loài người tuyệt chủng. Đồng thời, nhiều người không thảo luận về vấn đề này một cách cởi mở.
Một lý do quan trọng là lịch sử, nơi mà ý tưởng này từng được coi là một ý tưởng bên lề và mọi người sợ rằng việc thảo luận công khai về nó sẽ ảnh hưởng tiêu cực đến họ, hoặc thậm chí là triển vọng nghề nghiệp của họ.
Một vài tháng trước, một thời điểm tốt đã đến. Kể từ khi phát hành ChatGPT và GPT-4, sự chú ý của mọi người đối với AI đã đạt đến mức chưa từng có. Trong một thời gian dài, người ta đã thừa nhận rằng đây có thể là một vấn đề giả định trong tương lai, nhưng còn quá sớm để nói.
Về lý do đưa ra tuyên bố này, tôi đã liên hệ với một số đồng nghiệp, trong đó có Dan Hendrycks, giám đốc Trung tâm An toàn Trí tuệ Nhân tạo. Tôi đã nói với anh ấy rằng chúng tôi nên đưa ra tuyên bố như vậy và tôi dự định sẽ làm điều đó càng sớm càng tốt. Nhưng tôi không chắc mình đủ giỏi để làm việc đó. Đây là chuyện khẩn cấp. Vì vậy, Dan đã chọn chủ đề này và thúc đẩy thông báo.
**Tencent News "Kính tiềm vọng": Bạn có nhận xét gì về cách diễn đạt của bức thư này? **
David Krueger: Tôi đề xuất chỉ sử dụng một câu. Có một số lý do.
Đầu tiên, khi bạn có một tuyên bố dài, rất có thể ai đó sẽ không đồng ý với một số nội dung trong đó.
Cách đây vài tháng, chúng ta đã thấy rằng Viện Tương lai của Cuộc sống đã đưa ra lời kêu gọi tạm dừng ngay lập tức tất cả các phòng thí nghiệm AI đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng. Phản ứng của nhiều người về điều này nghe có vẻ tuyệt vời, nhưng tôi không nghĩ chúng ta có thể tạm dừng sự phát triển của trí tuệ nhân tạo.
Tất nhiên họ đã đưa ra tuyên bố đó và nó vẫn còn nguyên giá trị vì một khi người ta nói rằng chúng ta không thể tạm dừng thì đó là dấu hiệu cho thấy chúng ta cần phải hành động. Chúng tôi thực sự cần khả năng đình chỉ một công nghệ quá nguy hiểm để phát triển.
Tôi dùng ví dụ này để minh họa rằng bạn càng nói nhiều thì càng có nhiều người không đồng ý. Trong trường hợp này, chúng tôi đã không đề cập đến cách đối phó với rủi ro này, bởi vì mọi người có ý kiến khác nhau về phương pháp chính xác; chúng tôi cũng không nói tại sao nó có thể dẫn đến sự tuyệt chủng của loài người, bởi vì những người khác nhau có quan điểm khác nhau về điều này-một số mọi người lo lắng hơn về công nghệ Bị lạm dụng, những người khác lo lắng hơn về việc công nghệ vượt khỏi tầm kiểm soát, đây không phải là kết quả cố ý của một tác nhân độc hại.
Dù bằng cách nào, miễn là nhiều người đồng ý rằng đây là một rủi ro lớn và chúng ta cần phải hành động, thì điều đó là tốt.
02Rủi ro AI về cơ bản khác với động cơ hơi nước
**Tencent News "Kính tiềm vọng": Đâu là sự khác biệt lớn nhất giữa nỗi lo lắng của con người về mối đe dọa của trí tuệ nhân tạo và nỗi sợ hãi của con người về động cơ hơi nước hai hoặc ba trăm năm trước? **
David Krueger: Tôi không biết nhiều về lịch sử đó. Tôi không chắc liệu có ai nói nó sẽ dẫn đến sự tuyệt chủng của loài người vào thời điểm đó hay không. Nếu ai đó đã nói điều đó, tôi cũng không chắc họ sẽ sử dụng loại lý lẽ nào, điều đó có vẻ khó xảy ra với tôi.
Sự khác biệt chính là chúng ta đang nói về sự tuyệt chủng. Chúng ta đang nói về một công nghệ có khả năng thông minh hơn và mạnh mẽ hơn con người ở mọi khả năng liên quan.
Động cơ hơi nước cho phép chúng ta tạo ra lực vật chất mạnh hơn và nhanh hơn con người. Nhưng động cơ hơi nước không thông minh và tương đối dễ điều khiển. Ngay cả khi một người mất kiểm soát, trường hợp xấu nhất là nó gặp trục trặc và những người trên đó có thể chết hoặc bị thương. Nhưng nếu một hệ thống thông minh hoặc một hệ thống tự tái tạo vượt khỏi tầm kiểm soát, rất nhiều người có thể chết vì nó có thể phát triển và có thêm sức mạnh, và đó là điểm khác biệt chính.
**Tencent News "Kính tiềm vọng": Một số người cho rằng những tuyên bố công khai chỉ có thể ngăn chặn những người tốt, cố gắng khiến những người tốt chú ý hơn đến các vấn đề bảo mật và làm chậm tốc độ nghiên cứu và phát triển, nhưng họ không thể ngăn chặn hành động của những người xấu . Làm thế nào để chúng ta ngăn chặn những kẻ xấu? **
David Krueger: Điều chỉnh hành vi thông qua quy định và hợp tác quốc tế.
Tôi thực sự không thích nói về "người tốt" và "kẻ xấu" bởi vì mọi người luôn nghĩ họ là người tốt. Rủi ro chính mà tôi lo lắng không phải là thao túng ác ý hệ thống AI của một số kẻ xấu hoặc tác nhân độc hại, mà là thứ gì đó như biến đổi khí hậu—các cá nhân có thể kiếm được nhiều tiền hơn từ việc đốt nhiều nhiên liệu hóa thạch hơn hoặc tạo ra các hệ thống mạnh hơn nhưng khó kiểm soát hơn. lợi ích, nhưng mỗi người chịu một số chi phí. Trong trường hợp biến đổi khí hậu, điều này có thể gây ra thiệt hại cho môi trường. Trong trường hợp trí tuệ nhân tạo, rủi ro là hệ thống vượt khỏi tầm kiểm soát và dẫn đến thảm họa.
Đây là nhiều hơn một câu hỏi động lực. Trên thực tế, con người quan tâm đến bản thân, bạn bè, người thân và cộng đồng của họ hơn là một số người lạ ở bên kia thế giới. Do đó, không cần có ý định xấu, chỉ cần bản năng ích kỷ. Đó là lý do tại sao quy định là cần thiết, đó là cách để giải quyết những loại vấn đề vì lợi ích chung của con người.
Công việc căn chỉnh 03AI còn rất nhiều bí ẩn chưa được giải đáp
**Tencent News "Kính tiềm vọng": Mối quan tâm nghiên cứu của bạn là học sâu, liên kết AI và bảo mật. Bạn có thể giải thích thế nào là liên kết bằng ngôn ngữ mà người bình thường có thể hiểu được không? Bạn đã nói rằng "sự liên kết sẽ là một trong những động lực chính cho sự phát triển của AI", tại sao nó lại quan trọng như vậy? **
David Krueger: Tôi muốn nói rằng mọi người có ba cách hiểu khác nhau về điều này. Một là làm cho các hệ thống AI hành động theo ý muốn của chúng ta. Nhưng tôi không nghĩ đó là một định nghĩa hay, nó quá rộng và mọi kỹ sư đang cố gắng làm cho hệ thống AI hoạt động như họ muốn.
Ngoài ra còn có một định nghĩa cụ thể hơn, đó là "căn chỉnh theo mục đích". Theo tôi, đây là định nghĩa chính xác và đề cập đến việc làm cho hệ thống cố gắng làm những gì chúng ta muốn nó làm. Khi thiết kế một hệ thống, bạn muốn nó có ý định, động cơ và mục tiêu đúng đắn. Nó vẫn có thể không hành động như bạn muốn, bởi vì nó có thể không đủ khả năng hoặc thông minh để biết cách thực hiện mong muốn của bạn. Nhưng nếu nó có mục đích phù hợp, bạn có thể nói nó được căn chỉnh.
Ý nghĩa cuối cùng mà mọi người có cho sự liên kết là bất kỳ nỗ lực công nghệ nào để giảm nguy cơ tuyệt chủng của loài người. Đôi khi, nó cũng đề cập đến cộng đồng những người như tôi chuyên về lĩnh vực liên kết và bảo mật. Đó cũng không phải là định nghĩa ưa thích của tôi. Đây chỉ là một ý tưởng mà mọi người có về cách giải quyết vấn đề này. Tuy nhiên, cuối cùng thì cần phải làm nhiều việc hơn nữa về quản trị, quy định và hợp tác quốc tế, chẳng hạn như việc ký kết các hiệp ước, là cần thiết để giảm thiểu rủi ro này.
**Tencent News "Kính tiềm vọng": Gần đây các công ty công nghệ và tổ chức nghiên cứu khoa học đã đạt được tiến bộ mới nào trong công nghệ căn chỉnh? Những thách thức và vấn đề cấp bách nhất mà bạn phải đối mặt là gì? **
David Krueger: Điều quan trọng nhất là các kỹ thuật tinh chỉnh cho các mô hình ngôn ngữ lớn, họ đã làm rất nhiều việc để thay đổi hành vi của mô hình. Ví dụ: sự khác biệt giữa GPT-3 và GPT-4 là hệ thống được căn chỉnh để hoạt động nhiều hơn theo ý định của nhà thiết kế. Chủ yếu thông qua học tăng cường và phản hồi của con người, mặc dù các chi tiết không được công khai. Điều này đã thành công phần lớn, nhưng nó không loại bỏ hoàn toàn các vấn đề với các mô hình này.
Tôi lo lắng rằng kỹ thuật này có thể không đủ cho các hệ thống mạnh mẽ hơn, vì những thay đổi mà nó tạo ra đối với hành vi có thể tương đối hời hợt. Vấn đề này có thể trở nên nghiêm trọng hơn khi hệ thống trở nên mạnh mẽ hơn.
Nó giống như phép loại suy huấn luyện động vật, giống như bạn huấn luyện một con chó không trèo lên đồ đạc. Có thể nó làm điều này thực sự tốt khi bạn ở đó, nhưng nếu bạn rời khỏi phòng, nó vẫn nhặt đồ đạc lên. Các tình huống tương tự có thể xảy ra trong các mô hình này. Họ có thể có vẻ phù hợp, nhưng họ vẫn có thể cư xử không đúng nếu họ nghĩ rằng chúng tôi sẽ không nhận thấy hành vi sai trái của họ.
**Tencent News "Kính tiềm vọng": Khi trí tuệ AI thông minh hơn con người rất nhiều, làm sao con người có thể hoàn thành công việc căn chỉnh trên một cơ thể siêu thông minh? **
David Krueger: Đây là một câu hỏi nghiên cứu mở. Do đó, điều quan trọng là phải tiến hành nghiên cứu về sự liên kết của AI để tìm ra câu trả lời cho câu hỏi này.
**Tencent News "Kính tiềm vọng": Làm thế nào chúng ta có thể khiến AI yêu con người thay vì làm hại họ thông qua sự liên kết? **
David Krueger: Đây là câu hỏi tương tự như câu hỏi trước. Tôi ước tôi có một câu trả lời, nhưng vẫn chưa biết.
04 Ba động lực chính này có thể làm tăng nguy cơ AI mất kiểm soát
**Tencent News "Kính tiềm vọng": Theo bạn, thời điểm này là vào thời điểm nào trong lịch sử của AI? **
David Krueger: Chúng ta đã đạt đến điểm mà thế giới đang thức tỉnh trước những rủi ro. Tôi đã chờ đợi khoảnh khắc này từ rất lâu rồi.
**Tencent News "Kính tiềm vọng": Kể từ khi bạn nghe khóa học deep learning do Geoffrey Hinton giảng dạy mười năm trước, bạn đã lo lắng rằng AI có thể dẫn đến sự tuyệt chủng của loài người. Tại sao bạn bắt đầu lo lắng ở giai đoạn sớm như vậy? **
David Krueger: Về nguyên tắc, tôi đã lo lắng rằng điều này sẽ xảy ra vào một lúc nào đó bởi vì một ngày nào đó nó sẽ thông minh hơn con người, nhưng khi tôi nhìn thấy lớp học của Hinton, mối lo ngại của tôi đã thay đổi. Học sâu có khả năng tạo ra trí thông minh thực sự hơn bất kỳ phương pháp nào khác mà tôi từng nghe trước đây.
**Tencent News "Kính tiềm vọng": Hệ thống trí tuệ nhân tạo sẽ mất kiểm soát trong hoàn cảnh nào? **
David Krueger: Thứ nhất, nếu họ thông minh hơn chúng ta, bạn sẽ bắt đầu lo lắng về việc khi nào họ vượt quá tầm kiểm soát của các chi tiết, nhưng thật khó để dự đoán chính xác điều đó sẽ xảy ra như thế nào.
Yếu tố thứ hai làm tăng rủi ro là có rất nhiều sự cạnh tranh để phát triển và triển khai các hệ thống AI mạnh mẽ càng nhanh càng tốt. Chúng tôi hiện đang thấy sự cạnh tranh này tồn tại giữa Google và Microsoft. Cũng có những lo ngại về cạnh tranh quốc tế, có thể là kinh tế, có thể là địa chính trị, thậm chí có thể là quân sự.
Yếu tố thứ ba là nếu bạn đang xây dựng các hệ thống AI có tác động trực tiếp hơn đến thế giới. Các hệ thống mà chúng ta thấy cho đến nay chỉ là các mô hình ngôn ngữ, chúng chỉ tạo ra văn bản. Nhưng cũng có rất nhiều người đang xem xét việc kết hợp chúng với các hệ thống khác, như sử dụng chúng để viết mã, sử dụng chúng để kiểm soát những thứ khác nhau, cho dù đó là trực tuyến hay sử dụng chúng để kiểm soát mọi thứ trong thế giới thực. Trao cho các hệ thống này nhiều quyền kiểm soát và quyền tự chủ hơn sẽ làm tăng rủi ro.
Một lần nữa so sánh điều đó với các hệ thống chúng ta có ngày nay, hầu hết chỉ được đào tạo để dự đoán văn bản, đây là một cách tương đối an toàn để xây dựng hệ thống—so với việc yêu cầu hệ thống đạt được mục tiêu trong một môi trường nhất định, đặc biệt là so với hệ thống trong và Điều này an toàn hơn so với việc đạt được các mục tiêu trong một môi trường mà thế giới thực, thế giới vật chất, tương tác thường xuyên. Khi các hệ thống cố gắng đạt được các mục tiêu trong thế giới thực, chúng có thể cố gắng thu được nhiều tài nguyên và sức mạnh hơn một cách tự nhiên, bởi vì những thứ này rất hữu ích để đạt được các mục tiêu dài hạn.
Do đó, một hệ thống càng cởi mở, tự trị và thông minh, và càng được thiết kế để đạt được các mục tiêu dài hạn, thì rủi ro hệ thống sẽ vượt khỏi tầm kiểm soát càng lớn.
**Tencent News "Kính tiềm vọng": Nếu bạn cho rằng nên xây dựng một khuôn khổ hợp tác toàn cầu để đảm bảo các quốc gia tuân theo các nguyên tắc và tiêu chuẩn chung trong phát triển AI, thì những nguyên tắc và tiêu chuẩn cụ thể này nên là gì? **
David Krueger: Chúng tôi thực sự cần phải làm điều này và chúng tôi cần bắt đầu thực hiện nó một cách khẩn trương. Bởi vì nó sẽ khó khăn và sẽ đòi hỏi rất nhiều cuộc thảo luận và đàm phán vì có nhiều xung đột và khác biệt giữa các quốc gia khác nhau.
Về các chi tiết cụ thể, đó là điều tôi vẫn đang suy nghĩ. Chúng tôi muốn đảm bảo rằng chúng tôi có một số cơ quan quản lý hoặc hệ thống quản lý rất hợp pháp có thể thúc đẩy lệnh cấm nếu tại một thời điểm nào đó trong tương lai, chúng tôi cảm thấy cần phải làm như vậy. Đây là một phần quan trọng của nó.
Mọi thứ trở nên phức tạp hơn khi nói đến các hệ thống mà chúng tôi đang phát triển và triển khai. Chúng tôi muốn có một số cơ chế kiểm tra, đánh giá và kiểm toán. Chúng tôi cũng có thể cần xem xét một số hình thức cấp phép, nhưng có rất nhiều chi tiết cần giải quyết. Hiện giờ, trong đầu tôi chưa có một kịch bản hoàn chỉnh nào. Đó là lý do tại sao tôi hy vọng chúng ta có thể truyền cảm hứng cho nhiều người hơn nữa trong việc hoạch định chính sách, với kiến thức chuyên môn về chính sách và quan hệ quốc tế, suy nghĩ về nó.
**Tencent News “Kính tiềm vọng”: Trong hệ thống trí tuệ nhân tạo hiện nay, khía cạnh nào cần được cải thiện càng sớm càng tốt để đối phó với những rủi ro và mối đe dọa tiềm ẩn? **
David Krueger: Một là độ bền (Lưu ý: Độ bền đề cập đến khả năng tồn tại của hệ thống trong các tình huống bất thường và nguy hiểm). Các hệ thống hiện tại của chúng tôi có vấn đề nghiêm trọng về độ bền, đáng chú ý nhất là vấn đề về độ bền đối nghịch, trong đó những thay đổi nhỏ đối với đầu vào, thậm chí không thể nhận thấy đối với con người, có thể có tác động lớn đến hành vi của hệ thống. Vấn đề này đã được biết đến trong khoảng 10 năm, nhưng dường như vẫn chưa có giải pháp. Điều này rất có vấn đề nếu chúng ta xem xét các hệ thống theo đuổi một số mục tiêu và cố gắng tối ưu hóa sự hiểu biết của chúng về mục tiêu đó. Bởi vì tùy thuộc vào sự hiểu biết của họ về mục tiêu, kết quả tối ưu có thể rất khác so với những gì chúng ta tưởng tượng hoặc dự định. Và những đánh giá mà chúng tôi đang thực hiện hiện nay rất khó phát hiện.
Một nguyên nhân khác là chúng ta thiếu hiểu biết về cách thức hoạt động của các hệ thống này. Chúng tôi thực sự muốn có thể hiểu cách các hệ thống này hoạt động, đó là một trong những cách tốt nhất để chúng tôi có thể dự đoán hành vi của chúng. Chúng tôi muốn đảm bảo rằng họ không hành xử theo những cách bất ngờ và nguy hiểm trong các tình huống mới. Điều này liên quan đến vấn đề độ bền.
**05 Sự tuyệt chủng của loài người còn xa không? **
**Tencent News "Kính tiềm vọng": Nhìn lại bây giờ, loài người còn lâu mới tuyệt chủng? Dự kiến là bao nhiêu năm? **
David Krueger: Jeffrey Hinton luôn nói rằng chúng ta sẽ mất 20 năm hoặc ít hơn để có được trí thông minh nhân tạo (AGI), đây là một khung thời gian hợp lý. Điều này khá giống với quan điểm của tôi.
Tôi nghĩ con người có thể bị tuyệt chủng ngay sau đó, nhưng có thể mất nhiều thời gian hơn, và tôi đoán đó là điều tôi đang cố nhấn mạnh, ngay cả khi còn hàng thập kỷ nữa, chúng ta cần bắt đầu giải quyết vấn đề đó càng sớm càng tốt.
Quay trở lại với phép loại suy biến đổi khí hậu. Chúng ta đã mất nhiều thập kỷ để bắt đầu hành động thực sự hiệu quả, nhưng vẫn chưa đủ để ngăn chặn những hậu quả thảm khốc của biến đổi khí hậu. Điều này là do nó là một vấn đề phối hợp toàn cầu phức tạp. Trí tuệ nhân tạo cũng sẽ đối mặt với tình huống tương tự. Chúng ta nên bắt đầu càng sớm càng tốt.
**Tencent News "Kính tiềm vọng": Mô hình ngôn ngữ lớn có thể mang lại AGI không? **
David Krueger: Rất nhiều người đang đặt câu hỏi này ngay bây giờ. Quan điểm của tôi phức tạp hơn. Tôi muốn nói rằng điều đó là có thể, nhưng nhiều khả năng nó sẽ cần được kết hợp với các công nghệ khác và thậm chí có thể một số công nghệ mới sẽ cần được phát triển.
**Tencent News "Kính tiềm vọng": Bạn nhìn nhận mối quan hệ giữa con người và trí tuệ nhân tạo như thế nào? Con người sẽ là một quá trình chuyển đổi thông minh? **
David Krueger: Chỉ có thời gian mới trả lời được. Tôi hy vọng là không. Nhưng bây giờ, đây là một câu hỏi mà chúng tôi vẫn có một số sáng kiến và khả năng để định hướng và quyết định tương lai sẽ phát triển như thế nào. Nếu chúng ta có thể hành động một cách thông minh và phối hợp, nếu chúng ta có thể gặp may mắn, thì con người chúng ta sẽ quyết định liệu AI có tiếp quản vào một lúc nào đó hay không.
**Tencent News "Kính tiềm vọng": Hinton có một quan điểm rất thú vị. Ông nói: Sâu bướm sẽ hút chất dinh dưỡng rồi biến đổi thành bướm Con người đã chiết xuất hàng tỷ chất dinh dưỡng nhận thức GPT-4 chính là con bướm của con người. Bạn có đồng ý với quan điểm này không? **
David Krueger: Rất thi vị, và tôi không nghĩ nó hoàn toàn chính xác, nhưng có lẽ nó đánh vào một sự thật thiết yếu nào đó rằng một hệ thống AI không nhất thiết phải học mọi thứ một cách khó khăn từ đầu. Con người cần trải qua một quá trình tiến hóa lâu dài để đạt đến trình độ thông minh của con người, nhưng hiện tại con người đã sản xuất ra tất cả các sản phẩm văn hóa này, bao gồm tất cả các văn bản trên Internet, điều này rất truyền cảm hứng cho các hệ thống AI. Như vậy, chúng không nhất thiết phải trải qua tất cả quá trình tiến hóa của chúng một lần nữa để đạt được mức độ thông minh tương tự.
**Tencent News "Kính tiềm vọng": Đây có phải là lần đầu tiên bạn đến Trung Quốc không? Ấn tượng của bạn khi đến Trung Quốc là gì? Bạn có bất cứ đề xuất nào cho sự phát triển của trí tuệ nhân tạo và các mô hình quy mô lớn ở Trung Quốc không? **
David Krueger: Đây là lần đầu tiên tôi đến Trung Quốc. Tôi mới đến sáng hôm qua. Toàn bộ chuyến thăm là gặp gỡ và nói chuyện với mọi người, mọi người rất thân thiện và tôi đã có một trải nghiệm tốt ở đây. Nhưng tôi không cảm thấy mình đã thực sự trải nghiệm Trung Quốc. Tôi chỉ gặp gỡ các nhà nghiên cứu, thật không may, đó sẽ là một chuyến đi ngắn đối với tôi, nhưng tôi hy vọng ít nhất sẽ có một cái nhìn tốt về Bắc Kinh vào ngày cuối cùng trước khi rời đi.
(Lời khuyên cho Trung Quốc) Tôi nghĩ điều quan trọng là phải suy nghĩ và hiểu về an ninh và sự liên kết. Từ những cuộc trò chuyện mà tôi đã có, rõ ràng là mọi người đã bắt tay vào việc này, ít nhất là ở một mức độ nào đó.
**Tencent News "Kính tiềm vọng": Nhiều phân cảnh trong phim "Her" đã dần hiện ra trong thế giới thực của chúng ta. Con người có cảm xúc với trí tuệ nhân tạo không? Bạn có cảm thấy gắn bó tình cảm với mô hình AI mà bạn phát triển không? **
David Krueger: Tôi không có, nhưng theo những gì tôi biết thì một số người có.
Các chatbot bạn gái trí tuệ nhân tạo tương tự cũng tồn tại và ai đó đã trở nên phụ thuộc về mặt cảm xúc vào mối quan hệ. Đây là một hệ quả đáng buồn của công nghệ này.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Đối thoại với người khởi xướng "Tuyên bố rủi ro AI": Động cơ hơi nước sẽ không khiến loài người tuyệt chủng, nhưng AI thì có!
Bài viết này từ Bắc Kinh của Zhang Xiaojun, tác giả của Tencent News "Kính tiềm vọng"
Nửa tháng trước, hàng trăm nhân vật trí tuệ nhân tạo hàng đầu, bao gồm Giám đốc điều hành OpenAI Sam Altman và người chiến thắng giải thưởng Turing Geoffrey Hinton, đã ký một tuyên bố ngắn về mối đe dọa tuyệt chủng của AI đối với loài người.
Tuyên bố này chỉ có một câu - "giảm thiểu nguy cơ tuyệt chủng của trí tuệ nhân tạo nên trở thành ưu tiên toàn cầu cùng với các rủi ro quy mô xã hội khác như dịch bệnh và chiến tranh hạt nhân".
David Krueger, trợ lý giáo sư nghiên cứu trí tuệ nhân tạo tại Đại học Cambridge, là một trong những người khởi xướng bức thư ban đầu và cũng là người ký tên.
Vào ngày 9 tháng 6, Krueger đã có một cuộc đối thoại chuyên sâu với "Periscope" của Tencent News khi tham dự Hội nghị Triyuan Bắc Kinh năm 2023. Anh ấy từ lâu đã quan tâm đến các vấn đề bảo mật và liên kết AI, từ năm 2012, anh ấy đã lo ngại về nguy cơ tuyệt chủng của trí tuệ nhân tạo đối với loài người, mà ngành này gọi là "X-Risk" (Rủi ro hiện sinh).
Trước những rủi ro của AI, một quan điểm phản bác rằng mối lo ngại mãnh liệt này có thể giống với sự hoảng sợ quá mức của con người khi động cơ hơi nước xuất hiện hàng trăm năm trước. Nhưng Krueger nói rằng sự khác biệt lớn nhất giữa hai loại này là động cơ hơi nước sẽ không khiến con người tuyệt chủng, nhưng AI thì có.
Krueger tin rằng AI thông minh hơn con người, cạnh tranh hỗn loạn và xây dựng hệ thống AI có tác động trực tiếp hơn đến thế giới - ba yếu tố này sẽ làm tăng đáng kể yếu tố rủi ro khiến hệ thống AI mất kiểm soát. Ông nói: “Hệ thống càng cởi mở, càng tự chủ, càng thông minh và càng được thiết kế để đạt được các mục tiêu dài hạn, thì nguy cơ hệ thống mất kiểm soát càng lớn.
Theo ông, vấn đề an ninh của trí tuệ nhân tạo cũng giống như vấn đề biến đổi khí hậu toàn cầu, các bên đều có lợi ích riêng, sẽ có nhiều mâu thuẫn và khác biệt, cuối cùng trở thành vấn đề phối hợp toàn cầu phức tạp. Do đó, cần phải bắt đầu càng sớm càng tốt và thông qua nỗ lực của tất cả các bên, để loài người không bị hạ xuống số phận bị AI chiếm đoạt.
Chỉ bằng cách này con người mới có thể tồn tại.
Sau đây là nội dung bài nói của David Krueger.
01 Thư chung "Tuyên bố rủi ro AI" chỉ có một câu, được thiết kế cẩn thận
**Tencent News "Kính tiềm vọng": Bạn là một trong những người ký tên vào "Tuyên bố về rủi ro AI". Bạn có thể cho chúng tôi biết tuyên bố này ra đời như thế nào không? **
David Krueger: Tôi nảy ra ý tưởng này cách đây hơn một năm, bởi người ta ngày càng lo ngại hơn về những rủi ro của AI, đặc biệt là nguy cơ AI có thể khiến loài người tuyệt chủng. Đồng thời, nhiều người không thảo luận về vấn đề này một cách cởi mở.
Một lý do quan trọng là lịch sử, nơi mà ý tưởng này từng được coi là một ý tưởng bên lề và mọi người sợ rằng việc thảo luận công khai về nó sẽ ảnh hưởng tiêu cực đến họ, hoặc thậm chí là triển vọng nghề nghiệp của họ.
Một vài tháng trước, một thời điểm tốt đã đến. Kể từ khi phát hành ChatGPT và GPT-4, sự chú ý của mọi người đối với AI đã đạt đến mức chưa từng có. Trong một thời gian dài, người ta đã thừa nhận rằng đây có thể là một vấn đề giả định trong tương lai, nhưng còn quá sớm để nói.
Về lý do đưa ra tuyên bố này, tôi đã liên hệ với một số đồng nghiệp, trong đó có Dan Hendrycks, giám đốc Trung tâm An toàn Trí tuệ Nhân tạo. Tôi đã nói với anh ấy rằng chúng tôi nên đưa ra tuyên bố như vậy và tôi dự định sẽ làm điều đó càng sớm càng tốt. Nhưng tôi không chắc mình đủ giỏi để làm việc đó. Đây là chuyện khẩn cấp. Vì vậy, Dan đã chọn chủ đề này và thúc đẩy thông báo.
**Tencent News "Kính tiềm vọng": Bạn có nhận xét gì về cách diễn đạt của bức thư này? **
David Krueger: Tôi đề xuất chỉ sử dụng một câu. Có một số lý do.
Đầu tiên, khi bạn có một tuyên bố dài, rất có thể ai đó sẽ không đồng ý với một số nội dung trong đó.
Cách đây vài tháng, chúng ta đã thấy rằng Viện Tương lai của Cuộc sống đã đưa ra lời kêu gọi tạm dừng ngay lập tức tất cả các phòng thí nghiệm AI đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng. Phản ứng của nhiều người về điều này nghe có vẻ tuyệt vời, nhưng tôi không nghĩ chúng ta có thể tạm dừng sự phát triển của trí tuệ nhân tạo.
Tất nhiên họ đã đưa ra tuyên bố đó và nó vẫn còn nguyên giá trị vì một khi người ta nói rằng chúng ta không thể tạm dừng thì đó là dấu hiệu cho thấy chúng ta cần phải hành động. Chúng tôi thực sự cần khả năng đình chỉ một công nghệ quá nguy hiểm để phát triển.
Tôi dùng ví dụ này để minh họa rằng bạn càng nói nhiều thì càng có nhiều người không đồng ý. Trong trường hợp này, chúng tôi đã không đề cập đến cách đối phó với rủi ro này, bởi vì mọi người có ý kiến khác nhau về phương pháp chính xác; chúng tôi cũng không nói tại sao nó có thể dẫn đến sự tuyệt chủng của loài người, bởi vì những người khác nhau có quan điểm khác nhau về điều này-một số mọi người lo lắng hơn về công nghệ Bị lạm dụng, những người khác lo lắng hơn về việc công nghệ vượt khỏi tầm kiểm soát, đây không phải là kết quả cố ý của một tác nhân độc hại.
Dù bằng cách nào, miễn là nhiều người đồng ý rằng đây là một rủi ro lớn và chúng ta cần phải hành động, thì điều đó là tốt.
02Rủi ro AI về cơ bản khác với động cơ hơi nước
**Tencent News "Kính tiềm vọng": Đâu là sự khác biệt lớn nhất giữa nỗi lo lắng của con người về mối đe dọa của trí tuệ nhân tạo và nỗi sợ hãi của con người về động cơ hơi nước hai hoặc ba trăm năm trước? **
David Krueger: Tôi không biết nhiều về lịch sử đó. Tôi không chắc liệu có ai nói nó sẽ dẫn đến sự tuyệt chủng của loài người vào thời điểm đó hay không. Nếu ai đó đã nói điều đó, tôi cũng không chắc họ sẽ sử dụng loại lý lẽ nào, điều đó có vẻ khó xảy ra với tôi.
Sự khác biệt chính là chúng ta đang nói về sự tuyệt chủng. Chúng ta đang nói về một công nghệ có khả năng thông minh hơn và mạnh mẽ hơn con người ở mọi khả năng liên quan.
Động cơ hơi nước cho phép chúng ta tạo ra lực vật chất mạnh hơn và nhanh hơn con người. Nhưng động cơ hơi nước không thông minh và tương đối dễ điều khiển. Ngay cả khi một người mất kiểm soát, trường hợp xấu nhất là nó gặp trục trặc và những người trên đó có thể chết hoặc bị thương. Nhưng nếu một hệ thống thông minh hoặc một hệ thống tự tái tạo vượt khỏi tầm kiểm soát, rất nhiều người có thể chết vì nó có thể phát triển và có thêm sức mạnh, và đó là điểm khác biệt chính.
**Tencent News "Kính tiềm vọng": Một số người cho rằng những tuyên bố công khai chỉ có thể ngăn chặn những người tốt, cố gắng khiến những người tốt chú ý hơn đến các vấn đề bảo mật và làm chậm tốc độ nghiên cứu và phát triển, nhưng họ không thể ngăn chặn hành động của những người xấu . Làm thế nào để chúng ta ngăn chặn những kẻ xấu? **
David Krueger: Điều chỉnh hành vi thông qua quy định và hợp tác quốc tế.
Tôi thực sự không thích nói về "người tốt" và "kẻ xấu" bởi vì mọi người luôn nghĩ họ là người tốt. Rủi ro chính mà tôi lo lắng không phải là thao túng ác ý hệ thống AI của một số kẻ xấu hoặc tác nhân độc hại, mà là thứ gì đó như biến đổi khí hậu—các cá nhân có thể kiếm được nhiều tiền hơn từ việc đốt nhiều nhiên liệu hóa thạch hơn hoặc tạo ra các hệ thống mạnh hơn nhưng khó kiểm soát hơn. lợi ích, nhưng mỗi người chịu một số chi phí. Trong trường hợp biến đổi khí hậu, điều này có thể gây ra thiệt hại cho môi trường. Trong trường hợp trí tuệ nhân tạo, rủi ro là hệ thống vượt khỏi tầm kiểm soát và dẫn đến thảm họa.
Đây là nhiều hơn một câu hỏi động lực. Trên thực tế, con người quan tâm đến bản thân, bạn bè, người thân và cộng đồng của họ hơn là một số người lạ ở bên kia thế giới. Do đó, không cần có ý định xấu, chỉ cần bản năng ích kỷ. Đó là lý do tại sao quy định là cần thiết, đó là cách để giải quyết những loại vấn đề vì lợi ích chung của con người.
Công việc căn chỉnh 03AI còn rất nhiều bí ẩn chưa được giải đáp
**Tencent News "Kính tiềm vọng": Mối quan tâm nghiên cứu của bạn là học sâu, liên kết AI và bảo mật. Bạn có thể giải thích thế nào là liên kết bằng ngôn ngữ mà người bình thường có thể hiểu được không? Bạn đã nói rằng "sự liên kết sẽ là một trong những động lực chính cho sự phát triển của AI", tại sao nó lại quan trọng như vậy? **
David Krueger: Tôi muốn nói rằng mọi người có ba cách hiểu khác nhau về điều này. Một là làm cho các hệ thống AI hành động theo ý muốn của chúng ta. Nhưng tôi không nghĩ đó là một định nghĩa hay, nó quá rộng và mọi kỹ sư đang cố gắng làm cho hệ thống AI hoạt động như họ muốn.
Ngoài ra còn có một định nghĩa cụ thể hơn, đó là "căn chỉnh theo mục đích". Theo tôi, đây là định nghĩa chính xác và đề cập đến việc làm cho hệ thống cố gắng làm những gì chúng ta muốn nó làm. Khi thiết kế một hệ thống, bạn muốn nó có ý định, động cơ và mục tiêu đúng đắn. Nó vẫn có thể không hành động như bạn muốn, bởi vì nó có thể không đủ khả năng hoặc thông minh để biết cách thực hiện mong muốn của bạn. Nhưng nếu nó có mục đích phù hợp, bạn có thể nói nó được căn chỉnh.
Ý nghĩa cuối cùng mà mọi người có cho sự liên kết là bất kỳ nỗ lực công nghệ nào để giảm nguy cơ tuyệt chủng của loài người. Đôi khi, nó cũng đề cập đến cộng đồng những người như tôi chuyên về lĩnh vực liên kết và bảo mật. Đó cũng không phải là định nghĩa ưa thích của tôi. Đây chỉ là một ý tưởng mà mọi người có về cách giải quyết vấn đề này. Tuy nhiên, cuối cùng thì cần phải làm nhiều việc hơn nữa về quản trị, quy định và hợp tác quốc tế, chẳng hạn như việc ký kết các hiệp ước, là cần thiết để giảm thiểu rủi ro này.
**Tencent News "Kính tiềm vọng": Gần đây các công ty công nghệ và tổ chức nghiên cứu khoa học đã đạt được tiến bộ mới nào trong công nghệ căn chỉnh? Những thách thức và vấn đề cấp bách nhất mà bạn phải đối mặt là gì? **
David Krueger: Điều quan trọng nhất là các kỹ thuật tinh chỉnh cho các mô hình ngôn ngữ lớn, họ đã làm rất nhiều việc để thay đổi hành vi của mô hình. Ví dụ: sự khác biệt giữa GPT-3 và GPT-4 là hệ thống được căn chỉnh để hoạt động nhiều hơn theo ý định của nhà thiết kế. Chủ yếu thông qua học tăng cường và phản hồi của con người, mặc dù các chi tiết không được công khai. Điều này đã thành công phần lớn, nhưng nó không loại bỏ hoàn toàn các vấn đề với các mô hình này.
Tôi lo lắng rằng kỹ thuật này có thể không đủ cho các hệ thống mạnh mẽ hơn, vì những thay đổi mà nó tạo ra đối với hành vi có thể tương đối hời hợt. Vấn đề này có thể trở nên nghiêm trọng hơn khi hệ thống trở nên mạnh mẽ hơn.
Nó giống như phép loại suy huấn luyện động vật, giống như bạn huấn luyện một con chó không trèo lên đồ đạc. Có thể nó làm điều này thực sự tốt khi bạn ở đó, nhưng nếu bạn rời khỏi phòng, nó vẫn nhặt đồ đạc lên. Các tình huống tương tự có thể xảy ra trong các mô hình này. Họ có thể có vẻ phù hợp, nhưng họ vẫn có thể cư xử không đúng nếu họ nghĩ rằng chúng tôi sẽ không nhận thấy hành vi sai trái của họ.
**Tencent News "Kính tiềm vọng": Khi trí tuệ AI thông minh hơn con người rất nhiều, làm sao con người có thể hoàn thành công việc căn chỉnh trên một cơ thể siêu thông minh? **
David Krueger: Đây là một câu hỏi nghiên cứu mở. Do đó, điều quan trọng là phải tiến hành nghiên cứu về sự liên kết của AI để tìm ra câu trả lời cho câu hỏi này.
**Tencent News "Kính tiềm vọng": Làm thế nào chúng ta có thể khiến AI yêu con người thay vì làm hại họ thông qua sự liên kết? **
David Krueger: Đây là câu hỏi tương tự như câu hỏi trước. Tôi ước tôi có một câu trả lời, nhưng vẫn chưa biết.
04 Ba động lực chính này có thể làm tăng nguy cơ AI mất kiểm soát
**Tencent News "Kính tiềm vọng": Theo bạn, thời điểm này là vào thời điểm nào trong lịch sử của AI? **
David Krueger: Chúng ta đã đạt đến điểm mà thế giới đang thức tỉnh trước những rủi ro. Tôi đã chờ đợi khoảnh khắc này từ rất lâu rồi.
**Tencent News "Kính tiềm vọng": Kể từ khi bạn nghe khóa học deep learning do Geoffrey Hinton giảng dạy mười năm trước, bạn đã lo lắng rằng AI có thể dẫn đến sự tuyệt chủng của loài người. Tại sao bạn bắt đầu lo lắng ở giai đoạn sớm như vậy? **
David Krueger: Về nguyên tắc, tôi đã lo lắng rằng điều này sẽ xảy ra vào một lúc nào đó bởi vì một ngày nào đó nó sẽ thông minh hơn con người, nhưng khi tôi nhìn thấy lớp học của Hinton, mối lo ngại của tôi đã thay đổi. Học sâu có khả năng tạo ra trí thông minh thực sự hơn bất kỳ phương pháp nào khác mà tôi từng nghe trước đây.
**Tencent News "Kính tiềm vọng": Hệ thống trí tuệ nhân tạo sẽ mất kiểm soát trong hoàn cảnh nào? **
David Krueger: Thứ nhất, nếu họ thông minh hơn chúng ta, bạn sẽ bắt đầu lo lắng về việc khi nào họ vượt quá tầm kiểm soát của các chi tiết, nhưng thật khó để dự đoán chính xác điều đó sẽ xảy ra như thế nào.
Yếu tố thứ hai làm tăng rủi ro là có rất nhiều sự cạnh tranh để phát triển và triển khai các hệ thống AI mạnh mẽ càng nhanh càng tốt. Chúng tôi hiện đang thấy sự cạnh tranh này tồn tại giữa Google và Microsoft. Cũng có những lo ngại về cạnh tranh quốc tế, có thể là kinh tế, có thể là địa chính trị, thậm chí có thể là quân sự.
Yếu tố thứ ba là nếu bạn đang xây dựng các hệ thống AI có tác động trực tiếp hơn đến thế giới. Các hệ thống mà chúng ta thấy cho đến nay chỉ là các mô hình ngôn ngữ, chúng chỉ tạo ra văn bản. Nhưng cũng có rất nhiều người đang xem xét việc kết hợp chúng với các hệ thống khác, như sử dụng chúng để viết mã, sử dụng chúng để kiểm soát những thứ khác nhau, cho dù đó là trực tuyến hay sử dụng chúng để kiểm soát mọi thứ trong thế giới thực. Trao cho các hệ thống này nhiều quyền kiểm soát và quyền tự chủ hơn sẽ làm tăng rủi ro.
Một lần nữa so sánh điều đó với các hệ thống chúng ta có ngày nay, hầu hết chỉ được đào tạo để dự đoán văn bản, đây là một cách tương đối an toàn để xây dựng hệ thống—so với việc yêu cầu hệ thống đạt được mục tiêu trong một môi trường nhất định, đặc biệt là so với hệ thống trong và Điều này an toàn hơn so với việc đạt được các mục tiêu trong một môi trường mà thế giới thực, thế giới vật chất, tương tác thường xuyên. Khi các hệ thống cố gắng đạt được các mục tiêu trong thế giới thực, chúng có thể cố gắng thu được nhiều tài nguyên và sức mạnh hơn một cách tự nhiên, bởi vì những thứ này rất hữu ích để đạt được các mục tiêu dài hạn.
Do đó, một hệ thống càng cởi mở, tự trị và thông minh, và càng được thiết kế để đạt được các mục tiêu dài hạn, thì rủi ro hệ thống sẽ vượt khỏi tầm kiểm soát càng lớn.
**Tencent News "Kính tiềm vọng": Nếu bạn cho rằng nên xây dựng một khuôn khổ hợp tác toàn cầu để đảm bảo các quốc gia tuân theo các nguyên tắc và tiêu chuẩn chung trong phát triển AI, thì những nguyên tắc và tiêu chuẩn cụ thể này nên là gì? **
David Krueger: Chúng tôi thực sự cần phải làm điều này và chúng tôi cần bắt đầu thực hiện nó một cách khẩn trương. Bởi vì nó sẽ khó khăn và sẽ đòi hỏi rất nhiều cuộc thảo luận và đàm phán vì có nhiều xung đột và khác biệt giữa các quốc gia khác nhau.
Về các chi tiết cụ thể, đó là điều tôi vẫn đang suy nghĩ. Chúng tôi muốn đảm bảo rằng chúng tôi có một số cơ quan quản lý hoặc hệ thống quản lý rất hợp pháp có thể thúc đẩy lệnh cấm nếu tại một thời điểm nào đó trong tương lai, chúng tôi cảm thấy cần phải làm như vậy. Đây là một phần quan trọng của nó.
Mọi thứ trở nên phức tạp hơn khi nói đến các hệ thống mà chúng tôi đang phát triển và triển khai. Chúng tôi muốn có một số cơ chế kiểm tra, đánh giá và kiểm toán. Chúng tôi cũng có thể cần xem xét một số hình thức cấp phép, nhưng có rất nhiều chi tiết cần giải quyết. Hiện giờ, trong đầu tôi chưa có một kịch bản hoàn chỉnh nào. Đó là lý do tại sao tôi hy vọng chúng ta có thể truyền cảm hứng cho nhiều người hơn nữa trong việc hoạch định chính sách, với kiến thức chuyên môn về chính sách và quan hệ quốc tế, suy nghĩ về nó.
**Tencent News “Kính tiềm vọng”: Trong hệ thống trí tuệ nhân tạo hiện nay, khía cạnh nào cần được cải thiện càng sớm càng tốt để đối phó với những rủi ro và mối đe dọa tiềm ẩn? **
David Krueger: Một là độ bền (Lưu ý: Độ bền đề cập đến khả năng tồn tại của hệ thống trong các tình huống bất thường và nguy hiểm). Các hệ thống hiện tại của chúng tôi có vấn đề nghiêm trọng về độ bền, đáng chú ý nhất là vấn đề về độ bền đối nghịch, trong đó những thay đổi nhỏ đối với đầu vào, thậm chí không thể nhận thấy đối với con người, có thể có tác động lớn đến hành vi của hệ thống. Vấn đề này đã được biết đến trong khoảng 10 năm, nhưng dường như vẫn chưa có giải pháp. Điều này rất có vấn đề nếu chúng ta xem xét các hệ thống theo đuổi một số mục tiêu và cố gắng tối ưu hóa sự hiểu biết của chúng về mục tiêu đó. Bởi vì tùy thuộc vào sự hiểu biết của họ về mục tiêu, kết quả tối ưu có thể rất khác so với những gì chúng ta tưởng tượng hoặc dự định. Và những đánh giá mà chúng tôi đang thực hiện hiện nay rất khó phát hiện.
Một nguyên nhân khác là chúng ta thiếu hiểu biết về cách thức hoạt động của các hệ thống này. Chúng tôi thực sự muốn có thể hiểu cách các hệ thống này hoạt động, đó là một trong những cách tốt nhất để chúng tôi có thể dự đoán hành vi của chúng. Chúng tôi muốn đảm bảo rằng họ không hành xử theo những cách bất ngờ và nguy hiểm trong các tình huống mới. Điều này liên quan đến vấn đề độ bền.
**05 Sự tuyệt chủng của loài người còn xa không? **
**Tencent News "Kính tiềm vọng": Nhìn lại bây giờ, loài người còn lâu mới tuyệt chủng? Dự kiến là bao nhiêu năm? **
David Krueger: Jeffrey Hinton luôn nói rằng chúng ta sẽ mất 20 năm hoặc ít hơn để có được trí thông minh nhân tạo (AGI), đây là một khung thời gian hợp lý. Điều này khá giống với quan điểm của tôi.
Tôi nghĩ con người có thể bị tuyệt chủng ngay sau đó, nhưng có thể mất nhiều thời gian hơn, và tôi đoán đó là điều tôi đang cố nhấn mạnh, ngay cả khi còn hàng thập kỷ nữa, chúng ta cần bắt đầu giải quyết vấn đề đó càng sớm càng tốt.
Quay trở lại với phép loại suy biến đổi khí hậu. Chúng ta đã mất nhiều thập kỷ để bắt đầu hành động thực sự hiệu quả, nhưng vẫn chưa đủ để ngăn chặn những hậu quả thảm khốc của biến đổi khí hậu. Điều này là do nó là một vấn đề phối hợp toàn cầu phức tạp. Trí tuệ nhân tạo cũng sẽ đối mặt với tình huống tương tự. Chúng ta nên bắt đầu càng sớm càng tốt.
**Tencent News "Kính tiềm vọng": Mô hình ngôn ngữ lớn có thể mang lại AGI không? **
David Krueger: Rất nhiều người đang đặt câu hỏi này ngay bây giờ. Quan điểm của tôi phức tạp hơn. Tôi muốn nói rằng điều đó là có thể, nhưng nhiều khả năng nó sẽ cần được kết hợp với các công nghệ khác và thậm chí có thể một số công nghệ mới sẽ cần được phát triển.
**Tencent News "Kính tiềm vọng": Bạn nhìn nhận mối quan hệ giữa con người và trí tuệ nhân tạo như thế nào? Con người sẽ là một quá trình chuyển đổi thông minh? **
David Krueger: Chỉ có thời gian mới trả lời được. Tôi hy vọng là không. Nhưng bây giờ, đây là một câu hỏi mà chúng tôi vẫn có một số sáng kiến và khả năng để định hướng và quyết định tương lai sẽ phát triển như thế nào. Nếu chúng ta có thể hành động một cách thông minh và phối hợp, nếu chúng ta có thể gặp may mắn, thì con người chúng ta sẽ quyết định liệu AI có tiếp quản vào một lúc nào đó hay không.
**Tencent News "Kính tiềm vọng": Hinton có một quan điểm rất thú vị. Ông nói: Sâu bướm sẽ hút chất dinh dưỡng rồi biến đổi thành bướm Con người đã chiết xuất hàng tỷ chất dinh dưỡng nhận thức GPT-4 chính là con bướm của con người. Bạn có đồng ý với quan điểm này không? **
David Krueger: Rất thi vị, và tôi không nghĩ nó hoàn toàn chính xác, nhưng có lẽ nó đánh vào một sự thật thiết yếu nào đó rằng một hệ thống AI không nhất thiết phải học mọi thứ một cách khó khăn từ đầu. Con người cần trải qua một quá trình tiến hóa lâu dài để đạt đến trình độ thông minh của con người, nhưng hiện tại con người đã sản xuất ra tất cả các sản phẩm văn hóa này, bao gồm tất cả các văn bản trên Internet, điều này rất truyền cảm hứng cho các hệ thống AI. Như vậy, chúng không nhất thiết phải trải qua tất cả quá trình tiến hóa của chúng một lần nữa để đạt được mức độ thông minh tương tự.
**Tencent News "Kính tiềm vọng": Đây có phải là lần đầu tiên bạn đến Trung Quốc không? Ấn tượng của bạn khi đến Trung Quốc là gì? Bạn có bất cứ đề xuất nào cho sự phát triển của trí tuệ nhân tạo và các mô hình quy mô lớn ở Trung Quốc không? **
David Krueger: Đây là lần đầu tiên tôi đến Trung Quốc. Tôi mới đến sáng hôm qua. Toàn bộ chuyến thăm là gặp gỡ và nói chuyện với mọi người, mọi người rất thân thiện và tôi đã có một trải nghiệm tốt ở đây. Nhưng tôi không cảm thấy mình đã thực sự trải nghiệm Trung Quốc. Tôi chỉ gặp gỡ các nhà nghiên cứu, thật không may, đó sẽ là một chuyến đi ngắn đối với tôi, nhưng tôi hy vọng ít nhất sẽ có một cái nhìn tốt về Bắc Kinh vào ngày cuối cùng trước khi rời đi.
(Lời khuyên cho Trung Quốc) Tôi nghĩ điều quan trọng là phải suy nghĩ và hiểu về an ninh và sự liên kết. Từ những cuộc trò chuyện mà tôi đã có, rõ ràng là mọi người đã bắt tay vào việc này, ít nhất là ở một mức độ nào đó.
**Tencent News "Kính tiềm vọng": Nhiều phân cảnh trong phim "Her" đã dần hiện ra trong thế giới thực của chúng ta. Con người có cảm xúc với trí tuệ nhân tạo không? Bạn có cảm thấy gắn bó tình cảm với mô hình AI mà bạn phát triển không? **
David Krueger: Tôi không có, nhưng theo những gì tôi biết thì một số người có.
Các chatbot bạn gái trí tuệ nhân tạo tương tự cũng tồn tại và ai đó đã trở nên phụ thuộc về mặt cảm xúc vào mối quan hệ. Đây là một hệ quả đáng buồn của công nghệ này.