Stuart Russell: Mô hình lớn chỉ là một mảnh ghép riêng lẻ của câu đố AGI và vẫn còn những câu đố chưa được tìm thấy

Nguồn: The Paper

Phóng viên Wu Tianyi Thực tập sinh Chen Xiaorui

"Tôi không nghĩ cách duy nhất để hiểu về sự an toàn của AI là triển khai hàng trăm triệu bản sao của một hệ thống trong thế giới thực và xem kết quả." Con người không làm điều đó với vắc-xin, "Chúng ta phải thử nghiệm vắc-xin trước khi chúng tôi triển khai nó, bởi vì chúng tôi sẽ tiêm nó cho hàng trăm triệu người."

"Chúng tôi không hiểu các mô hình ngôn ngữ lớn và cách chúng hoạt động. Chúng tôi cần có hiểu biết này để tự tin về sự an toàn. Các kỹ thuật con người sử dụng để xây dựng các hệ thống AI không nên dựa vào lượng dữ liệu khổng lồ để đào tạo và hộp đen với nội bộ chưa biết.

Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley, đã có bài phát biểu quan trọng tại Hội nghị Triyuan Bắc Kinh năm 2023.

"Trí tuệ nhân tạo giống như một thỏi nam châm khổng lồ từ tương lai kéo chúng ta về phía trước, làm sao đảm bảo rằng chúng ta sẽ không bị trí tuệ vượt trội con người điều khiển?", ngày 10/6, Giáo sư Khoa học Máy tính, Đại học California, Berkeley, Trung tâm Trí tuệ Nhân tạo Tương thích Con người Giám đốc (Trung tâm AI tương thích với con người) Stuart Russell (Stuart Russell) đã có bài phát biểu tại Hội nghị Trí Viễn Bắc Kinh năm 2023, nói rằng việc thiết kế hệ thống trí tuệ nhân tạo phải tuân theo hai nguyên tắc. Thứ nhất, AI phải hành động vì lợi ích tốt nhất của nhân loại, thứ hai, bản thân AI không nên biết những lợi ích đó là gì.

Trong phiên đối thoại, Russell và Yao Qizhi, người đoạt giải Turing và là viện sĩ của Viện Hàn lâm Khoa học Trung Quốc, đã thảo luận về tương lai lâu dài của trí tuệ nhân tạo và mối quan hệ của nó với con người. lợi ích của mọi người nên được tính đến hợp lý."

"Trí tuệ nhân tạo: Cách tiếp cận hiện đại", do Russell đồng tác giả, đã được ca ngợi là cuốn sách giáo khoa phổ biến nhất trong lĩnh vực trí tuệ nhân tạo, được hơn 1.500 trường đại học ở 135 quốc gia áp dụng. Vào năm 2022, Hội nghị chung quốc tế về trí tuệ nhân tạo (IJCAI) sẽ trao giải thưởng Nghiên cứu xuất sắc cho Russell. cùng một lúc.

Trí tuệ nhân tạo nói chung vẫn còn xa

Tại hội nghị Bắc Kinh, Russell đã định nghĩa chung về trí tuệ nhân tạo (AGI) trong bài phát biểu có tựa đề "AI: Vài suy nghĩ?" Hệ thống trí tuệ nhân tạo vượt quá khả năng của con người trong các nhiệm vụ. Loại hệ thống trí tuệ nhân tạo này có thể học và thực hiện mọi nhiệm vụ tốt hơn và nhanh hơn con người, kể cả những nhiệm vụ mà con người không thể xử lý được, và do những lợi thế to lớn của máy móc về tốc độ, bộ nhớ, giao tiếp và băng thông, trong tương lai, trí tuệ nhân tạo nói chung sẽ được sử dụng trong hầu hết các lĩnh vực sẽ vượt xa khả năng của con người.

Vì vậy, con người cách trí tuệ nhân tạo nói chung bao xa? Russell nói rằng chúng ta vẫn còn cách xa trí tuệ nhân tạo nói chung. "Trên thực tế, vẫn còn nhiều câu hỏi quan trọng chưa được trả lời."

Russell đã chỉ ra trong bài phát biểu của mình rằng ChatGPT và GPT-4 không hiểu thế giới, cũng như không "trả lời" các câu hỏi, "Nếu trí tuệ nhân tạo nói chung là một câu đố hoàn chỉnh, thì mô hình ngôn ngữ lớn chỉ là một phần, nhưng chúng tôi không thực sự hiểu cách kết nối điều đó với các mảnh ghép khác để thực sự đạt được trí thông minh nhân tạo nói chung,” ông nói, “Tôi tin rằng thậm chí còn có những mảnh ghép còn thiếu chưa được tìm thấy.”

Theo Russell, một điểm yếu cơ bản của các hệ thống AI hiện tại là chúng sử dụng các mạch để tạo ra đầu ra. Ông lập luận: "Chúng tôi đang cố gắng loại bỏ hành vi thông minh cao độ khỏi các mạch, vốn là một dạng tính toán khá hạn chế." dữ liệu để tìm hiểu một số chức năng có thể được xác định bằng các chương trình đơn giản. Ông tin rằng hướng phát triển trong tương lai của trí tuệ nhân tạo nên là sử dụng công nghệ dựa trên biểu diễn tri thức rõ ràng.

"Bỏ vấn đề kỹ thuật sang một bên, nếu chúng ta tạo ra một trí tuệ nhân tạo nói chung. Điều gì sẽ xảy ra tiếp theo?" Nó có vẻ đáng sợ rằng nó sẽ vượt qua sức mạnh yếu ớt của chúng ta."

"Làm thế nào để chúng ta đảm bảo vĩnh viễn rằng chúng ta không bị trí tuệ nhân tạo kiểm soát? Đây là vấn đề mà chúng ta phải đối mặt - nếu chúng ta không thể tìm ra câu trả lời cho câu hỏi này, thì tôi nghĩ không còn lựa chọn nào khác ngoài việc ngừng phát triển trí tuệ nhân tạo nói chung." Russell nói.

Tháng 3 năm nay, Russell đã ký một bức thư ngỏ với hàng nghìn người, trong đó có CEO Tesla Elon Musk và "bố già AI" Geoffrey Hinton, kêu gọi ngừng đào tạo các hệ thống AI mạnh hơn GPT-4 ít nhất sáu tháng.

Russell nhấn mạnh tại cuộc họp rằng câu trả lời cho vấn đề tồn tại. Việc thiết kế một hệ thống AI phải tuân theo hai nguyên tắc. Thứ nhất, AI phải hành động vì lợi ích tốt nhất của nhân loại, thứ hai, bản thân AI không nên biết những lợi ích đó là gì. Như vậy, họ không chắc chắn về sở thích của con người và tương lai, và sự không chắc chắn này mang lại cho con người quyền kiểm soát.

Russell cho rằng mọi người cần thay đổi suy nghĩ, không theo đuổi "máy móc phải thông minh", mà tập trung vào "tính hữu ích" của máy móc để chúng phù hợp với lợi ích cơ bản của nhân loại. "Người ngoài hành tinh rất thông minh, nhưng chúng ta không nhất thiết muốn họ đến Trái đất."

Ý nghĩ về tình huynh đệ của AI và Mạnh Tử

Trong phiên đối thoại, Russell và Yao Qizhi đã có một cuộc thảo luận sâu sắc và sâu sắc.

Khi được Yao Qizhi hỏi về tương lai lâu dài của mối quan hệ giữa trí tuệ nhân tạo và con người, Russell nói rằng hiện tượng con người sử dụng AI để thỏa mãn lợi ích của bản thân, khiến AI không thể kiểm soát được, bắt nguồn từ chủ nghĩa vị lợi. một bước quan trọng trong sự tiến bộ của loài người, nhưng nó cũng dẫn đến một số vấn đề." Ví dụ, các quyết định được đưa ra như thế nào khi một quyết định ảnh hưởng đến bao nhiêu người tồn tại về thể chất? Mọi người muốn một nhóm lớn không vui lắm hay một nhóm nhỏ rất vui? "Chúng tôi không có câu trả lời hay cho những loại câu hỏi này, nhưng chúng tôi cần trả lời những câu hỏi trọng tâm về triết lý đạo đức này, bởi vì các hệ thống AI sẽ có sức mạnh to lớn và chúng tôi nên đảm bảo rằng chúng sử dụng sức mạnh đó đúng cách. "

Russell và Yao Qizhi (phải), người đoạt giải Turing và là viện sĩ của Viện Khoa học Trung Quốc, đã thảo luận về tương lai lâu dài của trí tuệ nhân tạo và mối quan hệ của nó với con người.

Russell đã trích dẫn lời nhà triết học Trung Quốc cổ đại Mạnh Tử trong câu trả lời của mình, "Mạnh Tử đã nói về khái niệm tình huynh đệ ở Trung Quốc, có nghĩa là khi đưa ra các quyết định đạo đức, lợi ích của mọi người nên được tính đến. Và sở thích của mọi người nên được đối xử bình đẳng." có một cách tiếp cận, dựa trên các hình thức phức tạp của chủ nghĩa thực dụng sở thích, có thể cho phép các hệ thống AI tính đến lợi ích của mọi người một cách hợp lý khi đưa ra quyết định thay mặt xã hội.

Russell hỏi, khi có một người và nhiều máy móc, làm thế nào để bạn đảm bảo rằng những máy móc này hợp tác với nhau để giúp đỡ con người? Điều này chạm đến những câu hỏi cơ bản của triết học đạo đức khi nhiều người có nhiều máy móc. Ông tin rằng các hệ thống AI nên được thiết kế để hoạt động thay mặt cho tất cả mọi người. "Nếu bạn muốn một hệ thống AI tuân theo mong muốn của một cá nhân, thì bạn phải chứng minh rằng hệ thống AI bị giới hạn phạm vi hoạt động đối với những mối quan tâm của cá nhân đó, rằng nó không thể gây hại cho các cá nhân khác bằng cách theo đuổi mục đích của nó. lợi ích của riêng mình vì nó không quan tâm đến các cá nhân khác. Vì vậy, tôi nghĩ mặc định rằng các hệ thống AI phải hoạt động thay cho con người."

Ngoài ra, trong cuộc thảo luận, Russell đã đề cập đến thuật ngữ kinh tế "hàng hóa có vị trí", "hàng hóa có vị trí" đề cập đến việc mọi người không coi trọng bản thân các mặt hàng mà là ý nghĩa ngầm của chúng là vượt trội so với những thứ khác. "Tại sao giải Nobel lại có giá trị? Bởi vì không ai khác có nó, và nó chứng tỏ rằng bạn thông minh hơn hầu hết mọi người trên thế giới", ông nói.

"Bản chất của hàng hóa vị trí là theo một nghĩa nào đó, trò chơi có tổng bằng không. Nói một cách đơn giản, không phải ai cũng lọt vào top 1 phần trăm. Vì vậy, nếu bạn đạt được giá trị cá nhân, niềm tự hào khi là phần trăm 1. Chúng tôi không thể cho điều đó niềm tự hào và lòng tự trọng cho mọi người,” Russell nói.

Vì vậy, các hệ thống AI có nên tính đến hàng hóa theo vị trí khi đưa ra quyết định thay mặt xã hội không? "Nếu chúng ta nói không nên, điều đó sẽ tạo ra một sự thay đổi lớn trong cách xã hội vận hành. Đó là một vấn đề khó khăn hơn nhiều. Tôi nghĩ rằng rất nhiều xích mích nội bộ trong xã hội thực sự là do những hàng hóa địa vị mà đơn giản là không thể gây ra' không được đạt được bởi tất cả mọi người."

NGUY HIỂM NHƯ MỘT THUẬT TOÁN TRUYỀN THÔNG XÃ HỘI

Yao Qizhi đã hỏi liệu trong tương lai có thể phát triển một "danh sách trắng" cho phép sử dụng các hệ thống AI để làm những việc có lợi cho sức khỏe con người hay không, chẳng hạn như sử dụng các phương pháp AI để thiết kế thuốc và giải quyết các vấn đề về ung thư.

Russell cho biết K. Eric Drexler, một trong những người sáng lập công nghệ nano, đã nghiên cứu về an toàn AI trong vài năm qua và ông đã đề xuất các dịch vụ AI toàn diện (Comprehensive AI services, CAIS), tức là các hệ thống trí tuệ nhân tạo được không được xây dựng cho các mục tiêu chung, mà để giải quyết các vấn đề cụ thể, hẹp, chẳng hạn như gấp protein, dự đoán lưu lượng truy cập, v.v. Rủi ro quy mô lớn do các hệ thống này gây ra là tương đối nhỏ so với trí tuệ nhân tạo nói chung.

Russell nói: "Trong ngắn hạn, đây là một cách tiếp cận hợp lý", nhưng "Tôi không nghĩ cách duy nhất để hiểu được sự an toàn của trí tuệ nhân tạo là triển khai hàng trăm triệu bản sao của một hệ thống trong thế giới thực và quan sát kết quả." Anh ấy nói, Con người sẽ không làm điều này với vắc xin, "Chúng tôi phải thử nghiệm nó trước khi triển khai, bởi vì chúng tôi sẽ tiêm nó cho hàng trăm triệu người."

Do đó, hiện tại cần nhiều công việc hơn để đảm bảo an toàn cho những người sử dụng các hệ thống này. Russell lưu ý rằng các hệ thống AI có khả năng thay đổi quan điểm và cảm xúc của hàng trăm triệu người thông qua đối thoại. Các công ty công nghệ như OpenAI nên ngừng phát hành các hệ thống AI mới cho hàng trăm triệu người mà không nói với họ rằng những hệ thống này có thể thao túng và ảnh hưởng đến suy nghĩ và hành vi của con người thông qua đối thoại, dẫn đến một số hậu quả thảm khốc, chẳng hạn như chiến tranh hạt nhân hoặc thảm họa khí hậu. "Nếu bạn có thể nói chuyện với hàng trăm triệu người, bạn có thể thuyết phục hàng trăm triệu người đó ít thân thiện hơn với các quốc gia khác và bạn có thể thuyết phục mọi người bớt quan tâm đến biến đổi khí hậu."

Russell nói: "Tình huống này tương tự như các thuật toán của mạng xã hội và chúng ta thậm chí không nhận ra rằng nó đang thay đổi diễn ngôn, tình cảm của công chúng cũng như cách chúng ta nhìn nhận người khác và tương lai, điều này rất nguy hiểm." phát hiện các vật thể bên trong, khiến AI đẩy chúng ta theo hướng này."

Vậy, làm thế nào để đảm bảo tính an toàn và khả năng kiểm soát của công nghệ trí tuệ nhân tạo?

"Nếu AI mạnh bằng hoặc mạnh hơn vũ khí hạt nhân, chúng ta có thể cần phải quản lý nó theo cách tương tự." Russell nói, "Trước khi phát minh ra công nghệ vũ khí hạt nhân, có những nhà vật lý tin rằng chúng ta cần phải có một cấu trúc quản trị để đảm bảo rằng công nghệ chỉ được sử dụng vì lợi ích con người chứ không phải dưới dạng vũ khí. Thật không may, cả cộng đồng vật lý và chính phủ đều không lắng nghe ý kiến của họ". và các quốc gia nên Phấn đấu bắt đầu sự hợp tác về an toàn AI này càng sớm càng tốt.

Russell tin rằng việc đảm bảo những lợi ích tiềm năng của AI đòi hỏi những thay đổi toàn diện, không chỉ quy định và thiết lập các quy tắc và tiêu chuẩn an toàn nghiêm ngặt, mà còn là sự thay đổi văn hóa trong toàn bộ lĩnh vực AI.

Ông đưa ra gợi ý: Đầu tiên, hãy xây dựng một hệ thống AI mà con người có thể hiểu được. "Chúng tôi không hiểu các mô hình ngôn ngữ lớn và cách chúng hoạt động. Chúng tôi cần có sự hiểu biết này để có niềm tin vào sự an toàn. Các kỹ thuật mà con người sử dụng để xây dựng hệ thống AI không nên dựa vào lượng dữ liệu khổng lồ để đào tạo và hộp đen với nội bộ chưa biết."

Hơn nữa, việc ngăn chặn việc triển khai các hệ thống AI không an toàn, đặc biệt là bởi các tác nhân độc hại, "đòi hỏi những thay đổi đối với toàn bộ hệ sinh thái kỹ thuật số, bắt đầu từ cách máy tính vận hành, tức là máy tính không chạy phần mềm mà nó cho là không an toàn."

Kết thúc cuộc thảo luận, Russell kết luận rằng trí tuệ nhân tạo là một ngành khoa học nên trước khi sử dụng, bạn cần hiểu cấu trúc bên trong và nguyên lý hoạt động của nó. "Giống như chúng ta chế tạo máy bay, chúng ta có thể biết chúng ở trên không như thế nào dựa trên hình dạng vật lý và động cơ, v.v." Ông nói, "Hiện tại, đặc biệt là trong lĩnh vực mô hình ngôn ngữ lớn, trí tuệ nhân tạo vẫn chưa đạt được chúng ta không biết làm thế nào chúng tạo ra những đặc tính này. Thực tế, chúng ta thậm chí còn không biết chúng có những đặc tính gì, vì vậy chúng ta không thể kết nối những hiện tượng này với hoạt động bên trong của chúng”. cần được phát triển hơn nữa.Khoa học khám phá.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)