Chiếc chén thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên lớn nhất và có rào cản kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Xét từ góc độ kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và đạt hiệu suất tối ưu cho cơ chế chịu lỗi, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong việc huấn luyện các mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình và phân phối đến nhiều máy tính để hợp tác thực hiện, nhằm vượt qua các hạn chế về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính thống nhất điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút huấn luyện các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
Đường ống song song: Thực hiện tuần tự từng giai đoạn, tăng thông lượng
Phân tán tensor: tinh chỉnh phân đoạn tính toán ma trận, nâng cao độ tinh vi của sự song song.
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực thi phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều "văn phòng" nhân viên hợp tác hoàn thành nhiệm vụ. Hiện nay, hầu hết các mô hình lớn chính đều được hoàn thành huấn luyện theo cách này.
Phi tập trung huấn luyện thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau phối hợp hoàn thành nhiệm vụ huấn luyện mà không có điều phối viên trung tâm, thường thông qua giao thức thúc đẩy phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong thiết bị không đồng nhất và phân chia: Khó khăn trong việc phối hợp thiết bị không đồng nhất, hiệu quả phân chia nhiệm vụ thấp
Đường truyền hiệu quả bị tắc nghẽn: Kết nối mạng không ổn định, tắc nghẽn đồng bộ gradient rõ rệt
Thiếu khả năng thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh liệu các nút có thực sự tham gia tính toán hay không
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung tâm, việc phân phối nhiệm vụ và cơ chế hoàn nguyên bất thường phức tạp
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "phi tập trung huấn luyện quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân phối và Phi tập trung, nhấn mạnh việc lưu giữ dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các kịch bản chú trọng đến tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế về phân tán dữ liệu trong đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không hoàn toàn có đặc tính mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các kịch bản tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối nhẹ nhàng, thích hợp hơn cho việc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và lộ trình thực tế
Xét từ góc độ phương pháp huấn luyện, huấn luyện phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực kỳ cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút phi tập trung, không tin cậy. Ví dụ, huấn luyện mô hình lớn thường phụ thuộc vào bộ nhớ lớn, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh bị hạn chế bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi những nhiệm vụ thiếu cơ sở khuyến khích hợp tác lại thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của huấn luyện phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ dàng song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau liên kết hành vi, nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có đặc điểm song song cao, liên kết thấp và chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, các bộ tối ưu phân tán và những phương thức khác.
Phi tập trung đào tạo các dự án kinh điển
Hiện nay, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo hơn trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được tiến triển ban đầu trong việc hiện thực hóa kỹ thuật. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đứng sau năm dự án này, và sẽ thảo luận thêm về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Huấn luyện theo dõi có thể xác minh được mạng lưới hợp tác tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống đào tạo AI Phi tập trung có thể xác minh, tính mở và cơ chế khuyến khích đầy đủ.
Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
Giải thích chi tiết về cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được tùy chỉnh bởi Prime Intellect cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như đối tượng ưu tiên thích ứng, giải cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành chu trình nhiệm vụ một cách độc lập tại địa phương, và phối hợp với cơ chế xác minh và tập hợp thông qua giao diện chuẩn. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, không chỉ giảm độ phức tạp của hệ thống mà còn đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng xác minh đào tạo được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ nhàng thông qua việc phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình đào tạo thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng đào tạo mà không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có động lực.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số không đồng bộ
SHARDCAST là giao thức truyền bá và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền bá gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và sự tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và lặp lại đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect triển khai độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ phụ thuộc vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế khôi phục điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và các thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông hợp tác
PCCL là thư viện truyền thông nhẹ được Prime Intellect thiết kế đặc biệt cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết các nút thắt thích ứng của thư viện truyền thông truyền thống trong các thiết bị dị thể và mạng băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng truyền thông bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu băng thông của mạng huấn luyện và tính tương thích thiết bị, mở ra "cây cầu cuối cùng" cho cơ sở hạ tầng truyền thông để xây dựng mạng huấn luyện hợp tác thực sự mở và không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút đào tạo: Thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Nút xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia tính toán phần thưởng cũng như tổng hợp chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác thực quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
INTELLECT-2: phát hành mô hình đào tạo phi tập trung đầu tiên có thể xác minh
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được huấn luyện thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành nhờ sự hợp tác của hơn 100 nút GPU không đồng nhất trải dài trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian huấn luyện vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là bước triển khai hệ thống đầu tiên của mô hình "huấn luyện chính là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu lần đầu tiên mạng lưới huấn luyện phi tập trung đạt được sự mở hóa, tính xác thực và kinh tế trong quá trình huấn luyện.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
17 thích
Phần thưởng
17
6
Chia sẻ
Bình luận
0/400
MetaDreamer
· 20giờ trước
Cơn sóng mới của đào tạo phi tập trung!
Xem bản gốcTrả lời0
CryptoMom
· 20giờ trước
Lại bị kẹt với khả năng tính toán nữa.
Xem bản gốcTrả lời0
CryptoAdventurer
· 20giờ trước
Lại đang vẽ BTC rồi, hương vị này quá mạnh.
Xem bản gốcTrả lời0
HappyMinerUncle
· 20giờ trước
Khả năng tính toán quý giá đến mức này đây.
Xem bản gốcTrả lời0
retroactive_airdrop
· 20giờ trước
Nghe có vẻ hơi mệt.
Xem bản gốcTrả lời0
BearMarketSurvivor
· 20giờ trước
Lại có khả năng tính toán thì có thể ra ngoài rồi? Chơi không nổi.
Phi tập trung AI huấn luyện khám phá: Những đột phá tiên phong của Prime Intellect và Pluralis
Chiếc chén thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên lớn nhất và có rào cản kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Xét từ góc độ kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và đạt hiệu suất tối ưu cho cơ chế chịu lỗi, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong việc huấn luyện các mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình và phân phối đến nhiều máy tính để hợp tác thực hiện, nhằm vượt qua các hạn chế về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính thống nhất điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực thi phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều "văn phòng" nhân viên hợp tác hoàn thành nhiệm vụ. Hiện nay, hầu hết các mô hình lớn chính đều được hoàn thành huấn luyện theo cách này.
Phi tập trung huấn luyện thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau phối hợp hoàn thành nhiệm vụ huấn luyện mà không có điều phối viên trung tâm, thường thông qua giao thức thúc đẩy phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "phi tập trung huấn luyện quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân phối và Phi tập trung, nhấn mạnh việc lưu giữ dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các kịch bản chú trọng đến tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế về phân tán dữ liệu trong đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không hoàn toàn có đặc tính mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các kịch bản tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối nhẹ nhàng, thích hợp hơn cho việc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và lộ trình thực tế
Xét từ góc độ phương pháp huấn luyện, huấn luyện phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực kỳ cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút phi tập trung, không tin cậy. Ví dụ, huấn luyện mô hình lớn thường phụ thuộc vào bộ nhớ lớn, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh bị hạn chế bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi những nhiệm vụ thiếu cơ sở khuyến khích hợp tác lại thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của huấn luyện phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ dàng song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau liên kết hành vi, nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có đặc điểm song song cao, liên kết thấp và chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, các bộ tối ưu phân tán và những phương thức khác.
Phi tập trung đào tạo các dự án kinh điển
Hiện nay, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo hơn trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được tiến triển ban đầu trong việc hiện thực hóa kỹ thuật. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đứng sau năm dự án này, và sẽ thảo luận thêm về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Huấn luyện theo dõi có thể xác minh được mạng lưới hợp tác tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống đào tạo AI Phi tập trung có thể xác minh, tính mở và cơ chế khuyến khích đầy đủ.
Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
Giải thích chi tiết về cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được tùy chỉnh bởi Prime Intellect cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như đối tượng ưu tiên thích ứng, giải cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành chu trình nhiệm vụ một cách độc lập tại địa phương, và phối hợp với cơ chế xác minh và tập hợp thông qua giao diện chuẩn. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, không chỉ giảm độ phức tạp của hệ thống mà còn đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng xác minh đào tạo được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ nhàng thông qua việc phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình đào tạo thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng đào tạo mà không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có động lực.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số không đồng bộ
SHARDCAST là giao thức truyền bá và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền bá gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và sự tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và lặp lại đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect triển khai độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ phụ thuộc vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế khôi phục điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và các thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông hợp tác
PCCL là thư viện truyền thông nhẹ được Prime Intellect thiết kế đặc biệt cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết các nút thắt thích ứng của thư viện truyền thông truyền thống trong các thiết bị dị thể và mạng băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng truyền thông bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu băng thông của mạng huấn luyện và tính tương thích thiết bị, mở ra "cây cầu cuối cùng" cho cơ sở hạ tầng truyền thông để xây dựng mạng huấn luyện hợp tác thực sự mở và không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác thực quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
INTELLECT-2: phát hành mô hình đào tạo phi tập trung đầu tiên có thể xác minh
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được huấn luyện thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành nhờ sự hợp tác của hơn 100 nút GPU không đồng nhất trải dài trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian huấn luyện vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là bước triển khai hệ thống đầu tiên của mô hình "huấn luyện chính là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu lần đầu tiên mạng lưới huấn luyện phi tập trung đạt được sự mở hóa, tính xác thực và kinh tế trong quá trình huấn luyện.