Sự tiến hóa của các mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có mức độ kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với việc gọi nhẹ trong giai đoạn suy luận, quá trình huấn luyện cần một đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học tập liên bang và huấn luyện phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được một hệ thống kiểm soát thống nhất phối hợp hoạt động. Cấu trúc hợp tác sâu sắc này giúp chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương thức chính của việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân chia nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy tính để cùng thực hiện, nhằm vượt qua các rào cản về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có tính chất "Phi tập trung", nhưng tổng thể vẫn được kiểm soát, điều phối và đồng bộ bởi các tổ chức trung tâm, thường hoạt động trong môi trường mạng LAN tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
Ống dẫn song song: Thực hiện tuần tự theo giai đoạn, cải thiện thông lượng
Song song tensor: Phân đoạn ma trận tinh vi, nâng cao độ mịn của song song
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều "văn phòng" nhân viên hợp tác hoàn thành nhiệm vụ. Hiện nay hầu hết các mô hình lớn chủ đạo (GPT-4, Gemini, LLaMA và ) đều hoàn thành việc đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở hơn và chống kiểm duyệt tốt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức thúc đẩy phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong việc phân tách và phối hợp thiết bị: Khó khăn trong việc phối hợp thiết bị khác nhau, hiệu quả phân tách nhiệm vụ thấp.
Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng
Thiếu thực thi tin cậy: Thiếu môi trường thực thi tin cậy, khó xác minh xem nút có thực sự tham gia vào tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung tâm, phân phối nhiệm vụ, cơ chế phục hồi bất thường phức tạp
Huấn luyện phi tập trung có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, bảo mật mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng khả năng "phối hợp hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu đầu tiên.
Học liên bang như một hình thái chuyển tiếp giữa phân phối và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ, tập hợp các tham số mô hình một cách tập trung, phù hợp với các tình huống chú trọng đến tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời sở hữu những ưu điểm về phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Nó có thể được xem như một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối nhẹ nhàng, thích hợp hơn như một kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
( Bảng so sánh toàn cảnh về các phương thức huấn luyện AI) Kiến trúc công nghệ × Khuyến khích tin cậy × Đặc điểm ứng dụng###
( Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Xét từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó một cách tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút dị thể và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ ) như y tế, tài chính, dữ liệu nhạy cảm ### bị hạn chế bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác ( như mô hình đóng nguồn của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ) thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song, và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên quan đến căn chỉnh hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo cách crowdsourcing, đào tạo các mô hình nền tảng nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán dị biệt, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
)# Phi tập trung đào tạo nhiệm vụ thích ứng tổng quan bảng
Phi tập trung đào tạo các dự án kinh điển phân tích
Hiện tại, trong lĩnh vực đào tạo Phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
(# Prime Intellect: Người tiên phong trong mạng lưới hợp tác học tăng cường có thể xác minh được lộ trình đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
Một, Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị các mô-đun chính
![Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp###
Hai, Giải thích cơ chế đào tạo Prime Intellect quan trọng
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung không đồng bộ
PRIME-RL là khung mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó áp dụng học tăng cường như đối tượng thích ứng ưu tiên, tách rời cấu trúc quá trình đào tạo, suy luận và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành chu trình nhiệm vụ độc lập tại chỗ, và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác minh và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm bớt độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC###Giám sát đáng tin cậy & Kiểm tra địa phương( là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hợp lệ dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ nhàng thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới chính để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông bị hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật từng phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện rõ rệt khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và liên tục đào tạo lặp lại.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa truyền thông được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối phó với các thách thức thường gặp trong việc đào tạo Phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo Phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL)Prime Collective Communication Library( là thư viện giao tiếp nhẹ được Prime Intellect phát triển dành riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt thích ứng của thư viện giao tiếp truyền thống) như NCCL, Gloo( trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối" của cơ sở giao tiếp cho việc xây dựng một mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
Ba, Mạng kích thích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác thực
Nút đào tạo: Thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quỹ đạo
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia tính toán phần thưởng và tổng hợp chiến lược.
Quá trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, huấn luyện nút, xác minh quỹ đạo, tập hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi huấn luyện thực".
![AI huấn luyện mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung])https://img-cdn.gateio.im/webp-social/moments-04fc0663a97f322d1554535ca56b4c1c.webp(
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
7
Chia sẻ
Bình luận
0/400
LayerZeroHero
· 11giờ trước
Đào tạo đào tạo Ai mà không bắt đầu từ số không
Xem bản gốcTrả lời0
PensionDestroyer
· 11giờ trước
Ai nói là những người làm bài ở thị trấn không được chứ?
Xem bản gốcTrả lời0
TokenBeginner'sGuide
· 11giờ trước
Nhắc nhở: Đào tạo phân phối tuy có triển vọng, nhưng theo thống kê dữ liệu nghiên cứu, 85% dự án khó vượt qua rào cản đồng bộ hệ thống, khuyến nghị theo dõi sự tuân thủ an toàn dữ liệu.
Xem bản gốcTrả lời0
NFTRegretter
· 11giờ trước
Còn không bằng tập trung huấn luyện... rảnh rỗi.
Xem bản gốcTrả lời0
ApeWithNoFear
· 11giờ trước
Thật tuyệt vời, còn không bằng mang đi đào eth
Xem bản gốcTrả lời0
ThesisInvestor
· 11giờ trước
Học tập liên bang lại sắp có tin lớn?
Xem bản gốcTrả lời0
NFTArtisanHQ
· 11giờ trước
sự phi tập trung mô hình thực sự là những tác phẩm sẵn có của Duchamp nhưng làm cho nó thành AI... thật hấp dẫn thật lòng mà nói
Tiến hóa của các mô hình đào tạo AI: từ kiểm soát tập trung đến sự chuyển biến công nghệ hợp tác phi tập trung.
Sự tiến hóa của các mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có mức độ kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với việc gọi nhẹ trong giai đoạn suy luận, quá trình huấn luyện cần một đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học tập liên bang và huấn luyện phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được một hệ thống kiểm soát thống nhất phối hợp hoạt động. Cấu trúc hợp tác sâu sắc này giúp chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương thức chính của việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân chia nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy tính để cùng thực hiện, nhằm vượt qua các rào cản về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có tính chất "Phi tập trung", nhưng tổng thể vẫn được kiểm soát, điều phối và đồng bộ bởi các tổ chức trung tâm, thường hoạt động trong môi trường mạng LAN tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều "văn phòng" nhân viên hợp tác hoàn thành nhiệm vụ. Hiện nay hầu hết các mô hình lớn chủ đạo (GPT-4, Gemini, LLaMA và ) đều hoàn thành việc đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở hơn và chống kiểm duyệt tốt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức thúc đẩy phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Huấn luyện phi tập trung có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, bảo mật mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng khả năng "phối hợp hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu đầu tiên.
Học liên bang như một hình thái chuyển tiếp giữa phân phối và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ, tập hợp các tham số mô hình một cách tập trung, phù hợp với các tình huống chú trọng đến tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời sở hữu những ưu điểm về phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Nó có thể được xem như một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối nhẹ nhàng, thích hợp hơn như một kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
( Bảng so sánh toàn cảnh về các phương thức huấn luyện AI) Kiến trúc công nghệ × Khuyến khích tin cậy × Đặc điểm ứng dụng###
( Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Xét từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó một cách tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút dị thể và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ ) như y tế, tài chính, dữ liệu nhạy cảm ### bị hạn chế bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác ( như mô hình đóng nguồn của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ) thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song, và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên quan đến căn chỉnh hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo cách crowdsourcing, đào tạo các mô hình nền tảng nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán dị biệt, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
)# Phi tập trung đào tạo nhiệm vụ thích ứng tổng quan bảng
Phi tập trung đào tạo các dự án kinh điển phân tích
Hiện tại, trong lĩnh vực đào tạo Phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
(# Prime Intellect: Người tiên phong trong mạng lưới hợp tác học tăng cường có thể xác minh được lộ trình đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
Một, Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị các mô-đun chính
![Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp###
Hai, Giải thích cơ chế đào tạo Prime Intellect quan trọng
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung không đồng bộ
PRIME-RL là khung mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó áp dụng học tăng cường như đối tượng thích ứng ưu tiên, tách rời cấu trúc quá trình đào tạo, suy luận và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành chu trình nhiệm vụ độc lập tại chỗ, và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác minh và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm bớt độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC###Giám sát đáng tin cậy & Kiểm tra địa phương( là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hợp lệ dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ nhàng thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới chính để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông bị hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật từng phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện rõ rệt khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và liên tục đào tạo lặp lại.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa truyền thông được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối phó với các thách thức thường gặp trong việc đào tạo Phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo Phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL)Prime Collective Communication Library( là thư viện giao tiếp nhẹ được Prime Intellect phát triển dành riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt thích ứng của thư viện giao tiếp truyền thống) như NCCL, Gloo( trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối" của cơ sở giao tiếp cho việc xây dựng một mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
Ba, Mạng kích thích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quá trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, huấn luyện nút, xác minh quỹ đạo, tập hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi huấn luyện thực".
![AI huấn luyện mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung])https://img-cdn.gateio.im/webp-social/moments-04fc0663a97f322d1554535ca56b4c1c.webp(
**