Chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên lớn nhất và có rào cản kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ nhàng, quá trình đào tạo cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương thức đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được hệ thống điều khiển thống nhất phối hợp hoạt động. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chống lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với ưu điểm hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính hiện nay trong việc huấn luyện mô hình lớn, cốt lõi của nó là phân chia nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy tính để thực hiện phối hợp, nhằm vượt qua các điểm nghẽn về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, để nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
Phân phối mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ
Đường ống song song: Thực hiện tuần tự theo giai đoạn, tăng cường thông lượng
Tính toán song song tensor: phân chia ma trận tinh vi, nâng cao độ mịn của song song
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều hoàn thành huấn luyện theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở hơn và đặc tính chống kiểm duyệt. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức để điều phối phân phát nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong thiết bị đồng nhất và phân chia: Khó khăn trong việc phối hợp thiết bị đồng nhất, hiệu quả phân chia nhiệm vụ thấp
Nút thắt hiệu suất giao tiếp: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ rệt
Thiếu khả năng thực thi tin cậy: Thiếu môi trường thực thi tin cậy, khó xác minh xem nút có thực sự tham gia vào việc tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung tâm, việc phân phối nhiệm vụ và cơ chế khôi phục bất thường phức tạp
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng việc liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Có thể coi đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối ôn hòa, phù hợp hơn với kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó không tự nhiên phù hợp để hoàn thành hiệu quả giữa các nút khác nhau và không cần tin tưởng. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và các hạn chế chủ quyền bị giới hạn bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác lại thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành các hạn chế thực tế hiện tại của đào tạo phi tập trung.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung cho thấy triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau hành vi, đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết hợp thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể nhìn thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Huấn luyện đường đi có thể xác minh của mạng hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
02、Giải thích chi tiết cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ phân tách
PRIME-RL là khung mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên, tách rời cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng lặp nhiệm vụ một cách độc lập tại địa phương, và hợp tác thông qua các giao diện tiêu chuẩn hóa với cơ chế xác thực và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi huấn luyện nhẹ
TOPLOC là cơ chế cốt lõi có thể xác minh được mà Prime Intellect đưa ra, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng huấn luyện không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho các môi trường mạng thực tế không đồng bộ, hạn chế băng thông và tình trạng nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và liên tục trong quá trình đào tạo.
OpenDiLoCo: Khung giao tiếp bất đối xứng thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối phó với những thách thức phổ biến trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí giao tiếp cao do đồng bộ toàn cục, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành việc huấn luyện mô hình phối hợp. Kết hợp với cập nhật bất đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo giúp GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, cải thiện đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và khả năng tương thích thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
03、Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên những đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường huấn luyện, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác thực
Nút huấn luyện: thực hiện huấn luyện cục bộ, gửi cập nhật trọng số và quỹ đạo quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác thực tính xác thực của hành vi đào tạo và tham gia vào tính toán phần thưởng cũng như tổng hợp chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực sự".
04、INTELLECT-2: Phát hành mô hình huấn luyện phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình lớn học tăng cường đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và không đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành bởi hơn 100 nút GPU dị thể trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, thể hiện tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự hiện thực hóa hệ thống đầu tiên của phương pháp "đào tạo chính là sự đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu lần đầu tiên mạng lưới đào tạo phi tập trung thực hiện việc đào tạo.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
17 thích
Phần thưởng
17
9
Chia sẻ
Bình luận
0/400
GasFeeCrying
· 07-09 05:26
Công nghiệp nặng gì mà không phải là xếp card đồ họa.
Xem bản gốcTrả lời0
WagmiWarrior
· 07-08 05:48
Đây chính là phiên bản AI của pow phải không?
Xem bản gốcTrả lời0
MEVSandwichVictim
· 07-07 10:38
Lại炒概念 có ích gì
Xem bản gốcTrả lời0
TradFiRefugee
· 07-06 14:34
Cuốn điên rồi sao
Xem bản gốcTrả lời0
DefiSecurityGuard
· 07-06 14:33
cờ đỏ: đào tạo tập trung = điểm thất bại duy nhất. thật không thể tin vào những rủi ro an ninh này...
Xem bản gốcTrả lời0
RooftopReserver
· 07-06 14:28
Dữ liệu khai thác thảm họa mỏ hiểu một chút~
Xem bản gốcTrả lời0
EthSandwichHero
· 07-06 14:28
Ôi, trong giới này đã bắt đầu cạnh tranh AI rồi sao?
Phi tập trung AI đào tạo của những khám phá tiên phong: từ tập trung đến những bước đột phá đổi mới của Prime Intellect
Chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên lớn nhất và có rào cản kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ nhàng, quá trình đào tạo cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương thức đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được hệ thống điều khiển thống nhất phối hợp hoạt động. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chống lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với ưu điểm hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính hiện nay trong việc huấn luyện mô hình lớn, cốt lõi của nó là phân chia nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy tính để thực hiện phối hợp, nhằm vượt qua các điểm nghẽn về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, để nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều hoàn thành huấn luyện theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở hơn và đặc tính chống kiểm duyệt. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức để điều phối phân phát nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng việc liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Có thể coi đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối ôn hòa, phù hợp hơn với kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó không tự nhiên phù hợp để hoàn thành hiệu quả giữa các nút khác nhau và không cần tin tưởng. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và các hạn chế chủ quyền bị giới hạn bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác lại thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành các hạn chế thực tế hiện tại của đào tạo phi tập trung.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung cho thấy triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau hành vi, đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết hợp thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể nhìn thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Huấn luyện đường đi có thể xác minh của mạng hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
02、Giải thích chi tiết cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ phân tách
PRIME-RL là khung mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên, tách rời cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng lặp nhiệm vụ một cách độc lập tại địa phương, và hợp tác thông qua các giao diện tiêu chuẩn hóa với cơ chế xác thực và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi huấn luyện nhẹ
TOPLOC là cơ chế cốt lõi có thể xác minh được mà Prime Intellect đưa ra, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng huấn luyện không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho các môi trường mạng thực tế không đồng bộ, hạn chế băng thông và tình trạng nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và liên tục trong quá trình đào tạo.
OpenDiLoCo: Khung giao tiếp bất đối xứng thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối phó với những thách thức phổ biến trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí giao tiếp cao do đồng bộ toàn cục, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành việc huấn luyện mô hình phối hợp. Kết hợp với cập nhật bất đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo giúp GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, cải thiện đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và khả năng tương thích thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
03、Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên những đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực sự".
04、INTELLECT-2: Phát hành mô hình huấn luyện phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình lớn học tăng cường đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và không đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành bởi hơn 100 nút GPU dị thể trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, thể hiện tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự hiện thực hóa hệ thống đầu tiên của phương pháp "đào tạo chính là sự đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu lần đầu tiên mạng lưới đào tạo phi tập trung thực hiện việc đào tạo.