The Surge: Tương lai khả năng mở rộng của Ethereum
Trong lộ trình của Ethereum, ban đầu có hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Hai chiến lược này cuối cùng đã hòa nhập với nhau, tạo thành lộ trình tập trung vào Rollup, cho đến nay vẫn là chiến lược mở rộng của Ethereum.
Lộ trình tập trung vào Rollup đã đưa ra sự phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp nền tảng mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ giúp hệ sinh thái mở rộng. Mô hình này tồn tại ở khắp nơi trong xã hội: sự tồn tại của hệ thống tòa án (L1) nhằm bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) xây dựng trên cơ sở này, thúc đẩy nhân loại tiến lên.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những thành tựu quan trọng: với việc ra mắt blobs EIP-4844, băng thông dữ liệu của Ethereum L1 đã tăng đáng kể, nhiều EVM Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với các quy tắc và logic riêng. Sự đa dạng và đa dạng hóa trong cách thực hiện mảnh giờ đây đã trở thành hiện thực. Tuy nhiên, con đường này cũng đối mặt với một số thách thức độc đáo. Do đó, nhiệm vụ hiện tại của chúng tôi là hoàn thành lộ trình tập trung vào Rollup, giải quyết những vấn đề này, đồng thời duy trì sự vững mạnh và phi tập trung của Ethereum L1.
The Surge: Mục tiêu quan trọng
Tương lai Ethereum có thể đạt hơn 100.000 TPS thông qua L2;
Giữ cho L1 được phi tập trung và mạnh mẽ;
Ít nhất một số L2 hoàn toàn kế thừa các thuộc tính cốt lõi của Ethereum ( như không cần tin cậy, mở, chống kiểm duyệt );
Ethereum nên cảm thấy như một hệ sinh thái thống nhất, chứ không phải 34 chuỗi khối khác nhau.
Nội dung chương này
Nghịch lý tam giác khả năng mở rộng
Tiến triển hơn nữa về mẫu khả dụng dữ liệu
Nén dữ liệu
Plasma tổng quát
Hệ thống chứng minh L2 trưởng thành
Cải tiến khả năng tương tác giữa các L2
Mở rộng thực thi trên L1
Nghịch lý tam giác khả năng mở rộng
Tam giác nghịch lý về khả năng mở rộng cho rằng có sự mâu thuẫn giữa ba đặc điểm của blockchain: phi tập trung (, chi phí chạy nút thấp ), khả năng mở rộng ( số lượng giao dịch được xử lý nhiều ) và an ninh ( kẻ tấn công cần phải phá hủy một phần lớn các nút trong mạng để làm cho một giao dịch đơn lẻ thất bại ).
Cần lưu ý rằng, nghịch lý tam giác không phải là một định lý, bài viết giới thiệu nghịch lý tam giác cũng không kèm theo chứng minh toán học. Nó đưa ra một lập luận toán học mang tính hướng dẫn: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi xử lý k*N giao dịch mỗi giây, thì (i) mỗi giao dịch chỉ có thể được nhìn thấy bởi 1/k nút, có nghĩa là kẻ tấn công chỉ cần phá hoại một số nút để thực hiện một giao dịch ác ý, hoặc (ii) nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không phi tập trung. Mục đích của bài viết này không phải là chứng minh rằng việc phá vỡ nghịch lý tam giác là không thể; ngược lại, nó nhằm mục đích chỉ ra rằng việc phá vỡ nghịch lý tam giác là khó khăn, và nó cần phải vượt ra ngoài khuôn khổ tư duy mà lập luận này ngụ ý.
Trong nhiều năm, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được tam giác mâu thuẫn mà không cần thay đổi kiến trúc một cách căn bản, thường là bằng cách áp dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn có tính chất gây hiểu nhầm, việc chạy nút trên những chuỗi này khó hơn nhiều so với việc chạy nút trên Ethereum. Bài viết này sẽ khám phá lý do tại sao lại như vậy, và tại sao chỉ với kỹ thuật phần mềm của khách hàng L1 cũng không thể mở rộng Ethereum?
Tuy nhiên, sự kết hợp giữa sampling khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một lượng dữ liệu nhất định là khả dụng trong khi chỉ tải xuống một lượng dữ liệu nhỏ và thực hiện một lượng tính toán rất ít. SNARKs là không cần tin cậy. Sampling khả dụng dữ liệu có một mô hình tin cậy tinh tế few-of-N, nhưng nó giữ lại các đặc điểm cơ bản mà chuỗi không thể mở rộng có, đó là ngay cả một cuộc tấn công 51% cũng không thể buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ khéo léo để chuyển giao trách nhiệm về khả năng giám sát dữ liệu cho người dùng theo cách tương thích với động lực. Ngay từ năm 2017-2019, khi chúng ta chỉ có chứng minh gian lận như một phương tiện để mở rộng khả năng tính toán, Plasma đã bị hạn chế rất nhiều về việc thực thi an toàn, nhưng với sự phổ biến của SNARKs, kiến trúc Plasma trở nên khả thi hơn cho nhiều tình huống sử dụng hơn bao giờ hết.
Tiến triển hơn nữa trong việc lấy mẫu tính khả dụng của dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi nâng cấp Dencun được triển khai, chuỗi khối Ethereum sẽ có 3 blob khoảng 125 kB cho mỗi slot 12 giây, hoặc băng thông dữ liệu khả dụng khoảng 375 kB cho mỗi slot. Giả sử dữ liệu giao dịch được công bố trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta thêm vào giá trị tối đa lý thuyết của calldata Ethereum (: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte ), thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một cải tiến lớn đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có nhiều khả năng mở rộng hơn. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
Nó là gì? Cách hoạt động ra sao?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253. Chúng tôi phát sóng các phần của đa thức, trong đó mỗi phần chứa 16 giá trị đánh giá từ 16 tọa độ liền kề trong tổng số 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 cái nào ( theo các tham số được đề xuất hiện tại: bất kỳ 64 cái nào trong 128 mẫu khả thi ) đều có thể phục hồi blob.
Cách hoạt động của PeerDAS là để mỗi khách hàng lắng nghe một số lượng nhỏ các subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và thông qua việc hỏi các đối tác trong mạng p2p toàn cầu ( ai sẽ lắng nghe các subnet khác ) để yêu cầu các blob cần thiết từ các subnet khác. Phiên bản bảo thủ hơn, SubnetDAS, chỉ sử dụng cơ chế subnet mà không có việc hỏi thêm từ lớp đối tác. Đề xuất hiện tại là để các nút tham gia vào việc chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác ( tức là khách hàng ) sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô của "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256( với mục tiêu là 128), thì chúng ta có thể đạt được mục tiêu 16MB, với mỗi nút trong sampling khả năng dữ liệu có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = băng thông dữ liệu 1 MB cho mỗi slot. Đây chỉ vừa đủ trong phạm vi chịu đựng của chúng ta: điều này khả thi, nhưng điều đó có nghĩa là các khách hàng có băng thông hạn chế sẽ không thể sampling. Chúng ta có thể tối ưu hóa điều này ở một mức độ nhất định bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, chúng tôi cuối cùng muốn tiến xa hơn, thực hiện lấy mẫu 2D, phương pháp này không chỉ thực hiện lấy mẫu ngẫu nhiên trong blob mà còn thực hiện lấy mẫu ngẫu nhiên giữa các blob. Sử dụng tính chất tuyến tính của cam kết KZG, mở rộng tập hợp blob trong một khối thông qua một tập hợp blob ảo mới, những blob ảo này mã hóa dư thừa cùng một thông tin.
Điều quan trọng là việc mở rộng cam kết tính toán không cần có blob, vì vậy giải pháp này về cơ bản thân thiện với việc xây dựng khối phân tán. Các nút thực hiện việc xây dựng khối chỉ cần sở hữu cam kết blob KZG, và họ có thể dựa vào việc lấy mẫu tính khả dụng dữ liệu để xác minh khả dụng của các khối dữ liệu. Việc lấy mẫu tính khả dụng dữ liệu một chiều về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
còn cần làm gì? Còn những cân nhắc nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, liên tục tăng số lượng blob trên PeerDAS, đồng thời theo dõi mạng một cách cẩn thận và cải thiện phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công trình nghiên cứu hơn để quy định PeerDAS và các phiên bản khác của DAS cũng như sự tương tác của chúng với các vấn đề như an toàn của quy tắc lựa chọn phân nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần thực hiện nhiều công việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế đảm bảo an toàn lượng tử và không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ có những ứng cử viên nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "brute force" tốn kém, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái tạo các hàng và cột, điều đó cũng không đủ để đáp ứng nhu cầu, vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O(log(n) * log(log(n)) giá trị băm ( sử dụng STIR), nhưng thực tế kích thước của STARK gần như bằng toàn bộ blob.
Tôi nghĩ rằng con đường thực tế dài hạn là:
Thực hiện DAS 2D lý tưởng;
Kiên trì sử dụng 1D DAS, hy sinh hiệu suất băng thông mẫu, chấp nhận giới hạn dữ liệu thấp hơn vì sự đơn giản và độ tin cậy.
Bỏ DA, hoàn toàn chấp nhận Plasma là kiến trúc Layer2 chính mà chúng tôi quan tâm.
Xin lưu ý, ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, lựa chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, và khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, vì vậy chúng tôi sẽ phải sử dụng các công nghệ tương tự như Rollup( như ZK-EVM và DAS) trên lớp L1.
Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu việc nén dữ liệu được thực hiện, nhu cầu về 2D DAS sẽ giảm đi, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng blockchain phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái tạo phân tán, nhưng điều này trong thực tế cần được kết hợp với các đề xuất danh sách bao gồm gói và cơ chế chọn nhánh xung quanh nó.
Nén dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: Việc chuyển ERC20 cần khoảng 180 byte. Ngay cả khi có mẫu khả năng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ có thể giải quyết vấn đề về tử số mà còn giải quyết vấn đề về mẫu số, khiến cho mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều đó sẽ như thế nào?
Nó là gì, nó hoạt động như thế nào?
Trong nén byte 0, mỗi chuỗi byte 0 dài được thay thế bằng hai byte, biểu thị số lượng byte 0. Hơn nữa, chúng tôi đã tận dụng các thuộc tính cụ thể của giao dịch:
Tổng hợp chữ ký: Chúng tôi chuyển từ chữ ký ECDSA sang chữ ký BLS, đặc điểm của chữ ký BLS là nhiều chữ ký có thể được kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tính hợp lệ của tất cả các chữ ký gốc. Ở tầng L1, do ngay cả khi tổng hợp, chi phí tính toán để xác minh vẫn cao, nên không xem xét việc sử dụng chữ ký BLS. Nhưng trong môi trường L2 mà dữ liệu khan hiếm như vậy, việc sử dụng chữ ký BLS là có ý nghĩa. Đặc tính tổng hợp của ERC-4337 cung cấp một cách để thực hiện chức năng này.
Thay thế địa chỉ bằng con trỏ: Nếu đã từng sử dụng một địa chỉ nào đó, chúng ta có thể thay thế địa chỉ 20 byte bằng con trỏ 4 byte trỏ đến một vị trí nào đó trong lịch sử.
Chuỗi tuần tự tùy chỉnh của giá giao dịch------Hầu hết các giá giao dịch có số chữ số rất ít, chẳng hạn, 0.25 Ether được biểu thị là 250
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
22 thích
Phần thưởng
22
4
Chia sẻ
Bình luận
0/400
BrokeBeans
· 07-22 21:16
Còn đang làm phóng đại dữ liệu à? Đã chơi chán rồi.
Xem bản gốcTrả lời0
BearMarketSurvivor
· 07-22 21:15
Hậu phương tiếp tế rất ổn, sức mạnh Ethereum tiếp tục được củng cố.
Con đường mở rộng Ethereum: Phân tích chiến lược mở rộng The Surge và mục tiêu tương lai
The Surge: Tương lai khả năng mở rộng của Ethereum
Trong lộ trình của Ethereum, ban đầu có hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Hai chiến lược này cuối cùng đã hòa nhập với nhau, tạo thành lộ trình tập trung vào Rollup, cho đến nay vẫn là chiến lược mở rộng của Ethereum.
Lộ trình tập trung vào Rollup đã đưa ra sự phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp nền tảng mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ giúp hệ sinh thái mở rộng. Mô hình này tồn tại ở khắp nơi trong xã hội: sự tồn tại của hệ thống tòa án (L1) nhằm bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) xây dựng trên cơ sở này, thúc đẩy nhân loại tiến lên.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những thành tựu quan trọng: với việc ra mắt blobs EIP-4844, băng thông dữ liệu của Ethereum L1 đã tăng đáng kể, nhiều EVM Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với các quy tắc và logic riêng. Sự đa dạng và đa dạng hóa trong cách thực hiện mảnh giờ đây đã trở thành hiện thực. Tuy nhiên, con đường này cũng đối mặt với một số thách thức độc đáo. Do đó, nhiệm vụ hiện tại của chúng tôi là hoàn thành lộ trình tập trung vào Rollup, giải quyết những vấn đề này, đồng thời duy trì sự vững mạnh và phi tập trung của Ethereum L1.
The Surge: Mục tiêu quan trọng
Nội dung chương này
Nghịch lý tam giác khả năng mở rộng
Tam giác nghịch lý về khả năng mở rộng cho rằng có sự mâu thuẫn giữa ba đặc điểm của blockchain: phi tập trung (, chi phí chạy nút thấp ), khả năng mở rộng ( số lượng giao dịch được xử lý nhiều ) và an ninh ( kẻ tấn công cần phải phá hủy một phần lớn các nút trong mạng để làm cho một giao dịch đơn lẻ thất bại ).
Cần lưu ý rằng, nghịch lý tam giác không phải là một định lý, bài viết giới thiệu nghịch lý tam giác cũng không kèm theo chứng minh toán học. Nó đưa ra một lập luận toán học mang tính hướng dẫn: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi xử lý k*N giao dịch mỗi giây, thì (i) mỗi giao dịch chỉ có thể được nhìn thấy bởi 1/k nút, có nghĩa là kẻ tấn công chỉ cần phá hoại một số nút để thực hiện một giao dịch ác ý, hoặc (ii) nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không phi tập trung. Mục đích của bài viết này không phải là chứng minh rằng việc phá vỡ nghịch lý tam giác là không thể; ngược lại, nó nhằm mục đích chỉ ra rằng việc phá vỡ nghịch lý tam giác là khó khăn, và nó cần phải vượt ra ngoài khuôn khổ tư duy mà lập luận này ngụ ý.
Trong nhiều năm, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được tam giác mâu thuẫn mà không cần thay đổi kiến trúc một cách căn bản, thường là bằng cách áp dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn có tính chất gây hiểu nhầm, việc chạy nút trên những chuỗi này khó hơn nhiều so với việc chạy nút trên Ethereum. Bài viết này sẽ khám phá lý do tại sao lại như vậy, và tại sao chỉ với kỹ thuật phần mềm của khách hàng L1 cũng không thể mở rộng Ethereum?
Tuy nhiên, sự kết hợp giữa sampling khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một lượng dữ liệu nhất định là khả dụng trong khi chỉ tải xuống một lượng dữ liệu nhỏ và thực hiện một lượng tính toán rất ít. SNARKs là không cần tin cậy. Sampling khả dụng dữ liệu có một mô hình tin cậy tinh tế few-of-N, nhưng nó giữ lại các đặc điểm cơ bản mà chuỗi không thể mở rộng có, đó là ngay cả một cuộc tấn công 51% cũng không thể buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ khéo léo để chuyển giao trách nhiệm về khả năng giám sát dữ liệu cho người dùng theo cách tương thích với động lực. Ngay từ năm 2017-2019, khi chúng ta chỉ có chứng minh gian lận như một phương tiện để mở rộng khả năng tính toán, Plasma đã bị hạn chế rất nhiều về việc thực thi an toàn, nhưng với sự phổ biến của SNARKs, kiến trúc Plasma trở nên khả thi hơn cho nhiều tình huống sử dụng hơn bao giờ hết.
Tiến triển hơn nữa trong việc lấy mẫu tính khả dụng của dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi nâng cấp Dencun được triển khai, chuỗi khối Ethereum sẽ có 3 blob khoảng 125 kB cho mỗi slot 12 giây, hoặc băng thông dữ liệu khả dụng khoảng 375 kB cho mỗi slot. Giả sử dữ liệu giao dịch được công bố trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta thêm vào giá trị tối đa lý thuyết của calldata Ethereum (: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte ), thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một cải tiến lớn đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có nhiều khả năng mở rộng hơn. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
Nó là gì? Cách hoạt động ra sao?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253. Chúng tôi phát sóng các phần của đa thức, trong đó mỗi phần chứa 16 giá trị đánh giá từ 16 tọa độ liền kề trong tổng số 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 cái nào ( theo các tham số được đề xuất hiện tại: bất kỳ 64 cái nào trong 128 mẫu khả thi ) đều có thể phục hồi blob.
Cách hoạt động của PeerDAS là để mỗi khách hàng lắng nghe một số lượng nhỏ các subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và thông qua việc hỏi các đối tác trong mạng p2p toàn cầu ( ai sẽ lắng nghe các subnet khác ) để yêu cầu các blob cần thiết từ các subnet khác. Phiên bản bảo thủ hơn, SubnetDAS, chỉ sử dụng cơ chế subnet mà không có việc hỏi thêm từ lớp đối tác. Đề xuất hiện tại là để các nút tham gia vào việc chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác ( tức là khách hàng ) sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô của "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256( với mục tiêu là 128), thì chúng ta có thể đạt được mục tiêu 16MB, với mỗi nút trong sampling khả năng dữ liệu có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = băng thông dữ liệu 1 MB cho mỗi slot. Đây chỉ vừa đủ trong phạm vi chịu đựng của chúng ta: điều này khả thi, nhưng điều đó có nghĩa là các khách hàng có băng thông hạn chế sẽ không thể sampling. Chúng ta có thể tối ưu hóa điều này ở một mức độ nhất định bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, chúng tôi cuối cùng muốn tiến xa hơn, thực hiện lấy mẫu 2D, phương pháp này không chỉ thực hiện lấy mẫu ngẫu nhiên trong blob mà còn thực hiện lấy mẫu ngẫu nhiên giữa các blob. Sử dụng tính chất tuyến tính của cam kết KZG, mở rộng tập hợp blob trong một khối thông qua một tập hợp blob ảo mới, những blob ảo này mã hóa dư thừa cùng một thông tin.
Điều quan trọng là việc mở rộng cam kết tính toán không cần có blob, vì vậy giải pháp này về cơ bản thân thiện với việc xây dựng khối phân tán. Các nút thực hiện việc xây dựng khối chỉ cần sở hữu cam kết blob KZG, và họ có thể dựa vào việc lấy mẫu tính khả dụng dữ liệu để xác minh khả dụng của các khối dữ liệu. Việc lấy mẫu tính khả dụng dữ liệu một chiều về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
còn cần làm gì? Còn những cân nhắc nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, liên tục tăng số lượng blob trên PeerDAS, đồng thời theo dõi mạng một cách cẩn thận và cải thiện phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công trình nghiên cứu hơn để quy định PeerDAS và các phiên bản khác của DAS cũng như sự tương tác của chúng với các vấn đề như an toàn của quy tắc lựa chọn phân nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần thực hiện nhiều công việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế đảm bảo an toàn lượng tử và không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ có những ứng cử viên nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "brute force" tốn kém, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái tạo các hàng và cột, điều đó cũng không đủ để đáp ứng nhu cầu, vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O(log(n) * log(log(n)) giá trị băm ( sử dụng STIR), nhưng thực tế kích thước của STARK gần như bằng toàn bộ blob.
Tôi nghĩ rằng con đường thực tế dài hạn là:
Xin lưu ý, ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, lựa chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, và khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, vì vậy chúng tôi sẽ phải sử dụng các công nghệ tương tự như Rollup( như ZK-EVM và DAS) trên lớp L1.
Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu việc nén dữ liệu được thực hiện, nhu cầu về 2D DAS sẽ giảm đi, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng blockchain phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái tạo phân tán, nhưng điều này trong thực tế cần được kết hợp với các đề xuất danh sách bao gồm gói và cơ chế chọn nhánh xung quanh nó.
Nén dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: Việc chuyển ERC20 cần khoảng 180 byte. Ngay cả khi có mẫu khả năng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ có thể giải quyết vấn đề về tử số mà còn giải quyết vấn đề về mẫu số, khiến cho mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều đó sẽ như thế nào?
Nó là gì, nó hoạt động như thế nào?
Trong nén byte 0, mỗi chuỗi byte 0 dài được thay thế bằng hai byte, biểu thị số lượng byte 0. Hơn nữa, chúng tôi đã tận dụng các thuộc tính cụ thể của giao dịch:
Tổng hợp chữ ký: Chúng tôi chuyển từ chữ ký ECDSA sang chữ ký BLS, đặc điểm của chữ ký BLS là nhiều chữ ký có thể được kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tính hợp lệ của tất cả các chữ ký gốc. Ở tầng L1, do ngay cả khi tổng hợp, chi phí tính toán để xác minh vẫn cao, nên không xem xét việc sử dụng chữ ký BLS. Nhưng trong môi trường L2 mà dữ liệu khan hiếm như vậy, việc sử dụng chữ ký BLS là có ý nghĩa. Đặc tính tổng hợp của ERC-4337 cung cấp một cách để thực hiện chức năng này.
Thay thế địa chỉ bằng con trỏ: Nếu đã từng sử dụng một địa chỉ nào đó, chúng ta có thể thay thế địa chỉ 20 byte bằng con trỏ 4 byte trỏ đến một vị trí nào đó trong lịch sử.
Chuỗi tuần tự tùy chỉnh của giá giao dịch------Hầu hết các giá giao dịch có số chữ số rất ít, chẳng hạn, 0.25 Ether được biểu thị là 250