
根据MigaLabs的最新研究,经过12月Fusaka升级后,以太坊在处理数据密集型区块时显现出压力,这引发了对网络是否能够支持来自第二层区块链的更高数据吞吐量的担忧。
主要发现:
尽管Fusaka升级引入了更高的blob限制,以太坊在可靠处理数据密集型区块方面仍然存在问题。
包含16个或更多blob的区块与正常网络条件相比,丢失率显著上升。
如果第二层的需求增加,这些高丢失率可能会威胁到以太坊的网络稳定性。
Fusaka硬分叉旨在通过允许第二层网络提交更多“blob”来扩大以太坊的数据容量,这些blob主要用于rollup将交易信息发布到主链。这一变化被广泛视为实现更便宜和可扩展的第二层活动的一步。
高blob数量的以太坊区块面临更高的丢失率
然而,MigaLabs发布的实证分析表明,携带较高blob数量的区块在网络中被遗漏的可能性显著增加。
该研究基于自2025年10月以来收集的数据,分析了Fusaka前后的网络行为,以及随后两次仅调整blob参数的更新,这些更新进一步提高了blob的限制。
与Lido DAO和剑桥替代金融中心有过合作的MigaLabs发现,以太坊并未充分利用扩展的容量。
尽管目标blob数量已提高至14,但自第一次BPO更新以来,每个插槽的中位blob数量实际上有所下降。
高达16个或更多的blob数量仍然较为罕见,在超过750,000个观察插槽中仅出现几百次。
更令人担忧的是,当blob数量激增时,研究显示,一旦区块包含16个或更多blob,丢失率会急剧上升。
明天:Fusaka
以太坊今年的第二次重大升级。
→ 功能亮点:PeerDAS - 解锁高达8倍的数据吞吐量。这对rollup来说意味着更便宜的blob费用和更多的增长空间。
了解更多。 https://t.co/3TOda5KjY2 pic.twitter.com/sEfeiTamy9
— Ethereum (@ethereum) December 2, 2025在包含最多15个blob的插槽中,基线丢失率约为0.5%,而在更高blob数量的情况下,丢失率范围从0.77%到高达1.79%。
在观察到的最大21个blob的水平下,丢失率超过了网络平均水平的三倍。
这些blob主要由大型第二层网络如Arbitrum和Base提交,它们依赖于以太坊的数据可用性以安全运营。
如果这些网络的需求增加,高blob数量变得更加普遍,提升的丢失率可能会加剧,并对整体网络稳定性构成风险。
MigaLabs呼吁暂停以太坊blob数量的增加以应对上升的丢失率
MigaLabs警告称,尽管非常高的blob数量样本仍然有限,但这一模式在所有观察到的数据点中是一致的。
该公司建议,在高blob水平的丢失率恢复到基线并且实际需求接近现有限制之前,避免进一步增加blob容量。
据报道,以太坊基金会已将后量子安全提升为核心战略重点,成立了专门的后量子团队,并承诺投入200万美元用于此项工作。
该计划由以太坊研究员Justin Drake宣布,将由Thomas Coratger和leanVM的贡献者Emile共同领导。



















