前言:本文作者是Vitalik Buterin,他回想了五年前其列出的加密世界要处置的难题,然后重新审视了这些问题的现状。我们能够看到很多问题都获得了停顿,同时也有很多问题悬而未决。固然往常和将来的应战庞大,但我们看到了更多的自自自信心,加密世界曾经很原始,往常也很初级,但五年来不时没有停下行进的脚步,将来将会递增式的进步,直到有一天迸发式的打破。间隔这一天或许还有些悠远,但由于累积的技术和聪明,冲破拂晓前的黑暗,终将在技术和主流采用上迎来光明。本文由“蓝狐笔记”的“SIEN”翻译。
2014年,我曾发表过文章和演讲,其中提到在数学、计算机科学以及经济学方面的一系列难题,当时我以为它们对加密范畴走向成熟至关重要。
五年过去了,状况发作了很大改动。我们以为重要的问题终究获得了多大的停顿?我们在什么方面获得胜利?在什么方面失败了?关于什么是重要问题,我们改动了哪些见地?
本文将会逐一梳理从2014年来的16个问题,金银行情来看看这些问题的往常现状。最后,我会列出在2019年选择的新难题。
这些问题可分为三类:
加密学,假定它们会被完益处置,则能够用纯数学办法来处置;
共识理论,对PoW和PoS的大幅度改良
经济学,与创立触及不同参与方的鼓舞构造相关,且通常更多触及应用层而不是协议层。
在一切这些类别上我们都看到获得显着的停顿,固然有些范畴停顿更大。
一、加密学问题
1.区块链的可扩展性
加密范畴往常面临的最大问题之一是扩展性问题。对“超大区块链”的主要担忧是信任:假定只是少数的主体可以运转全节点,那么,这些主体能够合谋并同意给予它们本人大量额外的比特币,那么,其他用户无法看到区块是无效的,除非他们本人处置整个区块。
问题:创立一种区块链设计,能够维持相似于比特币的平安保证,但是,其中维持网络运转所需的最强节点的最大大小在买卖数量中根本上是次线性的。
现状:理论上获得严重停顿,需求更多落地层面的评价
可扩展性是我们在理论上已获得庞大停顿的技术问题。五年前,简直没有人思索过火片。往常,分片设计很常见。除了以太坊2.0,我们还有OmniLedger、LazyLedger、Zilliqa以及似乎每个月都会有研讨论文发表。(蓝狐笔记:Harmony也是基于分片的技术)
以我的见地,这一点上的将来停顿是递增的。从基本上,我们曾经有一系列的技术,它们允许考证者组就更多的数据平安地达成共识,要比单个考证者能处置的数据多得多,同时,这些技术也允许用户间接地考证区块的全部有效性和可用性,即便处于51%攻击的状况下。
下面的这些可能是最重要的技术:
随机抽样,允许随机选择的小委员会(考证者小组)从统计学上代表完好的考证者集:
还有其他的一些停顿,例如经过收据中止的跨分片通讯,以及“常数”加强功用,例如BLS签名聚合。
也就是说,完好分片的区块链还没有完成上线运转,局部分片的Zilliqa最近曾经开端运转。从理论上,还存在关于剩余细节的争议,同时也触及一些应战:分片网络的稳定性、开发者阅历以及减轻中心化的风险。
根本的技术可能性方面似乎不再有什么可怀疑的。但是,应战终归是应战,假定只是思索它们,是无法处置的。唯有开发系统和察看以太坊2.0或其他相似链的线上运转才干处置应战。
2.时间戳
问题:创立散布式的鼓舞兼容系统,不论它是区块顶层的叠层,或者是其本身区块链,都使当前时间坚持较高的精确性。一切合法用户都有正态散布的时钟,盘绕某个“真实”时间散布,规范倾向为20秒。没有两个节点的时间倾向允许超越20秒,以依赖于现有的“N个节点”的概念。理论上,这能够经过PoS或非女巫代币(non-sybil tokens)强迫执行。
系统应持续提供大于99%老实参与节点的内部时钟的120秒(如可能更短时间)内的时间。外部系统可能最终依赖于此系统;因而,无论动机如何,它应坚持平安,以防攻击者控制不超越25%的节点。
现状:有些停顿
以太坊理论上在13秒的区块时间内存活下来,还没有特别先进的时间戳技术;它运用一种十分简单的办法,其中客户端不会接纳这样的区块:其声明的时间戳早于客户端本地时间的区块。也就是说,它还没有在严重攻击下禁受考验。
最近的网络调整后的时间戳提案试图在客户端没有从本地得知高准确时间的状况下允许客户端肯定共识,以此来改善现状。这还没有得到考证。但,从总体来说,时间戳并不是当前研讨应战的前沿。或许一旦有更多的PoS链上线运转后,这会发作改动,我们会看到问题所在。
3.恣意计算证明(Arbitrary Proof of Computation)
问题:创立程序POC_PROVE(P,I) -> (O,Q) 和POC_VERIFY(P,O,Q) -> {0,1 } ,以便POC_PROVE在输入I上运转程序P,并返回程序输出O以及计算证明Q,以及POC_VERIFY取P,O以及Q和输出,无论Q和O能否由POC_PROVE 算法运用P合法生成。
现状:理论和理论上都获得庞大停顿
这根本上是说,构建一个SNARK(STARK,或SHARK......)。我们曾经搞定了。有越来越多的人了解SNARK,且往常正在被多个区块链所采用,其中也包括以太坊上的tornado.cash。
SNARK作为隐私技术(可参阅Zcash和tornado.cash)和可扩展性技术(可参阅ZK Rollup,STARKDEX以及STARKing 纠删码的数据根),都十分有用。
效率方面仍然存在应战;完成算术友好的哈希函数是个大问题,而高效的证明随机内存访问是另外一个问题。此外,还存在一个悬而未决的问题,即证明时间的O(n * log(n))增大能否是根本的限制,或者能否有办法仅用线性开支完成简约证明,如bulletproof一样(遗憾的是bulletproof需求破费线性时间来考证)。
还存在现有计划有破绽的风险。通常,这些问题在于细节问题,而不是基本问题。
4.代码混杂(code obfuscation)
创立混杂函数O是圣杯,这样,给定任何程序P,99金银混杂函数都能够产生第二个程序O(P) = Q ,从而假定给定相同的输入,则P和Q返回相同的输出,并且重要的是,Q并没有透露任何关于P内部的信息。人们能够在Q内部躲藏密码、机密加密的密钥、或者能够简单地运用Q来躲藏算法本身的专利工作。
现状:停顿迟缓
用大文言来说,这个问题是在说我们想要找出一种办法来“加密”程序,这样被加密的程序依然可以为相同输入提供相同的输出,但该程序的“内部信息”会被躲藏。“混杂”用例的一个例子是包含私钥的程序,其中该程序仅允许用私钥来对某些音讯中止签名。
代码混杂的处置计划对区块链协议来说十分有用。其用例是巧妙的,由于必需处置这种可能性:在链上混杂的程序将被复制且运转在不同于链自身的环境中,但有很多可能性。
一个让我个人感兴味的功用是:从抗合谋的小工具中移除中心化的操作者,其方式是用包含一些工作量证明的混杂程序来取代操作者,因而,要尝试肯定各个参与者的行为,运用不同的输入屡次运转会十分昂贵。
遗憾的是,这仍然是个难题。在处置这个问题方面,正在持续中止工作,一方面,正在中止构建,以减少对我们理论上不晓得的数学对象(例如通用加密多线性映射)上的假定数量,另一方面,尝试对所需的数学对象中止理论执行。
但是,一切这些途径都离创立可行和已知的平安性还很悠远。关于这个问题,可参阅https://eprint.iacr.org/2019/463.pdf 以取得更普通的概述。
5.基于哈希的加密学
问题:创立一种平安算法,它不依赖于平安假定而是依赖于哈希值的随机预言机属性,该属性能够坚持具有最佳大小和其他属性的传统计算机同等的160位比特的平安性(由于Grover的算法,相关于量子计算机为80位比特)。
现状:有些停顿
从2014年以来,这方面获得了两大停顿。SPHINCS是一种“无状态”(意味着能够运用屡次,而不需求记住像nonce一样的信息)签名计划,它在这些“难题”列表提出后不久发布了,并提供大小约为41kb的纯基于哈希的签名计划。
此外,也曾经开发了STARK,并且能够基于它们创立相似大小的签名。不只是签名,同时通用目的的零学问证明也是能够仅经过哈希值就有可能完成,这是我在五年前没有意料到的;关于这种状况,我感到十分快乐。就是说,大小依然是个问题,且不时的进步(参阅最近的DEEP FRI)在继续减少证明的大小,固然看上去将来的停顿会是逐渐的。
基于哈希的加密学尚未处置的主要问题是聚合签名,相似于BLS聚合使其成为可能。众说周知,我们能够对许多Lamport签名中止STARK,但这效率低下;更高效的计划会是受欢送的。(假定你想理解能否能够用基于哈希的公钥加密,答案是不,超越二次攻击的代价会让你无法做任何事)
二、共识理论问题
6.抗ASIC的PoW
处置该问题的一种办法是基于一种很难特地化的计算类型来创立工作量证明算法......对有关抗ASIC硬件的深化讨论,可参阅https://blog.ethereum.org/2014/06/19/mining/ (蓝狐笔记之前也有过此类讨论的文章,到底抗ASIC算法是不是真正能达成目的《抗ASIC的算法能否对PoW的平安性有利?》)
现状:已尽力处置
在“难题”列表发布6个月之后,以太坊决议采用其抗ASIC的工作量证明算法:Ethash。Ethash被称为内存难解的算法。该理论是说,常规计算中的随机RAM曾经获得很好优化,因而对特地应用来说很难有更大的提升。Ethash旨在经过将内存访问成为运转PoW计算的主导局部来完成抗ASIC。
Ethash并不是第一个内存难解的算法,但它的确增加了一项创新:它在两层DAG上运用伪随机查找,从而提供两种评价函数的方式。首先,假定一个人有整个DAG(~2 GB),则能够快速计算它;这是内存难解的“快速通路”。其次,假定一个人只需DAG的顶层,那么,计算它会慢得多(依然足够快,以检查提供的单个解);这用于区块考证。
Ethash在抗ASIC方面被证明是十分胜利的。在经过三年和数十亿美圆的区块奖励之后,ASIC的确也存在,但其算力和本钱效率只比GPU高2-5倍。
ProgPoW被提出来作为替代计划,但不时增长的共识以为,抗ASIC算法将不可防止地存在有限的生命周期,并且抗ASIC也有缺陷,由于它让51%的攻击更低价(例如,能够参看ETC 的51%攻击)。
我置信,能够创立能抵达中等级别的抗ASIC的PoW算法,但这种抗ASIC也是有期限的,且ASIC和抗ASIC都有缺陷。从久远看,区块链共识算法的更好选择是PoS。
7.有用的PoW
使得工作量证明功用同时有用。(蓝狐笔记:这里的所谓“有用”是指,PoW的算力只用来寻觅一个谜题的解,并没有产生什么理论的用处,所以是“无用”,而“有用”是说将算力用于处置理论的问题,例如寻觅素数等等,但是更关键的是POW算法需求具有难以计算易于考证等属性,这是中心。PoW的实质是将能源和算力转为价值存储,关于能否“有用”是存在争议的)
常见的“有用”候选者是相似于Folding@home这样的,它是现有的程序,其用户能够下载软件到本人的计算机上,模仿蛋白质折叠并给研讨人员提供大量的数据,以辅佐他们治愈疾病。
现状:可能不可行,只需一个例外。
有用的工作量证明所面临应战是,工作量证明算法需求很多属性:
难以计算
易于考证
不依赖大量外部数据
可用小“字节-大小”的块中止有效计算
遗憾的是,没有几“有用”的计算具有全部这些属性,并且大多数有这些属性的“有用”计算只是“有用”的时间太短,无法基于它们构建加密货币。
但是,有一个可能的例外:零学问证明的生成。区块链有效性方面的零学问证明难以计算但易于考证。
此外,他们很难计算。假定“高度构造化”计算的证明变得很容易,则能够简单地切换到考证区块链的整体状态转换,由于需求对虚拟机建模和随机内存访问,因而这会变得十分昂贵。
区块链有效性的零学问证明为区块链用户提供了庞大的价值,由于它们能够替代直接考证链的需求。固然是简化的区块链设计,而其可考证性中止了极大的优化,Coda在做这个事情了。
这些证明能够极大地辅佐改善区块链的平安性和可扩展性。也就是说,理论需求完成的计算总量依然远远小于当前PoW矿工当前完成的计算量,因而,其充其量不过是PoS区块链的附加项,而不是完好的共识算法。
8.PoS
处置挖矿集中化问题的另外一个办法是完好取消挖矿,并转向其他机制来计算共识中每个节点的权重。迄今为止,讨论中最盛行的替代办法是PoS,也就是说,不是将共识模型视为“一CPU算力一票”,而是变成“一币一票”。
现状:理论上获得庞大停顿,理想落地有待更多评价
在2014年底之前,对PoS社区来说,这一点越来越明晰:某种方式的“弱客观性”是不可防止的。为了维持经济平安,节点在初次同步时需求获取最近的检查点协议,假定节点离线超越几个月则需求再次获取。
这是难以下咽的药。许多PoW反对者依然坚持PoW,由于在PoW链中,能够发现链的“头部”,作为可信来源的独一数据(也就是区块链客户端自身)。
但是,PoS的反对者愿意吞下这个药丸,由于增加的信任央求并不大。从那里开端,经过长期平安抵押资产通往PoS的途径变得明晰。
往常,最让人感兴味的共识算法从基本上相似于PBFT,但它用动态列表交流了固定的考证者集,任何人都能够经过发送代币到具有时间锁定的系统级智能合约中来参与考证(提取代币在某些状况下可能长达4个月)。
在很多状况下,也包括以太坊2.0,这些算法经过惩罚那些在某些方面违法协议的歹意考证者来完成“经济最终性”。(关于PoS的哲学观念,可查阅蓝狐笔记之前发布的文章《以太坊开创人V神眼中的PoS设计哲学》)
直到今天,我们有很多算法,其中包括:
以太坊2.0的Phase0阶段,以太坊链会施行FFG,目前正在施行中,并曾经获得庞大的停顿。
此外,Tendermint以Cosmos链的方式曾经运转了好几个月。在我看来,关于PoS的剩余争论与优化经济鼓舞和进一步标准应对51%攻击的战略有关。此外,Casper CBC标准仍能够运用细致的效率改良。
9.存储证明(Proof of Storage)
处置这个问题的第三种办法是运用稀缺的计算资源而不是计算才干或代币。在这方面,两个主要的替代计划曾经提出,是存储和带宽。
准绳上,没有方法提供应定或运用带宽的事后加密证明,因而,带宽证明(Proof of bandwidth)应最精确地视为社会证明的一个子集,这在后面的问题中会讨论。但存储证明(Proof of Storage)是肯定能够经过计算完成的。存储证明的优势是它完好是抗ASIC的,我们在硬盘驱动器中的存储类型已接近于最优。
现状:理论上获得了很多停顿,固然还有很多工作要做,同时也需求更多的落地评价
有很多方案运用存储证明协议的区块链,其中包括Chia和Filecoin。也就是说,这些算法还没有经过实战检验。我个人的主要担忧是在集中化:这些算法理论上由运用闲置存储容量的较小用户主导?还是由大型矿场主导?(蓝狐笔记注:按目前的趋向,矿场主导的可能性更大)
三、经济学
10.价值稳定的加密货币
比特币其中的一个主要问题是其价钱的动摇性。问题:构建具有稳定价钱的加密货币。
现状:有些停顿
MakerDAO往常曾经上线,且持续稳定运转了近两年。它在其底层抵押资产(ETH)价值下跌93%的过程中存活下来,往常发行超越1亿美圆的DAI。它曾经成为以太坊生态系统的支柱,很多以太坊项目曾经集成了它或者正在集成它。其他合成代币的项目,例如UMA,也正在快速展开。
但是,固然MakerDAO系统从2019年困难的经济条件下存活下来,但这绝不是可能发作的最艰难状况。过去,比特币曾在2天内下跌过75%。将来,这有可能会发作在任何其他抵押资产上,其中ether也不例外。
对底层区块链的攻击是更大的未经检验的风险,特别是假定同时价钱下跌又加剧了这种风险。另外一个主要的应战,可能是更大的应战,是相似于MakerDAO这样的系统的稳定性取决于某些底层的预言机机制。(蓝狐笔记:细致能够参看《Maker中的预言机管理攻击》)
的确存在针对预言机系统的不同尝试,但关于在大范围的经济压力下它们能否接受得住的问题,仍然没有定论。迄今为止,MakerDAO控制的抵押资产曾经低于MKR代币的价值;假定这种关系发作逆转,MKR持有人可能会有集体动机来试图“掠取”MakerDAO系统。有多种办法能够避免此类攻击,但它们尚未在理论中禁受检验。
11.去中心化的公共物品鼓舞
通常在经济系统中的应战之一是“公共物品”问题。例如,假定有一个需求破费100万美圆完成的科学研讨项目,假定大家都晓得,假定它完成了,那么研讨结果将会为100万人每人俭省5美圆。总体来权衡,社会效益是很分明的。但是,从做奉献人员的视角看,这是没有意义的。
迄今为止,大多数公共物品的问题都触及集中化附加假定和央求:存在完好可信的预言机,它能够肯定特定公共物品任务能否曾经完成(理论上可能是错的,但这是另外一个问题了)
现状:获得一些停顿
普通以为,赞助公共物品的问题分为两个问题:资金问题(从哪里给公共物品提供资金)、偏好汇总问题(如何肯定什么是真正的公共物品,而不是一些个人爱好的项目)。本文假定后者曾经处置,主要聚焦于前者问题。
总体来说,这里还没有获得新的严重打破。处置计划分为两大类。首先,我们能够尝试引导出个人的奉献,为作出奉献的人给予社会报答。我个人的倡议是经过边沿价钱歧视中止的慈悲就是其中的一个例子。另外一个是Peepeth上的抗疟疾捐款徽章。其次,我们能够从具有网络效应的应用中筹集资金。在区块链范畴,有几种选择能够做:
发行代币
在协议层面收取一局部买卖费用(例如,经过EIP1559)
从一些layer-2应用收取一局部买卖费用(例如Uniswap,或其他扩展性处置计划,或致使在ETH2.0的执行环境中的状态租金)
收取其他类型的费用(例如ENS注册)
在区块链行业之外,这是一个古老的问题:假定你是政府该如何收税,或假定你是公司或其他组织该如何收费。
12.名望系统
问题:设计正式的名望系统,包括分数rep(A,B) -> V,其中V是从A角度对B评价的名望,一种肯定一方能够被另一方置信的的概率机制,以及提供特定公开或最终互动记载的名望更新机制。
现状:停顿迟缓
从2014年到往常名望系统并没有太多工作停顿。或许最好的方法是运用代币管理注册表(token curated registry,也称代币精选注册表)来创立可信实体/对象的管理列表。Kleros ERC20 TRC(是的,这是合法ERC20代币的代币管理注册表)是一个案例,致使Uniswap有可替代的界面接口,运用它作为后端来获取列表的代币和标志及徽标。
具有客观多样性的名望系统还没有被真正尝试过,这可能是由于没有足够的以某种方式发布到链上的人们互相衔接的“社会关联图”信息。假定此类信息由于某种缘由而开端存在,那么,客观名望系统可能会变得愈加盛行。
13.出色证明(Proof of excellence)
一种有趣且很大水平上未开发的特地处置分配问题的处置计划是运用对社会有用的任务,但需求原始的人类驱动发明力和才干。例如,一个人能够想出“对证明的证明”代币来奖励给出特定定理的数学证明的玩家。
现状:没有停顿,很大水平上被遗忘。
代币分配的主要替代办法是空投;通常,代币在发布时中止分配要么是依据现有的某些代币的持有比例中止分配,要么是基于其他的一些指标(例如在Handshake的空投中)。
还没有真正尝试如何去直接考证人类的发明力,并且随着AI最新的展开,发明只需人类能处置但计算机能够考证的任务可能会十分艰难。
14.抗女巫攻击系统
这是一个与“名望系统”问题有一些相关的问题,它是创立“独一身份系统”的应战,它是一个生成代币的系统,能够证明某个身份不是女巫攻击一局部。但是,我们想要有一个更好更对等功用的系统,而不是“一美圆一票”的系统;能够说,一人一票是理想的选择。
状态:有些停顿
曾经有许多尝试在处置人类独一身份的问题。其中想到的尝试包括(非完好列表!):
随着人们对一些诸如二次投票(quadratic votoing)和二次融资(quadratic funding)之类的技术越来越感兴味,对某种基于人的抗女巫系统的需求也在不时增长。希望这些技术的持续开发和新的计划可以满足它的需求。
15.去中心化的奉献指标
遗憾的是,鼓舞公共物品的消费并不是中心化处置的独一问题。另外一个问题是首先要肯定哪些公共物品值得消费,其次是肯定某种特定努力理论上在多大水平上完成公共物品的消费(权衡奉献)。这一应战触及后一个问题。
现状:有些停顿,在重点方面有些改动。
关于肯定公共物品奉献价值的最新工作并没有试图将肯定任务和肯定完成质量分开;缘由是两者在理论中很难分开。特定团队完成的工作常常是不可交流且很客观的,因而最合理的办法是将任务和完成质量的相关性视为一个整体,并运用相同的技术对其中止评价。
侥幸的是,在这个方面获得了庞大的进步。特别是发现了二次融资(quadratic funding)。二次融资是个人能够给项目提供捐赠的机制,然后基于捐赠人数和捐赠数额,假定彼此圆满调和,能够运用公式计算他们要捐赠几(即,思索了彼此的利益,但并没有成为公地悲剧的牺牲品)
对任何特定项目而言,想要捐赠几和理论捐赠几之间的差额将从某个中央资金池中取得补贴。请留意,这种机制偏重于满足一些社区的价值,而不是满足某些特定目的,而不论能否有人在乎它。由于价值问题的复杂性,这种办法关于未知的未知数来说可能愈加强壮。
二次融资在理论中曾经被尝试,在最近的gitcoin二次融资轮中获得了相当大的胜利。在改善二次融资和相似机制上获得一些递增的停顿;特别是,成对的二次融资以减轻合谋现象。
也有关于反贿赂投票技术的标准和施行工作,避免用户向其投票的第三方中止证明;这能够避免多种合谋和贿赂攻击。
16.去中心化的胜利指标
问题:拿出并施行权衡理想世界数值变量的去中心化办法。该系统可以权衡人类当前能够达成大致共识的任何东西。(例如,资产价钱、温度、全球二氧化碳浓度)
状态:有些停顿
往常通常将这个问题被称为“预言机”问题。去中心化预言机运转的最大已知实例是Augur,它曾经处置了数百万美圆的下注结果。如Kleros TRC这样的代币管理注册是另外一个案例。
但是,这些系统仍然未禁受理想世界分叉机制的考验,由于要么由于高度争议问题,要么由于51%的攻击。
还有关于对预言机问题的研讨,这些问题以“同行预测”文献方式发作在区块链范畴之外。
另一个火烧眉毛的应战是,人们试图依赖于这些系统来转移大于其系统原生代币价值总量的资产。代币持有人理论上有动机合谋给出错误答案以偷取资金。在这种状况下,系统会分叉,而原生系统代币将会变得毫无价值,但原生系统代币持有人将会取得他们错误转移的任何资产所带来的报答。
稳定币是一个特别糟糕的例子。处置该问题的一种办法是,系统假定的确存在有利他的老实数据提供者,并创立一种机制来辨认他们,并且只允许他们迟缓行动,以便假定歹意行为者开端在系统的用户中开端投票,而依赖于预言机的这个系统能够首先完成有序退出。无论如此,预言机技术的更多展开是十分重要的问题。
新问题
假定我要在2019年再次列出难题,一些是上述问题的持续,但重点会发作很大变化,同时还会呈现新的严重问题。以下是选择的列表:
加密混杂
与上面第4个问题相同
正在中止的后量子加密工作
同时基于哈希和基于后量子平安的“构造化的”数学对象。即椭圆曲线等值线,格密码......
反合谋根底设备
正在中止的工作和完善https://ethresear.ch/t/minimal-anti-collusion-infrastructure/5413, 也包括增加针对操作者的隐私,以最大水平的理论方式增加多方计算等。
预言机
跟第16个问题相同,但不再强调“胜利指标”,更偏重于通用的“获取理想世界数据”问题。
独一人类身份,或者更理想地是半独一人类身份
跟第14个问题相同,但更强调更少的“绝对”处置计划:相比于取得一个身份,取得两个身份要难得多,但即便我们胜利了,这也让取得多个身份是既不可能也可能是有害的。
同态加密和多方计算
适用性仍需求持续改良
去中心化的管理机制
DAO很酷,但当前的DAO依然很原始,我们能够做得更好。
全面标准对PoS51%攻击的回应
更多公共物品融资的来源
理想的做法是对具有网络效应的系统内的拥堵资源中止收费(例如买卖费用),但在散布式系统中这样做需求公共合法性;因而,这是一个社会问题,也是寻觅可能来源的技术问题。
名望系统
与上述的第12个问题相同。
通常来说,根底层问题停顿迟缓但肯定会减少,而应用层问题才刚刚开端。