原文标题:Hard Problems in Cryptocurrency: Five Years Later
原文地址:https ://vitalik.ca/general/2019/11/22/progress.html
原文作者:Vitalik
翻译:张小璋 Sylvain Zhang
特别感谢 Justin Drake 和 Jinglan Wang 的反馈
2014 年,我发表了一篇文章和一个演讲,列出了一系列数学、计算机科学和经济学方面的难题,我认为这些难题对于加密货币领域(当时我这样称呼它)能够走向成熟至关重要。在过去的五年里,很多事情都发生了变化。但是,在我们当时认为重要的事情上发生了多少进展?我们在哪些方面取得了成功?在哪些方面失败了?在哪些重要的方面我们改变了看法?在这篇文章中,我将逐一回顾 2014 年的 16 个问题,看看我们今天在每个问题上的进展。最后,我将列出我新挑选出的 2019 年难题。
这些问题被分为三类:
- 密码学:如果他们是可以解决的,就可以用纯数学技术来解决;
- 共识理论:对PoW(Proof of Work,工作量证明)和PoS(Proof of Stake, 权益证明)的大幅度改进
- 经济学:涉及创建给与不同参与者的奖励结构,而且往往涉及应用层而不是协议层。
我们看到所有领域都取得了重大进展,尽管有些领域并其他领域的进展更大。
加密问题
1.区块链扩展性(Scalability)
当前加密货币领域面临的最大问题之一是可扩展性问题。「超大区块链」(oversized blockchains)的主要问题是信任:如果只有少数实体能够运行完整的节点,然后这些实体可以合谋,并同意给自己大量额外的加密货币。而在没有自己处理整个区块链的情况下,其他用户将无法看到一个非法的区块。
问题:创建一个维持类似比特币安全保障的区块链设计,但网络运行所需要的最大规模的节点和交易数量基本是线性增长的。
现状:理论上取得了巨大的进步,有待于更多的实际应用的评估。
扩展性是我们在理论上取得巨大进步的一个技术问题。五年前,几乎没有人考虑分片;现在,分片设计已经司空见惯了。除了 ETH 2.0(Ethereum 2.0),我们有OmniLedger, LazyLedger, Zilliqa和几乎每个月都会发表的研究论文。在我看来,在这一点上的进一步发展是渐进的。从根本上说,我们已经有了一些技术,使验证者组安全地就单个验证者无法处理的更多数据上达成共识,也允许客户端在51%的攻击条件下间接地验证区块的完全有效性和可用性。
这些可能是最重要的技术:
随机抽样(Random sampling):允许一个随机形成的小型委员会从统计学角度上代表完整的验证者集合
欺诈证明(Fraud proofs):允许了解错误的任一节点将错误传播给其他所有人
托管证明(Proofs of custody):允许验证者在概率意义上证明他们单独下载并验证了一些数据
数据可用性证明 (Data availability proofs):允许用户在其数据头所在的区块数据主体不可用时进行检测。另外参见更新的Merkle trees编码提案
还有其他一些较小的开发,比如通过收据进行的跨分片通信,以及诸如 BLS 签名聚合等“恒定因子”增强。
尽管如此,完全分片的区块链仍然没有在实际操作中出现(部分分片的 Zilliqa 最近开始运行)。在理论方面,仍然有细节存在争议,同时还有与分片网络的稳定性、开发人员经验和降低集中化风险有关的挑战;基本的技术可能性似乎不再存在疑问。但是仍然存在的挑战是不能仅仅通过思考就能解决的挑战;只要开发系统并实现 Ethereum 2.0 或者类似的链运行才能够客服。
2.时间戳(Timestamping)
问题:创建一个分布式激励相容(incentive-compatible)的系统,无论实在其他区块链上还是自己的区块基础上,它都能将当前时间维持在高精度上。所有合法用户的时钟都在一些“实时”时间的正态分布中,标准偏差为 20 秒,两个节点之间的间隔不超过 20 秒。解决方案允许依赖现有的「N 节点」(N nodes)概念。这将在实践中按照 PoS 或者非 Sybil 令牌来执行。系统应该持续的提供时间,这个时间应该在>99%诚实参与节点中的内部时钟的 120s 内(或者尽可能的短)。外部系统可能最终依赖于这个系统,因此它应该保持安全,防止攻击者控制超过 25% 的节点。
现状:取得一些进展。
实际上,以太坊只有 13s 的出块时间,而且是在没有特别先进的时间戳技术的情况下,它采用了一种简单的技术,即客户端不接受一个声称时间比客户端本地时间早的区块。也就是说,这并没有在严重攻击下进行测试。最近的网络调整时间戳提议(network-adjusted timestamps)试图改变现状:允许户端在不是非常准确地知道本地当前时间的情况下,对时间达成共识。这一点尚未得到检验。但是一般来说,时间戳目前并不是研究的挑战;也许这将在基于 PoS 的区块链(包括Ethereum 2.0 和其他的类似链)作为真实系统上线时我们才能发现问题。
3.任意算力证明(Arbitrary Proof of Computation)
问题:创建程序 POC_PROVE(P,I) -> (O,Q)
和 POC_VERIFY(P,O,Q) -> { 0, 1 }
,以便 POC_PROVE 在输入 I 后运行程序 P 并返回程序输出 O ,算例证明 Q 和 POC_VERIFY 接受 P,O 和 Q 以及输出值,无论 Q 和 O 是否由使用 P 的 POC_PROVE 算法合法生成的。
现状:理论和实践取得重大进展。
这基本上说,开发一个SNARK (或者 STARK,或者 SHARK,或者...)。我们已经做到了!Snarks 现在已经被越来越多的人了解,甚至已经被用于多个区块链网络中(包括在 Etherium 上的tornado.cash)。Snark 作为隐私技术(参见 Zcash 和 tornado.cash)和可扩展性技术(参见 ZK Rollup、 STARKDEX 和 STARKing 消除编码数据根)都非常有用。
但是在效率方面仍然存在很多的挑战:创建算法友好的哈希函数(参见 hash-challenge和mimchash,以获取打破提议的候选函数的奖励)是一个大问题,而有效的证明随机内存访问是另一个问题。此外,还有一个悬而未决的问题,即证明时间中的 o (n * log (n))放大是否是一个基本的限制,或者是否有某种方法可以作出一个简洁的证明,只有线性开销,如同在bulletproofs中一样(不幸的是,需要线性时间来验证)。 现有的计划中也存在漏洞。 一般来说,问题在于细节,而不是基础性的。
4.代码混淆(Code Obfuscation)
问题:技术追求的最高目标是创建一个混淆器 O,这样,给定任何程序 P,混淆器都可以产生第二个程序 O(P) = Q。这样,如果给定相同的输入,P 和 Q 就能返回相同的输出,重要的是,Q 没有显示任何 P 的内部结构信息。你可以在 Q 中隐藏一个密码,一个私钥,或者可以简单的使用 Q 来隐藏算法本身的特定工作。
现状:进展缓慢。
用简单的英语来说,问题在于我们想要找到一种方法来「加密」一个程序,这样加密的程序仍然可以为相同的输入提供相同的输出,但是程序的「内部」是隐藏的。 混淆处理的一个示例用例是一个包含私钥的程序,其中该程序只允许私钥对某些消息进行签名。
代码混淆的解决方案对区块链协议非常有用。 这些用例是微妙的,必须处理链上的混淆程序被拷贝复制并运行在另一个异于链本身的环境的可能性,除此之外还有许多其他情况。我个人感兴趣的一个能力是,通过用一个混淆程序来替换原先含有一些 PoW 的操作,从防共谋工具中移除中心化的操作员,这使得为了确定个别参与者的行动而使用不同输入进行多次运行变得非常昂贵。
不幸的是,这仍然是一个难题。目前正在继续进行工作以解决这一问题。一方面构造(例如,Cryptology ePrint Archive: Report 2018/615)试图减少我们未知数学对象的假设数量(比如说通用密码多线性映射),另一方面试图使所需的数学对象做实际的实现。然而,所有这些方法离创造出可行的、已知安全的东西还相当遥远。更多关于这个问题的一般性概述,请参阅In Pursuit of Clarity In Obfuscation。
5.基于哈希的密码学(Hash-Based Cryptography)
问题:创建一个不依赖任何安全性假设而是基于哈希值随机预言机属性的的签名算法,其可保持和具有最佳大小和其他性能的经典计算机(即,由Grover算法设计的 80 对量子)等同的 160 位比特大小安全性
现状:有一些进展。
自 2014 年以来,这方面已取得了两大进展。SPHINCS 是一种「无状态」(意味着多次使用不需要像 nonce 一样记住信息)的签名方案,在这个「难题」列表发布后不久就发布了,它提供了一个大约41 kB 的纯基于哈希的签名方案。此外,STARKs 已经开发出来了,人们可以基于它们创建类似大小的签名。 事实上,不仅仅是签名,还有通用的零知识证明,只需要哈希就可以做到,这是我五年前绝对没有预料到的事情; 我很高兴事实就是这样。 尽管如此,规模仍然是一个问题,而且正在取得进展(如。 看看最近的DEEP FRI)正在继续减少证明的大小,尽管看起来进一步的进展将是渐进的。
基于哈希的密码学主要未解决的问题是聚合签名,类似BLS 聚合所能实现的。众所周知,我们可以通过许多 Lamport 签名来创建一个 STARK,但这是一个低效率的,一个更有效的方案将会很受欢迎。(如果你想知道基于哈希的公钥加密是否可行,那么答案是,不,你只能使用二次攻击花销。)
共识理论问题
6.抗 ASIC 的工作量证明(ASIC-Resistant Proof of Work)
问题:解决这个问题的一个方法是基于一种很难被专门化的计算类型来创建 PoW 算法。有关更多抗 ASIC 硬件的深入讨论,请参见https://blog.ethereum.org/2014/06/19/mining/。
现状:尽可能的解决了
在“难题”列表公布大约六个月后,Ethereum 决定采用抗 ASIC 的PoW算法: Ethash。Ethash 被称为「内存硬算法(memory-hard algorithm)」。这个理论认为,普通计算机中的随机存取存储器(RAM)已经得到了很好的优化,因此很难对专门应用进行改进。Ethash 通过将内存访问作为 PoW 计算的主要部分来实现抗 ASIC。Ethash 并不是第一个内存硬算法,但它确实增加一个创新点:它在两级 DAG 上使用伪随机查找,允许通过两种方法来计算函数。首先,如果一个人拥有整个(约 2GB)DAG,就可以快速计算它了。这是内存硬的「快速路径」。其次,如果只有 DAG 的顶层,那么计算它就会慢得多(但仍然很快,足以对单个提供的解决方案进行快速检查);这是用于区块验证的。
事实证明,Ethash 在抗 ASIC 方面非常成功; 经过三年时间和数十亿美元的区块奖励后,虽然ASIC 依旧存在,但它的性能和成本效率最多是 GPU 的2-5倍。 作为一种替代方案,ProgPoW已经被提出。但是越来越多的人认为抗 ASIC 的算法将不可避免的有一个有限的生命周期,并且抗 ASIC 也有缺点,因为它使得 51%的攻击更便宜(例如:请参阅 针对ETC(以太经典,Ethereum Classic)de 51%攻击)。
我相信可以创建提供中等级 抗 ASIC 的 PoW 算法,但是这种抗 ASIC 是有期限的。ASIC 和非 ASIC PoW 都有缺陷。从长远看,更好的区块链共识机制应该是 PoS。
7. 有用的工作量证明(Useful Proof of Work)
使工作量证明同时有用的,是一个类似于 Folding@home 的程序。
这是一个现有的程序,用户可以下载软件到他们的电脑上进行蛋白质折叠模拟,并未研究人员提供大量的数据来帮助他们治疗疾病。
现状:可能不可行,除了一个例外。
PoW 的挑战在于,PoW 算法需要许多属性:
- 难于计算
- 易于证明;
- 不依赖大量外部数据;
- 可以高效的分块计算 。
不幸的是,没有多少有用计算可以保留所有这些性质,而且大多数具有所有这些性质且「有用」的计算只是在很短的时间内「有用」 ,无法围绕它们开发加密货币。
然而,有一个可能的例外:零知识证明。区块链方面的零知识证明(例如,一个简单示例的数据的可用性)难以计算且易于验证。此外,它们长期难以计算; 如果证明“高度结构化”的计算变得太容易,则可以简单地切换到验证整个区块链状态的变化,由于需要模型的虚拟机和随机内存访问,这变得非常昂贵。
零知识证明区块链有效性,为区块链的用户提供了巨大的价值,因为他们可以替代对链进行直接验证的需要;Coda正在这样做,虽然它采用的是简化的区块链网络设计,并为可以证明性进行了大量的优化。这样的证明机制可以显著的帮助提高区块链的安全性和可扩展性。也就是说,实际需要完成的计算总量仍然远远低于目前由 PoW 所完成的数量,所以这充其量只是一个用于 PoS 区块链的附加组件,而不是一个完全一致的算法。
8. 权益证明(Proof of Stake)
解决挖矿集中化问题的另一种方法是完全取消挖矿机制,转而采用其他机制来计算共识中的每个节点的权重。迄今为止,讨论中最受欢迎的替代方案是「权益证明」(PoS)——也就是说,不在将共识模型视为「一个 CPU 功率单位代表一票」,而是变成「一个货币单位代表一票」。
现状:理论上取得了巨大的进步,有待于更多的实际应用的评估。
2014 年底,权益社区的证据表明,某种形式的「弱主观性」是不可避免的。为了维护经济安全,节点首次同步时需要获得最近的检查点协议,如果节点离线超过几个月则需要再次获得该协议。这是一个很大的风险点:许多 PoW 的拥护者仍然坚持 PoW,因为在 PoW 链中,链条的「头部」是可以被发现的,作为唯一的数据来自可信开源,即区块链客户端的本身。然而,PoS 的拥护者们则愿意承担这个风险。因为他们认为增加的信任要求并不大。通过长期的保证金证明权益的途径变得清晰起来。
目前大多数有趣的共识算法基本上都与 PBFT 相似,但是用一个动态列表替换了固定的验证器节点集合,任何一个人都可以通过将 token 发送到一个带有时间锁定提取的系统级智能合约中来加入它(例如,在某些情况下,Token 的提取需要四个月才能完成) 。在许多情况下(包括Ethereum 2.0),这些算法通过惩罚以某种方式执行违反协议的操作的验证程序,来实现「经济的最终性」。(请参见这里关于权益证明的哲学观点)。
迄今为止,我们(在许多其他算法中)有:
Casper FFG
Tendermint
HotStuff
Casper CBC
改进在不断的进行中(比如Analysis of bouncing attack on FFG和Saving strategy and FMD GHOST)。Eth2 phase 0,是实现 FFG 链,目前正在实施中并且已经取得了巨大的进展。此外,Tendermint 已经已 Cosmos 链的形式运行了几个月。在我看来,关于权益证明的其他争论,都和优化经济激励机制以及进一步规范应对 51%攻击的策略有关。此外,Casper CBC 规范仍然可以作为具体的效率改进。
9. 储存证明(Proof of Storage)
解决这个问题的第三种方法是使用计算能力或者货币意外的稀缺计算资源。在这方面,已经提出的两个主要替代方案是存储和带宽。原则上,没有办法提供事后加密证明,用以证明带宽已经给出或者使用,所以带宽的证明应该是最准确的被认为是社会证明的一个子集,在后面的问题中讨论。但是存储证明是肯定可以通过计算完成的。储证明的一个优点是它完全抵抗 ASIC。我们在因公盘驱动器中的存储类型已经接近最佳。
现状:已经取得一些理论进展,但仍有很多路要走,以及更多的实际评估。
有许多区块链计划使用存储协议证明,包括 Chia 和 Fileecoin。也就是说,这些算法还没有经过野外测试(tested in the wild)。我自己主要关心的是集中化:这些算法实际上是由使用限制存储容量的小用户主导还是由大型矿场主导?
经济学
10、稳定币
比特币的主要问题之一是对法币价格的波动。问题:创建一个价格稳定的加密资产。
现状:取得一些进展。
MakerDAO现在已经投入使用,并稳定运行了近两年。它已经经受住了其相关抵押资产(ETH)价值下降 93%的考验,现在已经发行了超过一亿美元的 DAI 债券。他已经成为以太坊生态系统的支柱,许多以太坊项目已经或者正在与之整合。其他合成 token项目,如 UMA也正在迅速获得发展。
然而,尽管 MakerDAO 体系在2019年艰难的经济环境中存活了下来,但情况绝不是最艰难的。在过去,比特币在两天内下跌了75% ; 同样的情况将来可能会发生在以太坊或任何其他抵押资产上。与此同时,对区块链底层的恶意攻击是更大的未经测试的风险,这种风险预期会带来的价格下跌更加加剧了风险本身;另一个主要的挑战,也可以说是更大的挑战,是类似 MakerDAO 的系统稳定性依赖于一些底层的预言机方案,预言机系统的确存在不同的尝试(详见#16),但在巨大的经济压力下,他们能否承受住的问题,目前尚无定论。到目前为止,MakerDAO 控制的抵押品低于 MKR token的价值; 如果这种关系逆转 MKR 持有者可能会有动机来集体尝试「掠夺」 MakerDAO 系统。有很多方法可以防止这样的攻击,但是这些方法还没有在现实生活中得到检验。
11、去中心化公共物品激励(Decentralized Public Goods Incentivization)
总的来说,经济体系面临的挑战之一是「公共物品」问题。如,假设有一个科学研究项目,完成这个项目需要100万美元,而且已知,如果完成了这个项目,每项研究将为100万人节省5美元。 总的来说,社会效益是显而易见的。但是从每个个人贡献的角度来看是没有意义的。到目前为止,大多数公共物品问题的解决都涉及中心化。附加假设和要求:存在一个完全可信赖的预言机,用于确定某个公共物品任务是否已完成(实际上这是错误的,但这是另一个问题的领域)。
现状:取得一些进展。
人们普遍认为,为公共产品提供资金的问题分为两个问题: 资金问题(从哪里为公共产品提供资金)和倾向聚合问题(首先是如何确定什么是真正的公共产品,而不是某个人的私人项目)。 这个问题特别关注前者,假设后者得到了解决(请参阅下面的“Decentralized contribution metrics”部分,以了解该问题的工作)。
总的来说,在这方面还没有大的突破。 有两种主要的解决方案。 首先,我们可以尝试引出个人的贡献,为这样做的人提供社会奖励。 我自己通过关于通过边际价格歧视进行慈善建议就是一个例子; 另一个例子是 Peepeth 上的抗疟疾捐赠徽章。 其次,我们可以从具有网络效应的应用程序中收集资金。 在区块链的领域内有几个选择这样做:
- 发行代币
- 在协议级别收取部分交易费用(例如,EIP 1559)
- 从某些 Layer-2 的应用程序中收取交易费用(例如 Uniswap,或者一些缩放解决方案,甚至在 Ethereum 2.0 的执行环境中收取租借费用。)
- 收取其他费用的一部分(如 ENS 注册)
在区块链领域之外,这是一个古老的问题,如果你是一个政府,如何收税,如果你是一个企业或其他组织,如何收费。
12、声誉系统(Reputation systems)
问题:设计了一个形式化的声誉系统,包括一个信誉分数,rep(a,b)->V,其中 V 表示从 a 的角度来衡量 b 的声誉,一个确定一方可以被另一方信任的概率的机制,以及一个给定特定的开放或最终的交互记录状态下更新声誉的机制。
现状:进展缓慢。
自2014年以来,关于声誉系统的研究就不多了。 也许最好的方法是使用 token 管理的注册中心来创建可信实体 / 对象的管理列表; Kleros ERC20 TCR (是的,这是一个合法 ERC20令牌管理的注册中心)就是一个例子,甚至还有一个 Uniswap的界面接口,使用它作为后端,从中获取token 列表、代码和标识。具有主观多样性的声誉系统还没有真正得到尝试,也许是因为关于人们彼此之间联系的“社交关系图”以某种形式发布上链的信息不够充分。如果这些信息是因为其他原因开始存在,那么主观声誉系统可能会变得更受欢迎。
13、优秀的工作量 / 贡献度证明(Proof of excellence)
针对 Token 的发行问题,一个有趣的、但基本上尚未探索的解决方案是,使用对社会有益、但需要人来驱动的创造性尝试和天赋的任务来分配。例如,人们可以想出一个「Proof of Proof」货币,奖励那些给出某些数学定理证明的玩家.
进展:无进展,问题基本上被遗忘
Token 分发的主要替代方式是空投的流行,通常,Token 在发布时与其他 Token 的现有持有量成比例分配,或者基于其他一些度量(例如,握手空投。)直接验证人类的创造力还没有被真正尝试过,而且随着 AI 上的最新进展,创造一个只有人类才能完成但计算机可以验证的任务可能太困难了。
14、去中心化的贡献度
不幸的是,中心化解决的问题并不仅仅是激励公共产品的生产。 另一个问题是,首先要确定哪些公共产品首先值得生产,其次确定付出多大的努力才能完成公共产品的生产。 这一挑战涉及后一个问题。
现状:有些进展,重点有所改变。
最近关于确定公共产物贡献度的工作并没有试图将确定任务和确定完成质量分开; 原因是在实践中这两者很难分开。 由特定团队完成的工作往往是不可替代的,也是非常主观的,因此最合理的方法是将任务的相关性和绩效质量作为一个整体来看待,并使用相同的技术来评估这两者。
幸运的是,在这方面已经有了很大的进展,特别是「二次筹资」的出现。 「二次筹资」是一种机制,在这个机制下个人可以向项目捐款,如果他们完全协调彼此(即。 考虑到彼此的利益,没有成为公地悲剧的牺牲品),根据捐赠的人数和他们捐赠数量用公式是用来计算他们的捐赠量。任何特定项目的本来捐赠金额与实际捐赠金额之间的差额将从某个中央资金池中补贴提供给该项目(中央资金池的资金来源见#11)。 请注意,这种机制的重点是满足某个社区的价值观,而不是满足某个给定的目标,无论是否有人关心它。 由于价值问题的复杂性,该方法对未知的未知数可能更具健壮性。
在现实生活中也尝试过「二次筹资」机制,最近的 gitcoin 二次筹资取得了相当大的成功。 在改善「二次筹资」和类似机制方面也取得了一些渐进性进展,成对有界的二次融资可以减少共谋和串通现象。人们还开展了反贿选技术的规范和实施工作,防止使用者向第三方证明他们投了谁的票; 这防止了多种串通和贿赂攻击。
15、抗女巫攻击系统(Anti-Sybil systems)
这个问题和声誉系统有点关系,它是创建「唯一身份系统」的挑战——这个系统可以生成证明身份不是女巫攻击的一部分的标记。然而,我们希望具有比「一元一票」更好,更公平的系统,可以说,一人一票将是理想的选择。
现状:有一些进展,在这个独特的人类问题上已经有了不少尝试。
我能够想到的尝试包括(不完整列表!):
随着对二次投票和二次筹资等技术的兴趣越来越浓厚,对于某种基于人的反女巫系统的需求也在不断增加。希望这些技术的不断不断发展和新技术能够满足这些需求。
16、分布式现实测量(Decentralized success metrics)
问题:提出并实施一种分布式的方法来测量现实世界中的数字化变量。这个系统应该能够测量任何人类目前可以达成一个粗略共识的任何数值属性。(例如:资产价格、气温、全球二氧化碳浓度)
进展:有些问题
现在通常称为「预言机问题」。已知最大的分布式预言机运行实例是 Augur,它已经处理了数百万美元的下注结果;另一个例子是代币管理中心(例如 Kleros TCR)。然而无论是由于一个极具争议性的问题还是一个未遂的 51%攻击,这些系统仍然没有看到一个分叉机制下的真实测试。(在这里搜索「主观主义」)。也有关于在区块链空间之外的预言机问题研究以「同行预测」文献的形式出现,看看这里连接该领域的最新进展-->Dominantly Truthful Multi-task Peer Prediction with a Constant Number of Tasks
另一个迫在眉睫的挑战是,人们希望依靠这些系统来引导大于该系统本身的经济价值的资产转移。 在这种情况下,理论上 Token 持有者有动机串通给出错误答案,以窃取资金。 在这种情况下,系统会分叉,原始系统 Token 可能变得毫无价值,但原始系统 Token 持有者仍然可以从他们误导的任何资产转移中获得回报。稳定币(见#10)就是一个特别糟糕的例子。解决这个问题的一种方法是建立一个系统假设真的存在无私诚实的数据提供者,并且创建一个识别他们的机制,只允许他们缓慢地运转,以便如果恶意的数据提供者开始在依赖于预言机的系统的被投票,可以使依赖预言机系统的用户首先有序地退出。 无论如何,预言机技术的进一步发展是一个非常重要的问题。
新问题
如果我要在 2019 年再次编写难题清单,则有些问题将是上述问题的延续,但重点将发生重大变化,同时还将出现新的重大问题。以下是一些选择:
- 加密混淆(Cryptographic obfuscation):与上边的#4 相同
- 关于后量子密码的正在进行的工作(Ongoing work on post-quantum cryptography):既基于哈希以及基于后量子算法安全的「结构化」数学对象,例如。 椭圆曲线等值线,点阵等
- 反共谋基础设施(Anti-collusion infrastructure):正在进行的工作和https://ethresear.ch/t/minimal-anti-collusion-infrastructure/5413 的完善,包括增加针对运营商的隐私保护,以最大实用性的方式增加多方计算等。
- 预言机(Oracles):和上面#16 一样,但是去掉了对「成功度量」(success metrics)的强调,专注于一般的「获取真实世界的数据」(get real-world data)的问题。
- 唯一人类身份(或者更现实的说,半独特的人类身份)(Unique-human identities,semi-unique-human identities):与上面#15一样,但强调了一个不那么「绝对」的解决方案:获得两个身份应该比获得一个身份难的多,但得到多个身份变得不可能,即使我们成功了,这也是不可能的,而且可能是有潜在的危害。
- 同态加密和多方计算(Homomorphic encryption and multi-party computation):为了实用性,仍然需要不断的改进。
- 去中心化的治理机制(Decentralized governance mechanisms):DAOs 很酷,但是当前的 DAOs 仍然非常原始; 我们可以做得更好.
- 完全证实话对 51% PoS 攻击的响应(Fully formalizing responses to PoS 51% attacks):正在进行的工作和改进
- 更多的公共产品资金来源(More sources of public goods funding):理想的做法是具有网络效应的系统内部的紧缺资源(如交易费用)进行收费,但在去中心化系统中这样做,需要公共合法性,因此这是一个社会问题,以及也是一个寻找可能来源的技术问题。
- 声誉系统(Reputation systems):同上面的#12
一般来说,基础层的问题正在缓慢的但是肯定的减少,而应用层的问题才刚刚开始。