内容字号:默认大号超大号

段落设置:段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

量子计算机极可能是一场“科学闹剧”!

2018-03-14 10:34 出处:未知 人气: 评论(0
近来流行这样一句名言:“只有想不到的的,没有做不到的”,这个观点也是作者原先的信念,但现在看来这句话成立还要加上一个附加条件:明显缺乏逻辑事实依据的想法除外。经过一段时间的论证和甄别,我们认为诸如超光速、时间变慢、多维空间、量子叠加态当属此列,进而进一步认为量子计算机、超人工智能也属于科学闹剧系列。作者已经谈过有关超人工智能的闹剧(百度《“上帝”的底线》),下面谈谈量子计算机。

 
一 设计原理上存在根本性错误
量子计算最本质的特征为量子叠加性和量子相干性,是以处理和运算量子叠加态信号为主的计算机。量子计算基于量子比特,而非现代计算机中的经典比特,它利用量子力学理论中的量子叠加和量子纠缠效应,具有天然的“大规模并行计算”的能力。在量子计算机中,基本信息单位是量子比特,运算对象是量子比特序列。量子比特序列不但可以处于各种正交态的叠加态上,而且还可以处于纠缠态上。量子计算机对每一个叠加分量进行变换,所有这些变换同时完成,并按一定的概率幅叠加起来并给出结果,这种计算称作量子并行计算。由此可见,支撑量子计算机关键核心的就是所谓的量子叠加态及其作为运算单元的量子比特。
 
所谓量子叠加态主要源自于一个叫做“薛定谔的猫”的思想实验,对此作者已经在博文《量子力学正在走向死胡同》(可百度),通过大量的论证了所谓叠加态的是不成立的,认为叠加态与状态、性状、特征等现象都属于主观对于客观世界的描述,本来就是一种主观性很强的东西,是不能作为真实的客观世界去对待的,所谓的量子叠加态完全是一个主观性的东西!但现在的自然科学目前却执意背其道而行之,不仅将叠加态强行并入量子力学,还要沿着这条路展开所谓的量子计算机研制,量子力学将极有可能因涉及量子叠加态这个荒谬的理论而走向死胡同。
 
经典科学目前的确存在许多适应性和局限性问题,但经典科学是建立在实实在在的客观现实基础上的,正因如此,经典科学取得了巨大的成功,人类要想超越经典科学,最佳途径也只能是建立在客观现实基础上的超越,而不是仅凭主观想象等其他捷径或邪路就可以超越的。量子力学原本许多主要的基础理论也是建立客观现实基础上的,但是自从搞出了个所谓的量子叠加态,就似乎使得整个量子力学变成了一个主观随意想象的世界,而这绝非科学务实的态度!在薛定谔的那只“妖猫”的引领下,自然科学正在走向主观化和畸形化,原因在于包括量子力学在内的现代科学理论存在巨大的局限性,使得一些自然科学家在不能用现有的认知体系解释这些问题情况下,就将一些主观性问题强行归并到客观性问题上,这也是一些当代自然科学家通常的错误。基于此,量子计算机在出发点时就已经走在了错误的道路上,这就注定了量子计算机的最终命运。
 
以下是作者在假定认可理论叠加态的前提下的进一步推论。
 
二 具有明显的不确定性特征
量子计算机的信息单位是量子比特(qubit),量子比特可以表示“0”,也可以表示“1”,甚至还可以是“1”和“0”的叠加状态(superposition),即同时等于“0”和“1”,而这种状态在被观察时,会坍塌成为“0”或是“1”,也就变成了确定的值,其实也就和经典量子理论“薛定谔的猫”是一个道理。除此之外,两个量子比特还可以共享量子态,无论这两个量子比特离得多远,也就是所谓的“量子纠缠”(entanglement)。
 
量子比特可以是两个逻辑状态的叠加体,它可以同时存储“0”"1"。如果是N个量子比特,理论上可以同时存储2^ N的数据。量子计算机在进行运算时,可以同时计算2^ N的数学运算,相当于经典计算机要重复2^ N的计算,由此可见,量子计算机可以节约大量的时间和计算单元。50量子比特的运算速度(2的50次方=1125亿亿次)将秒杀最强超级计算机(目前世界最强的超级计算机是神威·太湖之光,运算速度是每秒9.3亿亿次)。
 
理论和表面上看,量子计算机的确很厉害,具有远胜于经典计算机的机能,但其巨大的隐患也正在于此。我们知道,经典计算机的显著特点应该是建立在准确无误基础上的高速运算,前提首先是准确无误,但是量子计算机却根本无法做到这一点,因为所谓的量子比特就是一种具有完全不确定性的叠加态比特。在“量子世界”中,客体的物理量则是不确定的、概率性的,而且这种不确定性与实验技术无关,是量子世界的本质特征,无法消除。而量子计算机虽然也可以使用 0和 1,但一个量子比特可以同时是 0 和 1,具有不确定性。
 
量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交,其变换为所有可能的幺正变换。比如,一个具有10量子比特运算能力的量子计算机,我们可以同时输入似于“|0110110100>+ |1001001011>”的叠加态,但由于每个量子比特都存在叠加的不确定,就会使输出态存在2^10的运算结果,即存在2^10个不确定性结果。结论:有多快的运算速度,就有多大的不确定性。
 
不确定性是量子计算机的典型特征,但一个具有极大不确定计算机是基本上没有应用价值的,或许最多只可作为概率机用于游戏而已。
 
三 无解的错误率
无论是量子并行计算还是量子模拟计算,量子计算机本质上都是利用了量子叠加态和量子相干性,这本来就已经决定了其不确定性的典型特征。在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即消相干。另外,由于量子本身受到周边其他粒子的影响,将会导致更多的错误结果,这需要使其被置入不受干扰的完美环境中。退一步说,即便将量子计算机进行彻底隔离(比如超低温),也会由于计算机的量子回路内本身存在随机波动,导致所产生的结果仍然不是每个都正确。因此,要使量子计算成为现实,需要在加入量子纠错技术,其核心问题就是克服消相干,而量子编码是迄今发现的克服消相干最有效的方法。
 
目前主要的几种量子编码方案是量子纠错码、量子避错码和量子防错码,但仍然存在效率不高的缺陷。主流的量子纠错技术需要引入更多的纠错量子,来耦合一个计算量子在某个时间的状态。然而,这种纠错反而占用了更多——甚至是几乎所有的计算量。想要将错误率降低到可接受的水平,一个实际性能只有 3-qubit 的量子计算机可能需要上百个量子比特。在这样的前提下实现 50-qubit 的所谓量子优势,将使其变得非常臃肿,也变得非常不经济。早在 2002 年,《电子工程专辑》的一篇文章就指出,错误率 (error rate) 是量子计算实现的绊脚石。
 
2017年11月12日,IBM宣布成功研发出20量子位的量子计算机,并成功建成并测试全球首台50个量子比特的量子计算原型机。而近期的美国物理学会上,Goggle实验室的公布了最新一代量子处理器Bristlecone—— 72位量子位处理器,错误率只有1%。目前来看,在错误率上,谷歌在72位量子计算机上已经实现了这个目标,单量子比特门为0.1%,双量子比特门为0.6%。
 
谷歌的成就似乎使我们看到了进展,但由于存在量子叠加性和量子相干性的本质性特点,在加上其对环境和设备的苛刻要求,可以肯定:所谓的量子计算机只能会逐渐缩小错误率,但却完全无法像经典计算机那样从根本上消除错误率,量子计算机对错误率是完全无解的,这也是其根本特征之一。但我们知道,在高速运算的情况下,计算机本质是不能容许有任何错误的,任何一个计算失误都有可能被巨量放大,将会导致“失之毫厘谬以千里”的结果,更何况如此高的错误率。在错误率不能根本彻底消除的情况下,无论多么高速的计算机,都是没有现实意义和实用价值的。
 
四 现实条件严重不足
理论上的量子计算之所以能达到如此神速,就是因为量子比特的叠加状态和量子纠缠,但与此同时,量子叠加和纠缠状态是极度脆弱的,不能受到一丁点干扰,量子计算机必须在极度低温条件下工作。建造量子计算其中一个困难就是,由于自身条件的限制,量子比特必须保存在温度极低的环境中,约零下273摄氏度。量子处理器(QPU)需要在绝对零度(-273.15℃)附近的温度才能运行——屏蔽磁场、隔离震动和外部因素的干扰都需要绝对零度的低温环境,还要将量子计算机放到比地球磁场弱50000倍、大气压比地球小100亿倍的环境中,以保持量子状态的稳定。这些都是通过闭式循环冰箱实现的,如谷歌位于加州圣巴巴拉实验室里的量子芯片,就被冻结在悬空低温恒温器里。
 
量子比特在其位置上保存的时间也非常短暂,因此量子计算意味着处理非常不稳定和脆弱的信息。不仅如此,量子位错综复杂、变幻无常、体积微小、极难控制,及时能做到,任何的噪音、热度和震动也会让研发者前功尽弃。量子比特分为物理比特和逻辑比特,对数个物理比特进行编码后,才能得到1个逻辑比特。由于国际上没有一家机构能实现一位逻辑比特的编码,而实现不了编码就不可能实现通用量子计算。因此,目前的量子计算机只能做一些特定的任务,使用分为非常狭窄。就以IBM本次研发出的20量子比特量子计算机来说,它就只能解决一些特定的问题。其实,不仅IBM的量子计算机,中国的量子计算机同样只能解决少数特定问题。中国科学技术大学等单位联合研制的光量子计算机基于线性光学,把量子点当做单光子源来使用,而且可以实现光子纠缠操纵,但就用途来说,这台光量子计算原型机只能用来做玻色取样,而无法像经典计算机那样实现通用计算。
 
迄今为止,世界上还没有真正意义上的量子计算机,量子计算机仅仅具备假设意义。目前,有一种用原子实现的量子计算机似乎能够实现量子计算机,但也只有5个q-bit,该款即便放在一个试管中,也需要配备有庞大的外围设备,只能做1+1=2的简单运算。正如Bennett教授所说,“现在的量子计算机只是一个玩具,真正做到有实用价值的也许是5年,10年,甚至是50年以后”。目前世界各地的许多实验室正在以巨大的热情追寻着这个梦想,已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等,但由于在实验上实现对微观量子态的操纵确实太困难了,还很难说哪一种方案更有前景,就算这些问题都可以得到解决,量子计算机对于处理日常任务也并没有什么用处。
 
综上所述,量子计算机甚至是个连概念都不成熟的计算机,根本原因在于其作为支撑理论的量子叠加理论含有太多的主观想象成分,严重缺乏现实基础,具有明显的既不能证实也不能证伪的极大缺陷,正因如此,量子计算机破绽百出,才出现了上述众多短板。事实上,自从理查德·费曼1982年提出量子计算机概念后,人类在这个方面的研究已经近40年,在当代技术发展高速进展的情况下,量子计算机进展如此缓慢和被动,这其实已经说明了这个理念存在很大问题了。
 
目前为止,电子计算机仍然是计算机领域最成功的典范,也是我们人类所唯一可以倚重的计算机,人类目前应该把主要精力放在电子计算性能的进一步改进上,而不是去空想研制完全不靠谱的所谓量子计算机。电子计算机其成功的原因在于其建立在坚实的理论基础上,其他诸如光子计算机、生物计算机,以及新文明所提出的本真信息处理机(高灵敏计算机)等等,虽然难度很大,但毕竟也有接地气的理论基础,坚持下去也是有希望的。相比而言,量子计算机却连最基本的理论基础都不具备,其发展结局可能连光子计算机、生物计算机都不如。量子计算机将有可能成为科学史上的第二个“永动机”,昙花一现、热闹一时而已。
 
量子计算机极有可能又是一起科学闹剧!鉴于目前的形势,建议国家及相关部门要先从基本的理论基础做起,首先从理论上展开对“量子叠加”的的论证及量子力学的完善工作,而不要急于在量子计算机的研制上浪费时间和资源了!
分享给小伙伴们:
本文标签:

相关文章

评论

发表评论愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。

签名: 验证码: 点击我更换图片

评论列表

    Copyright © 2006-2018 全球买卖网区块链新闻-全球区块链资讯 Blockchain.GlobalComDir.com

    粤ICP备15026495号-3