人工智能能靠量子超越人类?

编者按:量子计算机和人工智能有什么关系?提前剧透一下,量子计算机天然的带有机器学习的属性,将更有利于推进人工智能的发展。再考虑到量子计算机海量的数据处理能力,即便是模仿人类的神经网络的各种互动,也会比现有计算技术拥有更多优势。然而人工智能想要超过人类,终究是一个极其复杂的命题。一起来看一看作者的思路吧。

如果能时光穿越,智库也许不会错误地将美国两次拉入伊拉克战争!更不会有ISIS猖獗和今日中东乱战!因为有了量子计算机,这个能并行运算分析复杂系统问题并辅助决策的“神器”!

首先回顾下公众号“jcibas”双11刊曾预测过的答案,这个超越的时间点将是2045年。(如下图)

我们套用用量子计算的思维解答“人工智能将超人类”问题,下文得到的是一堆近似的答案,我们将进行探讨。

量子计算方式的突破性革命,人工智能将如虎添翼!量子计算更靠谱、更聪明、处理能力更强、更具自我学习、自我编程能力。——漫修远

量子计算的多样性答案和高置信度特性——更靠谱的计算

量子计算的特性就是不确定性。没错,只有一堆的最佳解决方案才是复杂系统的匹配方案。量子计算返回多个答案,其中一些可能是你正在寻找,另一些则不是。这初看像是坏事,但返回答案越多,意味着计算机的置信水平越高!换言之,即更靠谱。

量子计算机的高运算处理能力——运算硬实力

现在的计算机毕竟是二进制的(俗称经典比特),一遇到比较复杂的建模,像准确预测天气,预测更长时间后的天气等等,就会很费力费时;

量子计算D-Wave 2X 系统,在1000个量子比特时,能同时搜索2∧1000(2的1000次方)个可能的方案!可以同时一起展开“并行计算”,从而使其具备超高速的运算能力。

量子计算机能自我学习——更聪明的计算

量子计算也被称为AI co-processors (人工智能协处理器),非常适合人工智能AI及机器学习。

机器学习 machine learning 即授于计算机研究世界并不断从经验中学习的能力。它是人工智能领域的一个分支。

通常,我们编写的代码中的大部分都是相当静态的,即给定新数据,它仍将执行相同的计算,一遍又一遍,并作出相同的错误结果。

使用量子计算机器学习,系统可以设计程序,修改自己的代码,机器可以不断学习新的方法来处理它之前未遇到过的数据。

比如传统的计算机去无法识别它之前从未接触的新图像,因根据传统的计算架构,设计遵循非常严格的逻辑推理。而量子计算机的处理器就非常适合此类需要先质疑,后决策的高级任务!

形象点比喻,相当而言,传统计算是「一根筋」,而量子计算是「活脑筋」。

AI机器学习通常按已知的算法即监督学习法supervised learning algorithm进行的。下图所示谷歌AI实验室在2013年采用了512量子比特的系统,主要应用于帮助科学家建立更有效而精确的的AI模型,用于诸如从语音识别、网页搜索到(生物化学的)蛋白质折叠(模拟)。

到本月8日,运用1000个量子比特的D-Wave 2X系统谷歌试验室的声明,证实了量子计算比传统计算最高快一亿倍的事实。

量子计算机能自我编程——与时俱进的运算

量子计算通过允许编写自己的能量程序,让系统调整能量程序直到上图所有标签显示是正确为止。这也被称为“训练”或“学习”阶段。

注:能量程序 energy program 如下图所示,是量子计算特有的。

即量子在运算之初未定性状态到运算接受的定性状态的程序。

注:图中的‘-1’和‘1’是例举开关灯游戏里的数值,ON = +1 ; OFF = -1

量子比特计算罗斯定律增速>经典比特计算摩尔定律增速——当1亿被忽略不计

量子位数量每年翻番”的别称是罗斯定律,这是用定律的提出者D-Wave的创始人罗斯名字命名的定律。(谨慎起见,我们也称之为罗斯假设)

视频中,我们看到,量子计算基本按照每年翻倍的速度持续增长。

而摩尔定律是:集成电路芯片上所集成的电路的数目,每隔18~24个月翻倍。

如果罗斯假设成立,以2015年1000个量子比特芯片,每年翻倍的话,按量子计算方法论,我们得出可能的众多答案之一:

2015年1000个,2016年2000个,2017年4000个,2018年8000个,2019年16000个,2020年32000个,2021年64000个,2022年128000个,2023年256000个,2024年512000个,2025年1024000个,2026年2048000个…到2026年约2百万个量子比特芯片诞生。届时,量子计算机能同时提供2∧2048000个解决方案,这个数字足以撑爆小编PC的计算器。

2∧204≈2.57*10^61

2∧2048≈3.23*10^616

2∧20480≈1.24*10^6165 (PC机计算机算到此爆表)

作者推断2∧2048000≈ 1后面约有61万个0,我们常用的大计数单位‘亿’,1后面8个0,根本可忽略了。

最后我们团队的数学工程师Fishy Yu,编制了开发者小程序,给出了确切答案:2∧2048000≈ 2.69848*10^616509

欢迎来到量子计算的疆域,其实也意味着您已进入一个海量数字的世界!

工程师Fishy Yu,一开始还诧异,做什么项目需要算这么大的数字? 是啊,目前这个传统计算的世界,接触这类海量数字的机会并不多。

当然,罗斯假设的正确性,是否需要修正,有待时间检验。以上也只是数学推断。也是众多量子计算最佳答案之一,如年份和量子比特数量顺序错开,可能得出2030年得到2∧2048000量子比特芯片等多种答案。

推论至此,量子计算运用于仿生计算机的应用呼之欲出!

仿生计算机的提出是为了解决如何构建大规模人工神经网络的问题。传统计算的CPU/GPU处理神经网络效率低下,如谷歌大脑的1.6万个CPU运行7天才能完成猫脸的无监督学习训练。谷歌大脑实现模拟人脑的突触数量仅为100亿个,而实际的人脑突触数量超过100万亿。采用CPU/GPU的通用处理器构建数据中心,占地、散热以及耗电等都是非常严峻的问题。

100万亿,对于量子计算这个1亿可被忽略不计的时代,海量数据处理根本不是问题,换言之,到那时随着量子计算系统的不断自我学习迭代程序,人工智能超越人类,也水到渠成了!

最后,从量子计算的视角,让我们回顾一下2000多年前,老子在《道德经》这句名言,

“道生一,一生二

二生三,三生万物”。

注:文中有关量子计算事实的描述均引自D-Wave 官网。