分类目录归档:业界动态

期待量子通信改变VR的传输瓶颈

期待量子通信改变VR的传输瓶颈

中国科学院国家空间科学中心研制的“墨子号”卫星,在中国的酒泉卫星发射中心成功发射升空并进入预定轨道。“墨子号”是一颗量子卫星,也是世界上第一颗量子卫星。
这条信息直接刷爆了朋友圈,所有人都在庆祝,中国又多了一项世界第一。
虚拟现实圈也在刷,庆祝墨子号发射成功,并预言量子通信未来可能会改变虚拟现实的发展,极大的促进虚拟现实的进步。
但是非常遗憾,VR日报今天可能要给大家泼凉水:墨子号飞天是值得咱们举国欢庆的喜事,但量子通信对于解决虚拟现实的传输瓶颈,作用微乎其微。
量子通信并不能帮助提高信道容量
undefined
当然,并不是说墨子号是浪得虚名。
量子通信是怎么一回事?
根据量子科学的基本原理:两颗纠缠的光子被拆散之后,无论相距多远,总会心灵感应,一个形态发生变化,另一个会像镜子一样同步变化。利用这个特性实现光量子通信的过程如下:事先构建一对具有纠缠态的粒子,将两个粒子分别放在通信双方,将具有未知量子态的粒子与发送方的粒子进行联合测量(一种操作),则接收方的粒子瞬间发生变化成为某种状态,这个状态与发送方的粒子变化后的状态是对称的,然后将联合测量的信息通过经典信道传送给接收方,接收放根据接收到的信息对坍塌的粒子进行逆转变换,即可得到与发送方完全相同的未知量子态。
与经典通信相比,量子通信的安全性几乎是绝对的——绝不会“泄密”。
在量子通信过程中,信息本身经过经典通信传输,量子通信传输的只是密钥。量子加密的密钥是随机的,几乎可以做到用一次换一次,即使信息内容本身被窃取者截获,由于无法得到正确的密钥,因此无法破解信息。如果窃取者试图截获密钥,必须先截获光子,再去观测它,根据量子理论,宏观的任何观察和干扰,都会立刻改变量子态,引起其坍塌,因此光子会发生变化。结果密钥接收方要么没收到光子,要么收到光子后去跟发送方校验,发现结果不一样,马上就能反应过来通信过程被监听。当然,这并没有什么关系,一旦发现密钥丢失,申请重新传输新密钥,确认无误再解密信息。
墨子号有什么作用?
undefined
在有线光纤为基础的量子通讯领域,由于光量子的不可分割特性,远距离传输不能进行信号放大,而损耗却很多,造成在远距离上信息传递效率很低。太空的真空环境却能让光量子在传输过程中的损耗大为降低,墨子号与地面发射站之间的距离为500公里,能够完美的充当覆盖全球的量子通信网络的中继站。这样一来,就使得量子通信不再局限于域内通信,而是可以覆盖整个地球!
所以,无论是墨子号也好,还是量子通信,重点并不在于信道容量,而在于信道安全。这与虚拟现实所要求的大容量信道并无相通之处,对于虚拟现实所要求的大体量数据传输也并不会有实际帮助。
量子通信的优点不在于速度,而在于保密。经典通信方式的信息传递速度已经是光速了,5G网络相比4G网络,提高的是单位时间里的传输字节数,即信道容量,在这方面经典通信反而比量子通信强得多。
虚拟现实对于通信能力的要求
undefined
在虚拟现实圈子里,之所以有人对墨子号飞天感到欢欣鼓舞,是因为虚拟现实发展到目前,有一个巨大的瓶颈阻碍者整个行业的进步——通信传输能力。
通信传输能力是如何成为横亘在VR面前的大山的?
首先我们需要搞清楚虚拟现实对于人类的意义在于哪里:
虚拟现实通过硬件设备阻断人原有的视觉输入,并呈现出虚拟影像占据人类视觉,再辅之以与影像的其他交互,实现欺骗大脑的目的。

要实现以上目的,拥有支持VR计算的强大(经济)计算机是必备的,而次之的,就是强大的数据传输能力。
这个数据传输能力需要多强大呢?
大家可以尝试分两个方向去理解。
一个是将人眼每秒钟接收到的信息全部数据化,转化而来的数据文件会有多大?用Gb为单位来衡量恐怕是不行的,最少都应该是Tb为单位了。同样的,虚拟现实想要欺骗你的大脑,需要呈现在你面前的内容,就和人眼在现实中接收到的数据容量一样大。那么即使是一个简单的VR视频或者VR直播,其数据传输量就是一个天文数字。
二个是如果需要用VR设备营造出一个真实到足够欺骗大脑的影像,还要实现和用户的反馈与互动,终端的计算能力需要十分强大。在未来很可能是以云端计算结果下发终端的形式进行,这个结果庞大的体量就需要强大的网络通信能力来支持。那么比如用户在进行多人在线vr游戏时,频次密集的交互反馈需求,如果没有庞大的信道容量做支持,游戏体验将会是一团渣。
现阶段的网络数据传输有多快?
现有的网络通信能力,对于一个用户观看2K视频平均需要4Mbp的带宽,4K视频则需要18Mbp,而VR则需要175Mbp。加上现有网络的速率通常会受到不同程度的损耗,所以需要更大的网络容量才能支撑VR高品质画面的传输。
目前,国内三大运营商正在从4G向4G+过度。在4G+的网络下,手机上网下载速率最高可达300Mbps,上传速率最高可达50Mbps,这样的速率对于有线的VR或许可以支撑,但体验并不是最佳。

在网络数据传输能力不够的情况下,伴随之的还有极高的宽带成本。以1080p、20M来计算,用VR体验360°视频,单位用户成本是今天电视用户成本的10倍,是手机用户成本的100倍。例如爱奇艺的付费用户,现在的价格为15元或者30元钱/月,而要保持同样的利润率,会员需要付费3000元/月来观看VR。
总结来说,虚拟现实对于网络数据传输能力的巨大需求和现实中网络数据传输能力的不足之间的矛盾,造就了虚拟现实圈对墨子号飞天的一片欢呼雀跃。只不过,大多数人将会失望了。
所以,虚拟现实的在线传输,重任还是在5G肩上。
我们需要为墨子号欢呼鼓掌,然而,它对于虚拟现实,并没有什么卵用。倒是虚无缥缈的量子计算机,未来可能会给虚拟现实带来深远影响。

 光子没有静止的质量,据说只有在运动中存在

OFweek激光网讯:来自阿斯顿大学和机械与光学大学的研究人员展示了一种前所未有的制作光学谐振腔的新方法,其制作精度要小于一个氢原子的直径,这个尺寸比目前同类设备目前的制作精度还要小100倍。利用此精度的制作方法,可创造的微谐振器可以使研究人员开发出更复杂的光路并允许工程师使用它用于光的长期信息存储。
  在这项已发表于《光学快报》杂志上的研究中,MichaelSumetsky和NikitaToropov描述了以这种方式制作的瓶状谐振器,它们之间的尺寸差异不超过0.17埃。这种大小的变化比氢原子的直径还要小10倍,小于一个纳米的100倍。相比之下,目前的微谐振器的制造精度仍在纳米测量。这种制造精度的飞跃,可以显着提高未来的光学器件的效率。
  光子没有静止的质量,据说只有在运动中存在。这是利用光进行信息存储的主要障碍之一。不能使光子停止。然而,由光子携带的数据流是有可能被延迟的,例如通过一系列的为微静电谐振器进行捕获光束。
  一个瓶状的微谐振器是一个微小的增厚的光纤。在这样的微信号的延迟是由于“回音壁”效应:一旦光在微谐振器里面,光波就会在壁上发生反射并开始循环。由于微谐振器的球形形态,光可以运行相当长的时间,大大减缓了光子从一个谐振腔到另一个沿光纤谐振腔的运动时间。
  光的方向可以通过改变微谐振器的形状和大小进行调节。然而,在这些参数中的任何变化都必须是非常微妙和精确的,因为即使它的表面上的最轻微的缺陷,也会使得光束发生破坏。“当光传输很长一段时间后,它开始影响到光的本身,”MichaelSumetsky说。“如果在微谐振器的制造过程中发生错误,我们将会失去了对系统的控制。这就是为什么有两个要求,必须满足:微谐振器的尺寸最小偏差和低的光损耗。我们研究中的这种微谐振器恰好符合。”
  值得注意的是,这个技术不是基于任何现有的方法,而是创建一个完全新的谐振器的方法。“我们不打算改进任何现有的技术,而是利用我们自己的方式进行制作,”NikitaToropov说。“我的合著者Sumetsky教授,值得把这一成就归功于他。几年前,他创造了一种制作微谐振器电路的新的技术平台,称为SNAP(表面纳米级轴向光子学)。”
  SNAP方法的本质在于通过激光控制引入不均匀性到纤维表面。这种激光不会熔化纤维是至关重要的,但通过褪火去除内部的冷却应力。当这些应力消失,纤维会发生一点膨胀,微谐振器就会形成。
  这种新技术的一个重要的优点是它的简单性。“我们的技术不需要真空,实际上几乎是免费的一种‘加湿’的过程,这大大降低了成本。但最重要的是,这是迈向全光器件,将提高数据传输和处理的质量和提高能源效率的一步,”NikitaToropov说。
  根据研究人员的说法,用输入光到拉成锥形的光纤腔纤维的脆弱性是一个挑战。“这种纤维比头发细50倍,”NikitaToropov说。“这是很容易打碎的,所以我们不得不反复重新实验的。因此快速的制备超细纤维仍很遥远。”
  现在,研究人员正计划继续制备先进SNAP设备的技术的发展,其应用范围覆盖从超灵敏的检测设备到量子计算机等。

世界首台量子计算机诞生,仅由五个原子组成

科学家构建出第一台可编程的量子计算机。它仅由5个原子组成。科学家认为,这是迈向制造出实用价值的量子计算机的重大一步。
据《自然》近日报导,美国马里兰大学的研究员沙塔木·德布纳特(Shantanu Debnath)等人展示了一个可以编程的微型量子电脑,用五个囚禁的原子离子充当量子单元(qubits,也称量子比特)进行计算。原则上这种结构可扩展至更多量子单元。
另据澳洲科技网站sciencealert报导,量子计算机的功能要比传统计算机更为强大。传统计算机的算法基础是0或1的状态,而量子计算机的运算基础是量子单元不仅含有0或1而且还有0和1共同存在的状态。
世界首台量子计算机诞生,仅由五个原子组成研究者使用激光作为量子计算开关
因此,量子计算机的计算速度快,有些计算可在一步完成,而传统计算机需要数次运算才能得到结果。
以前其他组织制作的小型量子计算装置智能解决单个问题,而且需要复杂的物理学编程步骤。这台量子计算机不同,编程简单,一次可以完成三个运算。
马里兰大学的科学家称这台量子计算机为“模块”(module),使用激光开关操控量子单元,其基本运算的精确率约为98%。德布纳特说:“目前没有其它量子计算具有这种灵活特点。”
世界首台量子计算机诞生,仅由五个原子组成

目前,研究者正在尝试增加量子计算单元,计划增加至100个量子单元。研究者希望制造更好的量子计算机,其操作功能像智能手机那样简单,而无需复杂的量子编程。
研究主持者克里斯托弗·蒙罗(Christopher Monroe)说:“对于任何计算机来说,使用者无需知道计算机内部的事情。几乎无人关心iPhone在执行功能时机器内部的具体运行情况。”

量子通信与量子计算机、脑科学与类脑研究

事件:2016年8月8日,国务院发布《“十三五”国家科技创新规划》,主要明确“十三五”时期科技创新的总体思路、发展目标、主要任务和重大举措,是国家在科技创新领域的重点专项规划,是我国迈进创新型国家行列的行动指南。

点评:

启动“科技创新2030—重大项目”,人工智能入围。规划指出面向2030年,选择一批体现国家战略意图的重大科技项目,近半数与信息科技密切相关(量子通信与量子计算机、脑科学与类脑研究、国家网络空间安全、天地一体化信息网络、大数据)。其中,脑科学与类脑研究项目中明确指出将“以脑认知原理为主体,以类脑计算与脑机智能、脑重大疾病诊治为两翼,搭建关键技术平台,抢占脑科学前沿研究制高点”。规划还专门强调建立重大项目动态调整机制,在地球深部探测、人工智能等方面遴选重大任务,适时充实完善重大项目布局。

明确人工智能作为发展新一代信息技术的主要方向。规划在围绕新一代信息技术等十大领域构建现代产业技术体系中明确指出“发展自然人机交互技术,重点是智能感知与认知、虚实融合与自然交互、语义理解和智慧决策”。

设立人工智能及智能交互专项,要求“重点发展大数据驱动的类人智能技术方法;突破以人为中心的人机物融合理论方法和关键技术,研制相关设备、工具和平台;在基于大数据分析的类人智能方向取得重要突破,实现类人视觉、类人听觉、类人语言和类人思维,支撑智能产业的发展,并在教育、办公、医疗等关键行业形成示范应用。”人工智能是整个规划中高频出现的关键词之一。规划除《科技创新2030—重大项目》、发展新一代信息技术之外,规划专门提出大力发展引领产业变革的颠覆性技术,再次强调了人工智能的重要性:“重点开发移动互联、量子信息、人工智能等技术,推动增材制造、智能机器人、无人驾驶汽车等技术的发展”。同时,人工智能成为以战略高技术建立保障国家安全和战略利益“深蓝”计划的核心。

投资建议:国务院印发《“十三五”国家科技创新规划》,人工智能成为重中之重,再次体现了国家顶层设计对人工智能这一引领产业变革的颠覆性技术的高度重视,我们坚定看好在这一代表国家战略和产业变革的方向前瞻布局的企业,持续重点推荐东方网力、同花顺、科大讯飞、思创医惠等。

风险提示:规划落地不及预期。

中国将构建全球量子通信网络

OFweek 光通讯网讯:中国已经开始在多个城市建立量子通讯网络,目前已经开始了连接北京和上海的1000公里量子通信线路的建设。
  根据相关报道显示,基于量子物理学的原理,量子通讯提供了一种全新的方法处理信息,包括编码、存储、传输和逻辑运算,以及光子、原子等微观粒子的精准操控。
  中国科学技术大学量子物理学家和教授潘建伟表示:“传统的通信加密和传输安全,都依赖于复杂的算法。但是随着计算能力的增加,这种复杂的算法在某种程度上肯定是会被破解的。”
  由于量子光子既不能被分离,也不能进行复制,因此量子通信拥有超高的安全性。正是因为如此,通过量子通信传输的信息才无法被窃听、截取或者破解。
  2007年,潘建伟带领他的团队通过光纤在超过100公里的距离实现了安全量子分布。2008年,他带领的团队构建了全球首个全量子通信网络,并在2012年构建了首个大规模量子通信网络。
  中国将在今年7月推出首个科学实验量子通信卫星。同时也将是世界首个。
  潘建伟预测,或许能在不到十年的时间内创造出一个特殊的量子计算机或者量子模拟器,其计算能力要比传统的计算机快百亿倍之多。

人工智能能靠量子超越人类?

编者按:量子计算机和人工智能有什么关系?提前剧透一下,量子计算机天然的带有机器学习的属性,将更有利于推进人工智能的发展。再考虑到量子计算机海量的数据处理能力,即便是模仿人类的神经网络的各种互动,也会比现有计算技术拥有更多优势。然而人工智能想要超过人类,终究是一个极其复杂的命题。一起来看一看作者的思路吧。

如果能时光穿越,智库也许不会错误地将美国两次拉入伊拉克战争!更不会有ISIS猖獗和今日中东乱战!因为有了量子计算机,这个能并行运算分析复杂系统问题并辅助决策的“神器”!

首先回顾下公众号“jcibas”双11刊曾预测过的答案,这个超越的时间点将是2045年。(如下图)

我们套用用量子计算的思维解答“人工智能将超人类”问题,下文得到的是一堆近似的答案,我们将进行探讨。

量子计算方式的突破性革命,人工智能将如虎添翼!量子计算更靠谱、更聪明、处理能力更强、更具自我学习、自我编程能力。——漫修远

量子计算的多样性答案和高置信度特性——更靠谱的计算

量子计算的特性就是不确定性。没错,只有一堆的最佳解决方案才是复杂系统的匹配方案。量子计算返回多个答案,其中一些可能是你正在寻找,另一些则不是。这初看像是坏事,但返回答案越多,意味着计算机的置信水平越高!换言之,即更靠谱。

量子计算机的高运算处理能力——运算硬实力

现在的计算机毕竟是二进制的(俗称经典比特),一遇到比较复杂的建模,像准确预测天气,预测更长时间后的天气等等,就会很费力费时;

量子计算D-Wave 2X 系统,在1000个量子比特时,能同时搜索2∧1000(2的1000次方)个可能的方案!可以同时一起展开“并行计算”,从而使其具备超高速的运算能力。

量子计算机能自我学习——更聪明的计算

量子计算也被称为AI co-processors (人工智能协处理器),非常适合人工智能AI及机器学习。

机器学习 machine learning 即授于计算机研究世界并不断从经验中学习的能力。它是人工智能领域的一个分支。

通常,我们编写的代码中的大部分都是相当静态的,即给定新数据,它仍将执行相同的计算,一遍又一遍,并作出相同的错误结果。

使用量子计算机器学习,系统可以设计程序,修改自己的代码,机器可以不断学习新的方法来处理它之前未遇到过的数据。

比如传统的计算机去无法识别它之前从未接触的新图像,因根据传统的计算架构,设计遵循非常严格的逻辑推理。而量子计算机的处理器就非常适合此类需要先质疑,后决策的高级任务!

形象点比喻,相当而言,传统计算是「一根筋」,而量子计算是「活脑筋」。

AI机器学习通常按已知的算法即监督学习法supervised learning algorithm进行的。下图所示谷歌AI实验室在2013年采用了512量子比特的系统,主要应用于帮助科学家建立更有效而精确的的AI模型,用于诸如从语音识别、网页搜索到(生物化学的)蛋白质折叠(模拟)。

到本月8日,运用1000个量子比特的D-Wave 2X系统谷歌试验室的声明,证实了量子计算比传统计算最高快一亿倍的事实。

量子计算机能自我编程——与时俱进的运算

量子计算通过允许编写自己的能量程序,让系统调整能量程序直到上图所有标签显示是正确为止。这也被称为“训练”或“学习”阶段。

注:能量程序 energy program 如下图所示,是量子计算特有的。

即量子在运算之初未定性状态到运算接受的定性状态的程序。

注:图中的‘-1’和‘1’是例举开关灯游戏里的数值,ON = +1 ; OFF = -1

量子比特计算罗斯定律增速>经典比特计算摩尔定律增速——当1亿被忽略不计

量子位数量每年翻番”的别称是罗斯定律,这是用定律的提出者D-Wave的创始人罗斯名字命名的定律。(谨慎起见,我们也称之为罗斯假设)

视频中,我们看到,量子计算基本按照每年翻倍的速度持续增长。

而摩尔定律是:集成电路芯片上所集成的电路的数目,每隔18~24个月翻倍。

如果罗斯假设成立,以2015年1000个量子比特芯片,每年翻倍的话,按量子计算方法论,我们得出可能的众多答案之一:

2015年1000个,2016年2000个,2017年4000个,2018年8000个,2019年16000个,2020年32000个,2021年64000个,2022年128000个,2023年256000个,2024年512000个,2025年1024000个,2026年2048000个…到2026年约2百万个量子比特芯片诞生。届时,量子计算机能同时提供2∧2048000个解决方案,这个数字足以撑爆小编PC的计算器。

2∧204≈2.57*10^61

2∧2048≈3.23*10^616

2∧20480≈1.24*10^6165 (PC机计算机算到此爆表)

作者推断2∧2048000≈ 1后面约有61万个0,我们常用的大计数单位‘亿’,1后面8个0,根本可忽略了。

最后我们团队的数学工程师Fishy Yu,编制了开发者小程序,给出了确切答案:2∧2048000≈ 2.69848*10^616509

欢迎来到量子计算的疆域,其实也意味着您已进入一个海量数字的世界!

工程师Fishy Yu,一开始还诧异,做什么项目需要算这么大的数字? 是啊,目前这个传统计算的世界,接触这类海量数字的机会并不多。

当然,罗斯假设的正确性,是否需要修正,有待时间检验。以上也只是数学推断。也是众多量子计算最佳答案之一,如年份和量子比特数量顺序错开,可能得出2030年得到2∧2048000量子比特芯片等多种答案。

推论至此,量子计算运用于仿生计算机的应用呼之欲出!

仿生计算机的提出是为了解决如何构建大规模人工神经网络的问题。传统计算的CPU/GPU处理神经网络效率低下,如谷歌大脑的1.6万个CPU运行7天才能完成猫脸的无监督学习训练。谷歌大脑实现模拟人脑的突触数量仅为100亿个,而实际的人脑突触数量超过100万亿。采用CPU/GPU的通用处理器构建数据中心,占地、散热以及耗电等都是非常严峻的问题。

100万亿,对于量子计算这个1亿可被忽略不计的时代,海量数据处理根本不是问题,换言之,到那时随着量子计算系统的不断自我学习迭代程序,人工智能超越人类,也水到渠成了!

最后,从量子计算的视角,让我们回顾一下2000多年前,老子在《道德经》这句名言,

“道生一,一生二

二生三,三生万物”。

注:文中有关量子计算事实的描述均引自D-Wave 官网。

2015中国计算机大会开幕 量子计算机15年内有望重大突破

22日,2015中国计算机大会在安徽合肥开幕,麻省理工学院教授、2014图灵奖获得者、美国工程院院士MichaelStonebraker,中国工程院院士、国家自然科学基金委员会信息科学部主任柴天佑,中国工程院院士、计算机工程和人工智能专家
相关公司股票走势

机器人 77.78+7.0710.00%
李德毅等来自海内外的计算机领域的诸多顶级“大腕”现场助阵。

  中国计算机大会,是中国计算机领域规模最大、规格最高的学术、技术、产业交融互动的大会,创建于2003年。本届大会以“互联网催生新经济”为主体,探讨互联网+新经济中面临的技术挑战和问题。并对类脑研究、人工智能、工业大数据与中国制造2025、智能语音、机器人等前沿热点问题进行研讨,共商发展对策,有助于促进和推动中国计算机事业的创新发展。

  当日,特邀麻省理工学院教授、2014图灵奖获得者、美国工程院院士MichaelStonebraker作报告。据悉,图灵奖是计算机界最负盛名、最崇高的一个奖项,有“计算机界的诺贝尔奖”之称。此外,中国工程院院士、国家自然科学基金委员会信息科学部主任柴天佑作《智能制造与智能优化制造》的报告,中国工程院院士、计算机工程和人工智能专家李德毅作《脑认知的形式化》的报告,中科院院士、中科大常务副校长潘建伟作《量子计算与量子模拟》的报告。

  潘建伟长期从事量子光学等方面的研究工作,其研究成果同伦琴发现X射线、爱因斯坦建立相对论等一起选为“百年物理学21篇经典论文”。他介绍,由于高精度量子操控技术的极端复杂性,目前量子计算研究仍处在早期发展阶段,像经典计算机那样具有通用功能的量子计算机最终能否成功,对整个科学界还是个未知数。但理论研究表明,与通用量子计算机相比较,量子模拟机这样一类针对解决一些重大问题的专用量子计算机,在量子比特数目等方面的技术要求并没有那么高。比如,对“波色取样”这样的问题,一旦达到50个左右光子的纠缠,量子模拟机的计算能力就能超过目前最快的“天河二号”超级计算机。他说,量子模拟具有重大实用价值,可为人类开发新材料和新能源提供重要指导,孕育和推动物质科学领域新一代技术革命和产业变革,有望在10至15年内取得重大突破。

阿里都用量子来加密了 能否保住你的密码50年?

据机器之心前方记者报道,在昨天举行的2015云栖大会上,阿里云与中科院联合发布了量子加密通信产品。目前,双方已在阿里云网络环境建立了多个量子安全传输域(Quantum Portal),通过量子传送门实现同城数据中心互联组网,能够为客户提供无条件安全数据传输服务。
  此前7月,阿里云在上海宣布联合中科院成立一个全新的量子计算实验室,共同开展在量子信息科学领域的前瞻性研究,研制量子计算机,这也是全球科技公司在量子研究领域争相争夺的另一焦点。
  据透露,目前阿里云量子通信产品已用阿里业务完成小规模测试,可实现到达、保密、组网、密钥分发的功能。今年将正式把合适的阿里业务切到量子安全域,进行规模化验证,同步进行开服的准备工作。
  阿里巴巴集团首席技术官王坚博士表示,量子加密通信远远不只是一种全新的加密手段,将是新一代网络信息安全解决方案的关键技术,让互联网在未来50年都能更加安全。
  什么是量子计算?
  量子计算是指一种使用量子逻辑进行通用计算的设备。不同于传统计算机,量子计算用来存储数据的对象是量子比特(qubit)。量子比特和传统比特之间最大的不同就在于,传统比特同一时刻只能处于某个特定的状态,而量子比特可以同时处于不同状态的叠加态,也就是「量子叠加态」,这使得它能以少量的数据包含巨量的信息。
  那么,量子计算机的原理是什么呢?为什么不能完全取代传统计算呢?下面这个视频将为你讲得一清二楚。
  点击观看:http://v.qq.com/page/k/j/d/k01688q8qjd.html
  除了阿里和中科院,还有很多大公司都有涉足该领域。IBM、微软、谷歌都对量子计算展开了研究。谷歌还与NASA联合成立了量子人工智能实验室(QuAIL)。2014年,谷歌正式雇佣美国加利福尼亚大学圣芭芭拉分校的约翰·马丁尼斯(John Martinis)成立超导量子计算实验室来开发量子计算机芯片,开创了私人公司全资资助量子计算实验室的先河。[2]谷歌同时表示,除了自主研发,他们仍会与继续与D-Wave公司(坐落于加拿大本拿比)保持合作关系。该公司于2013年5月曾向谷歌公司出售了一台计算机,并宣称其是世界第二台商业量子计算机。
  量子通信保护你的密码
  量子计算机会带来什么问题呢?简单来说,它会让你的密码暴露无遗。现在,我们在网上输入密码时,使用的加密算法是一种依靠计算复杂度的RSA加密技术。举个很简单的例子,两个300位数的质数相乘非常容易,但是,要将一个600位数的数字进行因数分解,以找出它是哪两个质数的乘积,就太困难了。如果用传统的计算机,需要花费的时间可能比整个宇宙的年龄还长。但是,如果有了量子计算机,它们就能完成一些人们认为在普通计算机上无法完成的计算任务,其中包括一些在我们生活中非常重要的计算。例如,如果一台计算机能够在合理的时间内,将一个大数做因子分解,那么广泛使用的加密方法就会被破解。几乎所有用于高度机密数据的加密方法都会在某种量子算法面前变得不堪一击。
  1995年,贝尔实验室的彼得·舒尔(Peter Shor)就提出了一种量子算法,可以用遍历的方法来获得因子,这对并行计算的量子计算机来说是很简单的事情。
  所以,如果量子计算机研发成功,传统的加密技术立即功亏一篑。
  此时,量子通信就有了用武之地,它将保护由量子计算机带来的潜在安全隐患。
  量子通信是指利用量子纠缠效应进行信息传递的一种新型的通讯方式。量子通讯是近二十年发展起来的新型交叉学科,是量子论和信息论相结合的新的研究领域。量子通信主要涉及:量子密码通信、量子远程传态和量子密集编码等,近来这门学科已逐步从理论走向实验,并向实用化发展。高效安全的信息传输日益受到人们的关注。基于量子力学的基本原理,并因此成为国际上量子物理和信息科学的研究热点。
  量子通信的现状与未来
  如今,小范围的量子密码分配已经走出实验室得到应用,量子隐形传态技术也早已在实验室实现。
  量子通信最先进入应用领域的是量子密码分配方案,可以由人类已应用多年的激光器,光纤,以及偏振分光棱镜等光学器件实现。目前国际上投入应用的量子密码分配网络有位于美国波士顿的DAPRA 量子网络(DAPRA QuantumNetwork),由哈佛大学和波士顿大学联合几家公司在2004 年建成;同年,瑞士的ID Quantique 公司已经开始将量子密码分配网络投入商业化;第一个量子密码分配的计算机网络位于奥地利维也纳的SECOQC,由量子信息技术世界顶尖的奥地利科学院量子光学与量子信息研究所(IQOQI)和维也纳大学在2008 年建成。中国这方面的产业化也已经走入世界前列。中国科学技术大学的团队在合肥于2012 年建立了中国第一个量子密码分配的安全网络。
  量子密码分配毕竟还是用量子通信技术传输经典信息。而利用量子纠缠态的量子通信才是真正在传输量子比特。出席了今天云栖大会的中国科学技术大学潘建伟院士,就带领团队在世界上首次实现了:量子隐形传态,量子纠缠态交换,自由空间的量子隐形传态,三光子、四光子、五光子和六光子纠缠,使中国在量子通信研究的竞争中超越奥地利,成为如今全世界的领跑者。
  量子隐形传态在2012年已经实现了143 km的记录,下一步将是建立地面和卫星之间的传输。毫无疑问量子隐形传态将成为下一个投入应用的量子通信技术,而且直接传输量子比特的优势,会使它和量子计算机能一起构建起量子互联网,即量子信息时代的互联网。[1]
  量子计算机的最大障碍:退相干
  目前,量子通信技术已日渐成熟,但量子计算的突破才刚开始,还需要经过许多年的研究才能大规模应用。量子计算机目前存在的最大问题就是,如何克服退相干。退相干是指量子叠加态坍缩成一个确定无疑的状态的现象。前文的视频中我们也看到,一旦你对粒子进行观测,就意味着会有其他粒子与之发生交互,那就会摧毁叠加态,使得它所存储的信息丢失掉。这个概念最早由德国物理学家迪特尔·策(Dieter Zeh)在20世纪70年代提出。正因为此,所以我们无法观察到宏观物体(比如薛定谔的猫)的叠加态,因为它们在很短的时间内就已经退相干了。
  量子计算与人工智能
  十几年前,英国数学物理学家罗杰·彭罗斯(Roger Penrose)曾提出,我们的大脑也许就是一台量子计算机。也有许多人提出「量子意识」和「量子认知」的概念,用量子力学的某些原理来解释人的大脑和行为。但是,MIT宇宙学家Max Tegmark对神经元进行计算后却发现,假如一个神经元的发射需要100万个钠原子穿越细胞膜,那这100万个钠原子可能同时处于神经元内外的叠加态,那么,由于大脑中存在太多粒子(水分子等),那么大约在10^(-20)秒后,就会因粒子的相互作用而发生退相干。如果不用神经元,而采用微管进行计算,则退相干的时间约为10^(-13)秒。在如此短的时间内,大脑根本意识不到退相干之前的信息,因此他认为,人脑不可能是量子计算机,不足以进行量子计算。
  
  那么,量子计算是否真能揭开大脑的秘密,并开启人工智能的巨大潜力呢?等到人类解决了退相干的问题,这个谜底就会自然解开。那时候(也许用不了50年),由于已经有了量子通信的加密技术,所以,不用太担心你的密码会被盗。

网络安全行业紧盯量子计算革命

最近,密码学家十分头疼,因为可以攻破互联网安全屏障的量子计算机正在势不可挡地迅速发展。尽管人们预计实用量子计算机至少在十年以后才会出现,但是密码学研究者坚信,我们必须从现在开始着手应对。

9月初,计算机安全专家在德国召开会议,商讨用何种密码系统取代现在广泛应用的系统来抵御量子计算机的攻击。他们需要用新的协议保护互联网和其他数字网络中传输的私人信息,以防他人窃取。虽然黑客往往能够通过猜密码、伪装成合法用户、在网络上安插恶意软件等方式窃得他人隐私,但是现有的计算机仍然无法破解经过标准形式密码加密的敏感信息。

网络安全行业紧盯量子计算革命

今天应用最为广泛的加密技术未来将无力抵抗量子计算机的攻击

然而,第一台大型量子计算机问世之日,便是如今的核心加密方法过时之时。量子计算机利用了亚原子粒子层面的物理规律,因此很容易攻破现有的密码系统。Michele Mosca说:“我确实非常担心,我们可能根本来不及做好准备。”他是加拿大滑铁卢大学(University of Waterloo)量子计算研究院(Institute for Quantum Computing, IQC)的合作创建人之一,同时也是网络安全咨询公司evolutionQ的首席执行官。

政府和工业界还需要花几年的时间才能最终决定使用哪种密码系统替代现有系统,以对抗量子计算机。任何可能的替代方案即使初看上去无懈可击,也需要理论与实践的大量检验;只有经受住大量的检验,新的密码系统才足以为高安全级别的信息传输提供保护,包括受知识产权信息、财务数据、国家机密等。

“要判断一个密码系统是否可靠,需要耗费大量人力审查,并且设计各种可能的攻击方法进行试验,检测它是否有漏洞。这项工作非常耗时。”Stephen Jordan说。他是马里兰州盖瑟斯堡(Gaithersburg, Maryland)的美国国家标准与技术研究所(US National Institute of Standards and Technology, NIST)的一位物理学家。

今年,密码学、物理学和数学方面的专家已经多次集会讨论,评估并改进了一些相对更能够经受量子计算机攻击的密码工具。本周在德国瓦登的达克斯图堡-莱布尼茨信息中心(Schloss Dagstuhl-Leibniz Center for Informatics)召开的讨论会就是其中之一。此外,NIST已经在四月召开了自己的会议,而IQC将与欧洲电信标准研究所(European Telecommunications Standards Institute)一道于十月初在首尔举行另一场会议。

情报机构也开始关注量子计算。8月11日,美国国家安全局(US National Security Agency, NSA)在向技术供应商和客户发布安全建议时表示,他们正在考虑换用可以抵御量子攻击的新安全协议。今年早些时候,荷兰综合情报与安全局(Dutch General Intelligence and Security Service)在其网站上发布了一份备忘录,其中专门列出了一项被称为“先拦截,后破译”的潜在威胁。恶意攻击者可以从现在就开始拦截并存储金融交易、个人邮件以及其他已加密的敏感信息,等到制造出量子计算机以后再一举破译。Jordan说:“我相信现在真的有人在做这种事。”出于这种考虑,人们对可抵御量子攻击的加密技术的需求将更加迫切。

早在1994年,数学家Peter Shor就从理论上提出,量子计算机可以快速攻破当今主流的RSA密码系统(P. W. Shor文章在预印本网站上的地址http://arxiv.org/abs/quant-ph/9508027v2; 1995)。Mosca说,当时人们对于制造出实际可用的量子计算机的预期并不乐观,因为研究者认为这种机器必须丝毫不出差错才能工作。但是,1996年的又一项理论研究结果表明,只要能够将量子计算机的差错率控制在一定限度内,它便同样可以有效运行。

Mosca指出,根据已经公布的实验结果,小型量子装置已经开始接近这个差错率阈值了。并且,由于NSA等情报组织十分热衷于这项技术,人们大都认为已经公布的结果并不代表这一领域的最前沿成果。“我们必须假定现在已经有人把量子计算做到领先公开文献水平数年的程度,而不能等到《纽约时报》这样的媒体都把它搬上头条了才开始准备应对。”

如今,互联网通信安全部分依赖于公钥加密技术,RSA就是其中一种加密方法。发信者用任何人都可以获得的公钥为信息加密,而密文只有掌握有私钥的收信者可以解读。RSA密码之所以安全,是因为我们很难将一个很大的合数分解成质数的乘积,而这些质数正是解读密文所需要的密钥。一般情况下,待分解的数越大,分解工作就越困难。现有的计算机要耗费很长时间才能分解一个大数,其中一个原因是我们根本没有快速算法。但是,量子计算机分解大数的速度相对传统计算机而言将有指数级别的提高。如果分解大数变得容易,那么RSA的安全性也就无从谈起了。

目前,已经有几种新的公钥密码系统可供选择,它们用量子计算机无能为力的复杂数学问题替代了RSA的大数分解问题。尽管这些密码系统并非绝对安全,但是研究者认为它们在对抗量子计算机方面还是颇为实用的。

格点加密法(lattice-based cryptography)是一种可能的替代方案。其公钥是高维数学空间中的点阵,一种加密方式是把信息隐藏在格子中距离某个格点一定距离的地方。欲求解信息到格点的距离,不论是用传统计算机还是量子计算机都十分困难,但是只要有了密钥,收信者就可以便捷地计算出信息与格点之间的距离。

McEliece加密法是另一种备选方案。它首先把信息转化成一个简单的线性代数问题的解,再用公钥把简单问题转化成一个看起来复杂得多的问题。然后,只有掌握密钥的人才能够把复杂问题转化回去,从而解读信息。

这些替代方案有一个共同的缺点:它们存储公钥所需要的空间是已有的密码系统的1000倍。不过,有些格点加密法的公钥并不比RSA的公钥长很多。并且,上面提到的两种方法的加密和解密速度都比RSA快,因为它们所涉及的只是简单的乘法和加法,而RSA则要用到更复杂的运算。

PQCRYPTO是欧洲学术界与产业界的量子密码研究者组成的团体,它在9月7日发布了一个初步报告,其中推荐了一些可以用来抵御量子计算机的加密方法(参看go.nature.com/5kellc)。报告推荐了自1978年起使用至今的McEliece加密法作为公钥加密法。这个研究经费高达390万欧元(约合2800万人民币)的合作项目的领导人Tanja Lange建议人们现在选择这种最安全的密码系统:“在项目进展期间,McEliece加密法的空间消耗以及计算速度都会有所改善,而且更重要的是,现在选择这种密码系统,就意味着你可以获得最大程度的安全保障。”

NSA宣布过渡到能抗量子计算机的加密算法

真正实用的量子计算机还没有变成现实,但NSA已经提前开始准备。量子计算机在并行处理上远胜于经典计算机,很多经典计算机难以破解的加密算法对于量子计算机不再是难题。NSA宣布了过渡到抗量子计算机加密算法的计划。NSA称它将以开放透明的方式开发下一代加密算法组件