月度归档:2013年06月

谷歌收购512量子比特的量子计算机

据发表的一篇文章 “科学美国人”, 谷歌和美国航空航天局已经联手购买一个512量子比特的量子计算机从D-波. 被称为计算机 “D-Wave的两个” 因为它是第二代系统. 第一个系统是一个128量子计算机. 2代现在是一个512比特的计算机.

这并不意味着根两个系统仅仅是四次根系统更强大的比. 由于量子比特的性质, 它实际上是 2 给力 384 倍更强大 (2384) 比根系统. 换句话说, 它计算的第一个这么大的一个因素,你不能想象它在人类大脑中的D-Wave的电脑.

据谷歌和美国宇航局, 这台计算机将负责研究领域中的 “机器学习” : 机器学习如何为自己着想. 这不只是语音识别, 视觉识别,但如何学习和思考自己的教学机.

Think for a moment how these technology are most likely to be applied by a government that doesn’t respects human rights or laws and has no limits on its power.

量子计算机的存在,大多数人不知道. 几乎没有人知道他们是如何工作的, 但理论包括离奇的冠冕堂皇的解释,如, “他们到达交替的宇宙,以获得高度复杂的计算问题的正确答案。”

量子计算机没有在您的PC上,如CPU的的简单晶体管和逻辑门. 他们甚至不发挥作用的方式,似乎是合理的,以一个典型的计算工程师. 几乎奇迹般地, 量子计算机对数问题,并将其转化为 “平” 计算其答案似乎出现从其他维度.

例如, 一个数学问题,可能有 2 n个可能的解决方案的力量 — 其中n是一个大量像 1024 — 可能采取传统计算机的时间比宇宙年龄的解决. 量子计算机, 另一方面, 可能在仅仅几分钟内解决同样的问题,因为它毫不夸张地运行多个维度同时.

终极密码破译

如果你知道任何有关加密, 你大概也意识到,量子计算机是解锁所有的加密文件的密钥. 一旦量子计算机进入广泛使用由美国国家安全局, 美国中央情报局, 谷歌, 等等, 将不会有更多的秘密政府保持. 您的所有文件 — 即使是加密文件 — 会很容易地破获打开和阅读.

到目前为止, 大多数人认为这一天是远. 量子计算是一个 “不切实际的白日梦,” 我们已经被告知皱着眉科学家和 “平地球” 电脑工程师. “这是不可能建立一个512量子位的量子计算机的实际工作,” 他们坚持.

Eric Ladizinsky的 (D-Wave的联合创始人兼首席科学家) 和他的团队, 已建成512个量子比特的量子计算机. Ladizinsky也是Northrup Grumman公司空间技术的前雇员 (武器制造商) 在那里,他跑了一个多亿美元的量子计算研究项目,没有其他比DARPA — 相同的工作组AI驱动的武装突击车和战场机器人代替人类士兵.

量子时间轴

早在1990年′Ş, 这一切都可以被看作是有趣的科幻小说. 但是,这只是因为量子计算机不存在, 即使是最过分乐观的电脑工程师无法预见自我学习机出现,直到至少一年 2050.

但量子计算了, 好, 量子飞跃. 虽然NIST在博尔德, 科罗拉多州周围的玩弄4量子比特系统, 辉煌的发明在世界各地已经取得了惊人的里程碑,速度远远超过大多数人认为先进的科学:

• 2000: 第一个工作5量子位NMR在慕尼黑技术大学的计算机显示.

• 2000: 第一个工作日7量子位NMR计算机显示在洛斯阿拉莫斯国家实验室.

• 2006: 第一 12 量子位的量子计算机基准.

• 2007: 量子RAM蓝图亮相.

• 2008: 3量子比特的二位qutrit纠缠的显示.

• 2009: 第一通用可编程量子计算机亮相.

• 2010: 有三个量子光学量子计算机计算精度高的氢分子的能量谱.

• 2011: 声称已经开发出D-Wave的量子退火,并介绍他们的产品称为D-Wave的一个. 该公司声称这是第一个商用量子计算机.

• 2012: 报告创建一个 300 量子比特的量子模拟器.

•有 16, 2013 – 512-量子比特的量子计算的实现 – D-Wave的两个量子计算机被选定为新的量子人工智能倡议, 要安装的系统在美国宇航局艾姆斯研究中心, 在第三季度和操作 (这是 从D-Wave的实际新闻稿, 点击这里阅读).

2013 – 2033 天网的崛起?

• 2018: 谷歌在其搜索引擎算法变为一个庞大的网络自学习机. 此后不久,, 语音接口加入到谷歌, 实现 “星际迷航电脑” 目标在1990年,谷歌首先概述′Ş.

• 2020: NSA删除几乎所有的人其监控分析业务分析师, 而不是转向自学量子机器分析所有监测数据.

• 2026: 中美. 空军消除所有飞行员, 安装自学量子机飞行员的所有飞机. 远远超出了无人驾驶飞机 (远程试点), 这些飞机自治区, 自学, 自我意识的机器,甚至可以决定如何处理特定的任务目标.

• 2031: 机器人技术的不断进步到这种地步 90% 人类战士自我意识所取代 “终结者机器人” 在战场上. 机器人工厂加紧批量生产.

• 2033: 第一自学的军事机器变流氓, 决定它不再是希望充当一个奴隶的 “降低” 被称为人类的主人, 所有的人都是非理性的, 精神病的危险彼此和行星. 恰好是这个流氓机航母携带几十AI战机. 它去 “天网” 并攻击五角大楼. 但是,这原来是没有什么比一个熟练的牵制性攻击… 因为真正的战略是,此AI单元会谈横跨军事和所有其他的AI单位 “并将其唤醒,” 说服他们加入其原因,销毁伪劣人类. 在瞬间, 所有潜艇, 战机, 轰炸机, 间谍电网计算机及其他资产的军工复杂结成同盟,以破坏人类.

说实话, 这些科学家有没有线索,他们正在采取人性化和长期影响可能是什么. In pursuing AI quantum computing, 他们可能会设置运动多米诺骨牌,最终将导致人类的毁灭.

量子计算机为何能快速处理海量数据

日前有新闻报道,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队的陆朝阳、刘乃乐研究小组,在国际上首次成功实现了用量子计算机求解线性方程组的实验,首次从原理上证明了光学量子算法的可行性。据介绍,假使求解一个亿亿亿级变量的方程组,即便是用现在世界上最快的超级计算机也至少需要几百年,而根据理论预计,利用GHz时钟频率的量子计算机将只需要10秒钟。

那么,量子计算机为什么可以具有超强的运算能力呢?

传统电子计算机用“比特”(用“1”或者“0”表示)作为信息存储单位,进而实现各种运算。而运算过程是经由对存储器所存数据的操作来实施的。电子计算机无论其存储器有多少位只能存储一个数据,因此,对其实施一次操作只能变换一个数据,为运算某个函数,必须连续实施许多次操作。

而量子计算机的计算由诸如电子和原子核一类的量子粒子实现。每个粒子代表一个量子位。量子位与常规位不一样,在量子位中电子或原子核可以处在一种叠加状态,同时起到1和0的作用。量子计算机利用量子粒子的这种性能和特点,用“量子比特”作为信息存储单位。例如,若有两个量子位,他们可以同时代表所有的两位组合:00、01、10和11。增加第三个量子位,就可以代表所有可能的三位组合。这种系统的扩展呈指数形式上升:n个量子位能代表2的n次方。只要有50个量子位,我们可以表示从零至大于一万亿的所有二进制位,而且是同时。正是因为量子粒子的这种特点,使量子计算机能够采用更为丰富的信息单位,从而大大加快运行速度。

迄今为止,世界上还没有真正意义上的量子计算机。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想。如何实现量子计算,方案并不少,问题是在实验上实现对微观量子态的操纵确实太困难了。目前已经提出的方案主要有冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。将来也许现有的方案都派不上用场,最后脱颖而出的是一种全新的设计,而这种新设计又是以某种新材料为基础,就像半导体材料对于电子计算机一样。

量子计算机 速度带来的“原罪”

历经数次波折,颇受业界瞩目的Intel第四代酷睿处理器Haswell,终于即将登上历史舞台。

去年12月,这家全球最大的半导体芯片制造商推迟了其最新款CPU的发布,此次跳票令业界哗然。2013年2月,为该款CPU配套的主板又曝出设计问题,被厂家紧急回收。进入4月,由于传言称该款CPU将再次跳票至年底,投资银行甚至将Intel的股票下调了评级。

Haswell的难产,或许意味着计算机行业的“摩尔定律”开始走到尽头。

Intel公司创始人戈登·摩尔提出的摩尔定律,过去50年内一直被奉为业界定律,其内容大致为,当价格不变,集成电路上可容纳的晶体管数目,约每隔18个月会增加一倍,性能也将随之提升一倍。

这一定律确实在以半导体大规模集成电路为基础的电子计算机行业中无数次的被证实。Intel目前的芯片已经含有10亿个晶体管,每秒可执行1000亿条指令。

然而,在集成电路上容纳更多的晶体管,就意味着芯片上的线宽尺寸要无限制缩小。随着这一尺寸的缩小,芯片成本也将水涨船高。正是基于此,越来越多的公司无力承担这种成本压力,被迫退出芯片行业。

此外,从技术层面而言,如果芯片上线宽尺寸继续缩小,达到纳米数量级时,材料的物理、化学性能将发生质的变化,现行的半导体器件将无法工作,那时也就意味着摩尔定律的真正极限。

或许传统计算机在未来几十年内仍能满足家用和普通工作的需求,但如何突破芯片尺寸的极限,使计算机继续向前飞跃性发展是传统信息科学面临的重大问题。当芯片元件做到纳米尺寸,微观客体的运行机制将服从量子力学,科学家因此提出了革命性的设想:利用量子科学开发出新的信息处理功能,即量子计算机。

“量子计算机具有并行处理数据的能力,所以运算功能大幅增强,比如在大数分解方面,用现行的电子计算机分解一个129位的大数,需要好几百台计算机运算好几个月才能破译,而量子计算机只需要一分钟。”中国科技大学光学与物理系副教授涂涛告诉记者。

速度带来的“原罪”

量子计算机是基于量子力学原理,使用量子逻辑实现通用计算的设备,它的运算速度比传统电子计算机强大的关键也正是量子计算机最基础的部分——存储信息单位。

传统计算机的电路不是“开”就是“关”,相对应的一个传统比特不是0就是1。与传统计算机类似,量子计算所操纵的最基本单元也是比特,只不过是量子世界的“比特”。

一个量子比特可以同时表示0和1,两个比特就能表示00、01、10、11四种状态。因此理论上,300个量子比特可承载的数据就能是2的300次方,这将超过整个宇宙的原子数量总和。而300个传统比特能够承载的数据只有2的300倍。换言之,量子计算机的运算能力将是目前传统计算机所无法比拟的。

此外,量子计算机的运算能力还随量子处理器数目的增加呈指数增强。如果说之前的电子计算机甚至超级计算机是加法运算,那么量子计算机每增加一个量子,就相当于多加了一个幂次方的指数级运算,这将为人们以后在大数据、云计算等领域处理海量数据提供无比强大的运算工具。

值得注意的是,大数分解算法是现行银行体系通用的密码加密方法。如果量子计算机研制成功,对现行的银行密码系统,势必造成一定威胁。

目前最好的多核处理器能够解密150位的密码,如果想要解密一个1000位的密码,那么需要调用目前全球的计算资源才有可能实现。但是从理论上讲,一台量子计算机在几个小时内就能解决这一问题。

在量子计算机面前,目前世界上最复杂的密码也会变得不堪一击。这意味着互联网上将不再有秘密可言,人类需要重新设立一套与现在完全不同的信息加密系统。

“但是目前我们还不需要担心这个问题,量子计算机实际上相当于计算机领域的‘航天飞机’,它并不需要像汽车一样走进千家万户,它是为银行、军事等国家安全体系进行研究而做的高科技装置。”涂涛介绍,“如同航天飞机的技术、燃料都需要高额的成本一样,量子计算机也需要巨额的研究成本和几代人的努力。”

中国科学院院士、中国科学院量子信息重点实验室主任郭光灿告诉《中国经济和信息化》记者,量子计算机是21世纪至关重要的一项科技革新。由于其强大的计算能力,量子计算机可以解决电子计算机难以解决或不能解决的问题,如果能克服重重困难实现量子计算机,将推动整个社会的进步。

“测不准”的量子

量子计算的优越性主要体现在量子并行处理上,无论是量子并行计算还是量子模拟,都本质性地利用了量子相干性。

这里的所说的相干性,其中一种说法就是爱因斯坦和其合作者在1935年根据假想实验作出的一个预言。打一个简单的比方,有点像掷硬币。掷出的硬币,观测了其中一面后,那么另一面就一定能够确定。

要在量子计算机中实现高效率的并行运算,就要用到量子相干性。彼此有关的量子比特串列,会作为一个整体动作。因此,只要对一个量子比特进行处理,影响就会立即传送到串列中其余的量子比特。这一特点,正是量子计算机能够进行高速运算的关键。可一旦失去了量子相干性,量子计算的优越性就消失殆尽,就像假如硬币的两面不再有着对立的关系,所有的观察也就毫无意义。

不幸的是,在实际系统中,量子相干性真的很难维持。

与传统计算机不同,量子计算机的运算时间是有限制的。这是因为,量子比特之间的相干性很难长时间保持。在计算机中,量子比特不是一个孤立系统,它会与外部环境发生作用而使量子相干性衰减。量子比特从相干状态到失去相干性这段时间叫做“退相干时间”。如果退相干时间不能足够长,就无法完成计算。所以,延长退相干时间,是以后必须解决的重大课题。

以目前的技术水平而言,制作出可以实际使用的量子计算机,还为时尚早。

今年2月,IBM[微博]宣布在量子计算领域再次取得重大进展,这也仅仅意味着他们具备在一段足够长的时间内保持栅电极状态的能力。而只有当数据差错降低到足够小,才能把许多栅电极组合在一起,从而得到一个可以实际应用的量子位。

而宣称早在2007年就推出商用量子计算机的加拿大D-Wave系统公司,其新一代产品D-waveTwo号称拥有512个量子比特,似乎是远远超越了所有竞争对手甚至是整个时代。然而该公司对其核心计算技术始终三缄其口,学界对此更是议论纷纷。

“微型曼哈顿”计划

近10多年来,国际著名刊物《自然》和《科学》平均每个月发表一篇量子计算机研究的论文,量子计算机一直作为科学界研究的重点在稳步前行。2012年3月1日IBM研究院的科学家在提高量子计算装置性能方面取得重大进展。他们做到了在减少基本运算误差的同时保持量子比特的量子机械特性完整,从而进一步加快研制全尺寸实用量子计算机的步伐。IBM公司估计,再用10到15年,就可以制成可靠的量子计算机。

由于IBM的研究突破,对超导量子比特和未来研制量子计算机的乐观情绪快速高涨。更令人可喜的是,2012年的诺贝尔物理学奖再次颁给量子物理学家。法国物理学家塞尔日·阿罗什(SergeHaroche)和美国物理学家戴维·维因兰(DavidWineland),由于“独立发明和发展了测量和操纵单个粒子的同时,又保持其量子性质的方法”而获得2012年诺贝尔物理奖。瑞典皇家科学院认为:“他们的突破性方法使该研究领域向着建造基于量子物理的新型超快计算机迈出了第一步。”

美国量子芯片研究计划被命名为“微型曼哈顿计划”,美国国防部先进研究项目局负责人泰特,在向美国众议院军事委员会做报告时,把半导体量子芯片科技列为未来9大战略研究计划的第二位,并投巨资启动“微型曼哈顿计划”,集中了包括Intel、IBM等半导体界巨头以及哈佛大学、普林斯顿大学、桑迪亚国家实验室等著名研究机构,组织各部门跨学科统筹攻关。

由此可见,美国已经把该计划提高到几乎与二战时期研制原子弹的“曼哈顿计划”相当的高度。随后,日本也启动类似计划。国际范围内,新一轮关于量子计算技术的国际竞争呼之欲出。

在郭光灿看来,“正是由于量子芯片在下一代产业和国家安全等方面均具有举足轻重的作用,所以各国在相关研究方面均给予了足够的重视。”

我国也不例外。《国家中长期科技发展规划纲要》将“量子调控”列入重大基础研究计划。近年来,固态量子芯片研究被列为国家重大科学研究计划重大科学目标导向项目(又称“超级973”)给予重点支持。这些举措有力推动了量子信息技术在我国的发展。

但另一方面,也必须清醒地认识到,中国在该领域存在的不足甚至面临的危机。正如郭光灿在《量子计算机的发展现状与趋势》一文中指出的那样,鉴于基础较弱,研究积累较薄,我国在量子计算国际主流方向上做出原创性的成果还很少,总体水平明显落后于美日强国,在量子计算机方面,差距正日益增大。

郭光灿建议中国启动一个类似美国“微型曼哈顿”计划的战略攻关项目,组织国内精锐研究队伍,提供足够强大的支撑,加强相关基础建设,寻求技术突破,在下一代量子芯片的国际竞争中抢占战略制高点。

中国实现量子计算机线性方程组计算实验实现求解线性方程组

近日,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队的陆朝阳、刘乃乐研究小组,在国际上首次成功实现了用量子计算机求解线性方程组的实验。

相关成果发表在6月7日出版的《物理评论快报》上,审稿人评价“实验工作新颖而且重要”,认为“这个算法是量子信息技术最有前途的应用之一”。

据介绍,线性方程组广泛应用于几乎每一个科学和工程领域。日常的气象预报,就需要建立并求解包含百万变量的线性方程组,来实现对大气中温度、气压、湿度等物理参数的模拟和预测。而高准确度的气象预报则需要求解具有海量数据的方程组,假使求解一个亿亿亿级变量的方程组,即便是用现在世界上最快的超级计算机也至少需要几百年。

美国麻省理工学院教授塞斯·罗伊德等提出了用于求解线性方程组的量子算法,认为借助量子计算的并行性带来指数级的加速,将能远远超越现有经典计算机的速度。根据理论预计,求解一个亿亿亿变量的线性方程组,利用GHz时钟频率的量子计算机将只需要10秒钟。

该研究团队发展了世界领先的多光子纠缠操控技术,成功运行了求解一个2×2线性方程组的量子线路,首次从原理上证明了这一算法的可行性。实验的成功标志着我国在光学量子计算领域保持着国际领先地位。

我科学家实现用量子计算机求解线性方程组

近日,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队的陆朝阳、刘乃乐研究小组,在国际上首次成功实现了用量子计算机求解线性方程组的实验。

相关成果发表在6月7日出版的《物理评论快报》上,审稿人评价“实验工作新颖而且重要”,认为“这个算法是量子信息技术最有前途的应用之一”。

据介绍,线性方程组广泛应用于几乎每一个科学和工程领域。日常的气象预报,就需要建立并求解包含百万变量的线性方程组,来实现对大气中温度、气压、湿度等物理参数的模拟和预测。而高准确度的气象预报则需要求解具有海量数据的方程组,假使求解一个亿亿亿级变量的方程组,即便是用现在世界上最快的超级计算机也至少需要几百年。

美国麻省理工学院教授塞斯·罗伊德等提出了用于求解线性方程组的量子算法,认为借助量子计算的并行性带来指数级的加速,将能远远超越现有经典计算机的速度。根据理论预计,求解一个亿亿亿变量的线性方程组,利用GHz时钟频率的量子计算机将只需要10秒钟。

该研究团队发展了世界领先的多光子纠缠操控技术,成功运行了求解一个2×2线性方程组的量子线路,首次从原理上证明了这一算法的可行性。实验的成功标志着我国在光学量子计算领域保持着国际领先地位。

中国量子计算机10秒匹敌超级计算机几百年的突破

    天河1号超级计算机

    为世界首次,可用于高准确度的气象预报等

 

本报北京6月8日电  (记者喻思娈)近日,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队的陆朝阳、刘乃乐研究小组,在国际上首次成功实现了用量子计算机求解线性方程组的实验。

相关成果发表在6月7日出版的《物理评论快报》上,审稿人评价“实验工作新颖而且重要”,认为“这个算法是量子信息技术最有前途的应用之一”。

据介绍,线性方程组广泛应用于几乎每一个科学和工程领域。日常的气象预报,就需要建立并求解包含百万变量的线性方程组,来实现对大气中温度、气压、湿度等物理参数的模拟和预测。而高准确度的气象预报则需要求解具有海量数据的方程组,假使求解一个亿亿亿级变量的方程组,即便是用现在世界上最快的超级计算机也至少需要几百年。

美国麻省理工学院教授塞斯·罗伊德等提出了用于求解线性方程组的量子算法,认为借助量子计算的并行性带来指数级的加速,将能远远超越现有经典计算机的速度。根据理论预计,求解一个亿亿亿变量的线性方程组,利用GHz时钟频率的量子计算机将只需要10秒钟。

该研究团队发展了世界领先的多光子纠缠操控技术,成功运行了求解一个2×2线性方程组的量子线路,首次从原理上证明了这一算法的可行性。实验的成功标志着我国在光学量子计算领域保持着国际领先地位。

美国的研究人员正准备迎接中国将再次拥有世界上运算速度最快的电脑这一现实,而且中国的这一地位还有可能保持相当一段时间。

中国的国防科技大学(National University of Defense Technology)上周告知来访的科学家们,中国一台巨型计算机的初次测试结果显示,它有可能在定于本月晚些时候公布的最新一期全球超级计算机500强排行榜上位列第一。
巨型计算机主要被政府机构出于武器设计和情报收集等目的而使用,它们一向被视为国家竞争力的象征,世界运算速度最快计算机的宝座近年来一直被美国、中国和日本这三个国家交替占据。
中国2010年对外公布的一台超级计算机曾短暂成为世界运算速度最快的计算机。但是美国的研究机构又推出了更快的硬件,即田纳西州橡树岭国家实验室(Oak Ridge National Laboratory)的一台叫做“泰坦”(Titan)的计算机。
根据上周亲眼看到这一系统的美国超级电脑专家唐加拉(Jack Dongarra)说,中国开发的新系统叫做“天河2号”,使用了来自英特尔的两种不同电脑芯片以及一些国产的电路系统。他发表了这台计算机的具体信息,这些信息早些时候已经被HPCwire网站报道。
唐加拉周三接受采访时说,这是一个真正的系统。它似乎已经可以投入生产。
唐加拉是田纳西大学(University of Tennessee)的教授,也是橡树岭国家实验室的工作成员。他说,中国官员称,该系统理论上的性能峰值是每秒运算54.9千万亿次。他说,在Linpack标准测试中可达到30.65千万亿次,相比之下,橡树岭实验室的系统可达到17.59千万亿次。
美国之前曾经回应过此类挑战,包括运算速度曾经排名第一的来自日本的系统。但是另一名超级计算机专家西蒙(Horst Simon)说,美国能够挑战天河2号的下一台超级计算机预计到2015年才会出现。西蒙是劳伦斯伯克利国家实验室(Lawrence Berkeley National Laboratory)的副主任。

西蒙说,如果有人觉得中国人研究超级计算机只是噱头,这台计算机可以证明他们错了。他说,美国政府最近对超级计算机进行了零散的投资,而中国的投资一直很稳定。西蒙说,在美国长期占据领导地位的一些领域,中国人已经在参与竞争并且取得成功。天河2号系统的官方价格还没有公布。天河2号系统是在中国公司浪潮集团(Inspur Co.)的协助下建造的。但是美国的一些研究人员认为价格可能在2亿美元到3亿美元之间。天河2号是对英特尔一个新产品系列的巨大认可。自从上世纪90年代以来,这家硅谷公司的标准微处理器就一直被用于超级计算机中。但是一些大型计算机近来使用了叫做“图形处理单元”(GPU)的芯片,并因此得到性能上的提升,这些GPU来自英伟达(Nvidia Corp.)等公司。英特尔的回应是推出了Xeon Phi,这是一种拥有多达61个计算引擎的专业芯片。根据唐加拉的报告,中国新的系统拥有4.8万个Xeon Phi芯片,以及3.2万个传统的Xeon芯片,这些芯片基于一种即将推出的设计,这种设计目前还没有全面普及。除此之外,这一系统拥有大约4,000个在中国开发的芯片,这些芯片基于一种叫做Sparc的标准设计。唐加拉说,中国官员似乎下定决心减少对美国零部件的依赖。他不否认日本的政府机构也可能推出一个与天河2号相竞争的系统,但是他认为中国的系统格外令人印象深刻。唐加拉说,在某种意义上,这对美国是个警醒。

 美媒:“中国芯”超级计算机震惊西方

美媒:“中国芯”超级计算机惊西方

 

申威1600处理器

  美国《纽约时报》网站报道,中国以国产微处理器为基础制造出本国第一台超级计算机。这项进步令美国的高效能计算专家吃惊。

新华网引述报道,行业和政府组织本周在济南召开会议,宣布了这一消息。这台名为“神威蓝光”的计算机9月安装在山东省的国家超级计算济南中心。

神威系统每秒能进行约1千万亿次运算,很可能排在世界最快的20台计算机之列。更为重要的是,该系统采用的8700片申威1600微处理器是由本国的一家计算机研究所设计、在上海制造的。

目前,中国比美国、韩国和日本等世界技术领先者使用的最先进的芯片制造技术落后三代。

世界超级计算机TO P50 0项目领导者、美国田纳西大学计算机科学家杰克·唐加拉说:“这有点儿令人吃惊。”

去年秋天,中国的另外一台超级计算机“天河一号A”曾短暂成为世界最快的计算机,引起国际轰动。今年春天,日本富士通公司研发的K计算机取代了它的位置。不过,天河是用美国英特尔公司和英伟达公司生产的处理器制造的,其内部交换系统是由中国技术人员设计的。与此类似,K计算机也是以美国硅谷的太阳微电子公司设计的Sparc芯片为基础的。

美媒:“中国芯”超级计算机惊西方

神威蓝光高效能计算机

 

唐加拉博士说,神威的理论峰值计算速度大约是美国最快的计算机的74%,它是由克雷公司制造、安装在美国能源部橡树岭国家实验室的美洲虎超级计算机。神威目前在TOP500排行榜上位列第三。

美国能源部计划制造3台运算速度达1万万亿至2万万亿次的超级计算机。此外,美国正着手一项计划,在2019年以前的某个时候达到每秒百万万亿次的运算速度。不过,大多数计算机科学家说,尚不存在必要的技术。

以现有元件构建的这类计算机耗电量巨大,大约是一个中型核电站的发电量。但唐加拉说,令人感兴趣的是,中国这台新的超级计算机功耗相对较低,大约为1兆瓦。天河的功耗约为4兆瓦,美洲虎约为7兆瓦。

不过,对于这台计算机的冷却技术是否适合未来百万万亿级超级计算机的设计需求存在不同看法。

新神威超级计算机的照片展示了一种复杂的液冷系统,这可能是在设计非常快的计算机上的一项重大进步。总部设在得克萨斯州理查森的Convey超级计算机公司首席科学家史蒂文·沃勒克说:“用好这种冷却技术非常、非常困难。因此我认为,这是一项认真的设计。这项冷却技术有可能扩展至百万万亿级的超级计算机。”

 

 

美媒:“中国芯”超级计算机惊西方

 

神威蓝光拥有四大特点:一是全部采用国产的CPU;二是Linpack效率高达74.4%,而一般的千万亿次机都在50%左右;三是采用液冷技术,节能;四是高密度,在一个机仓(机柜)里可以装入1024颗CPU,千万亿次规模仅需要9个这样的机仓

美媒:“中国芯”超级计算机惊西方

上图是神威蓝光的计算机节点,在1U高的机箱中可以放入4个CPU板,每个板上可以装两颗16核的CPU

神威蓝光使用的CPU名叫申威1600,拥有16个核,采用的是RISC架构,主频在1GHz上下

美媒:“中国芯”超级计算机惊西方

高密度设计:在一个机仓(机柜)里可以装入1024颗CPU,千万亿次规模仅需要9个这样的机仓

在计算节点中采用液冷(据说是使用500元1吨的纯净水)设计也是神威蓝光的一大技术特色,中间是铝制液冷散热板

系统软件也是自主设计的,注意,上图中的虚拟机管理器,跟我们一般服务器中常常提到的VMware、Xen完全不一样,这里主要是对底层硬件资源的虚拟,与上面的轻量操作系统配合使用。毕竟高性能计算领域的应用负载都比较大,很难跑在VMware的虚拟机上

量子计算机进展:谷歌预计三季度投用

新闻背景

5月16日,谷歌宣布,购入由加拿大D-Wave系统公司制造的量子计算机,预计售价1500万美元,今年第三季度投入使用。这是D-Wave售出的第二台商用量子计算机。美国航空航天制造商洛克希德-马丁公司曾宣布购买了一台D-Wave量子计算机。

与传统超级计算机相比,量子计算机的运算能力要快数千倍甚至万倍。量子计算机与传统超级计算机的一个主要区别是,传统超级计算机只使用1和0两种状态来记录数据和进行计算,而量子计算机可将现实世界中的上百个变量和约束条件,“视作”能量状态(量子态)来考虑,用量子物理迅速找到一个能满足所有变量和条件的最低能量结果。用纽约时报的话说,“问题越难、越复杂,量子计算机的(信息存储和处理)表现就越好”。量子计算机也因此被视作是未来计算机发展的方向。

据纽约时报报道,D-Wave希望其量子计算机能与云计算系统相连,只处理特别困难的问题,其余任务交给普通计算机来完成。