子卓轩

人生如一盘棋局,琢磨着继续着,具有洞察力,和一颗平和宽容的心。尽了力就可以了,没有绝对的输赢
个人资料
笨企鹅 (热门博主)
  • 博客访问:
正文

量子计算将走向实用, 10年以后,计算技术将发生根本变革 (图)

(2008-01-19 14:06:52) 下一个
Adoring Grid Computing technology, I googled and edited several aritcles.

网格计算服务:第三代互联网应用的兴起 (ZT)

专家预计,网格计算将在4-5年内成为高性能计算的代名词,美国甚至有人提出了“网格反恐”;再进一步,10年以后,量子计算将走向实用,计算技术将发生根本变革,比特以及字节(Byte)将被量子比特(qubit)取代。

“网格计算(Grid Computing)是指通过将多台计算机组成网格状网络、“模拟实现高性能计算机”的技术。网格计算顾名思义就是指将多个计算机组成网格状网络,“模拟实现高性能计算机”的技术。假如有一项业务使用1GHz CPU需要3分钟的处理时间。如果网络中有3台安装了同样CPU的计算机,我们把这项业务分成3等分,然后分别交给每台计算机进行处理,那么简单地计算一下就会知道其处理时间将缩短到1分钟。这就是网格计算的基本思路。可以说,网格实际上是继传统互联网、Web之后的第三次浪潮,可以称之为第三代互联网应用。

由于市场潜力巨大,各国政府和企业都在为争夺网格的制高点积极行动,竞争的激烈程度绝对不亚于当年在超级电脑上的竞争。 迄今为止,网格计算还没有正式的标准,但在核心技术上,相关机构与企业已达成共识:由美国阿尔贡国家实验室与南加州大学信息科学学院ISI合作开发的GlobusToolkit已成为网格计算事实上的标准,包括IBM、微软、NEC等在内的12家计算机和软件厂商已宣布将采用GlobusToolkit。作为一种开放架构和开放标准基础设施,GlobusToolkit提供了构建网格应用所需的很多基本服务,如安全、资源发现、资源管理、数据访问等。目前所有重大的网格项目都是基于GlobusToolkit提供的协议与服务建设的。

量子计算是从上个实际70年代末开始兴起的。人们那时开始研究数字电路可逆的逻辑门。Toffoli给出了一个可逆的门,需要3个比特位。经典的逻辑门一般不可逆,可是量子系统天生是可逆的,于是人们把目光转向了量子系统。后来1985年David Deutsch提出利用量子系统的物理规律,我们是否可以获得比Turing机更强的计算能力,我们是否可以用量子计算机完成经典的计算机完成不了的工作?

1994年Shor证明了大数质因子分解以及离散对数(discrete logarithm)问题可以用量子计算机很迅速的解决。1995年Grover给出了在一个没有实现排序的数据库中搜索的问题可以通过量子计算机大大的提高速度。这两个问题对经典计算机来说是非常困难的。1982年,Feynman指出,用经典计算机模拟量子体系很多情况下是非常困难的,那么用量子计算机应该会改善这个问题。后来许多小组沿着他的想法往下做,发现确实如此。

用量子计算机模拟量子体系不论在科学上还是在技术上都很有价值。在量子计算方面,1995年D. P. DiVincenzo证明两个量子比特的量子门是Universal的,这点与经典的计算理论不同。所以后来人们的目光就集中在寻找两比特量子门上来了。对应于经典的逻辑门,我们也定义了比如SWAP门,NOT门,Phase门等单量子比特门,同时定义了CNOT门,CPHASE门等两量子比特门。相应的算法以及量子电路的构建都有许多人在做研究。物理学家专注于如何实现这些门操作。

值得一提的是teleportation这个词来自科幻小说。1997年维也纳大学的Zeilinger小组实现了量子隐形传态。随着对量子信息研究的深入,1995年Ben Schumacher对应于信息论中的比特给出了量子比特(qubit)的概念。同时也给出了许多相对与经典信息论相对应的概念,如量子信道,纠错等等。接着对应于信息熵,人们也给出了量子通讯中熵的概念,由此引入了纠缠的度量。对纠缠的研究是目前量子计算与量子信息研究的一个核心。我们知道,不论在量子信息还是量子计算里面,纠缠都是一个非常重要的资源。

我国物理所吴令安研究员目前从事量子密码的研究,已经成功的在相聚一公里的两点间传输了密码。国外据说五角大楼和白宫之间也有这么一条传输量子密码的通道。

http://yucy0405.blog.163.com/blog/static/435360032007931104533408/
http://tech.ccidnet.com/art/3089/20060403/495753_1.html
[ 打印 ]
阅读 ()评论 (0)
评论
目前还没有任何评论
登录后才可评论.