■量子大战:IBM vs 谷歌( 二 )


这不仅仅是措辞上的不同 , 甚至也不是科学上的分歧 , 而是在哲学立场上的对立 , 它植根于IBM的历史、文化和雄心壮志中 。也许还有这样一个事实 , 即八年来 , IBM的收入和利润始终在下降 , 而谷歌及其母公司Alphabet的营收数字却在增长 。在这样的背景下 , 以及各自设定的不同目标 , 可能会影响双方在量子计算竞赛中究竟哪一方会胜出 。
规模宏大的实验
量子计算机的基本构件就是量子比特 。在传统计算机中 , 一个普通比特只能存储0或1 , 而量子比特不仅可以存储0或1 , 还可以存储介于两者之间、被称为“叠加”的状态 , 这可以假设许多不同的值 。这里我们可以类比下 , 如果信息是彩色的 , 那么普通比特可以是黑色的 , 也可以是白色的 。而当量子比特处于叠加状态时 , 它可以是光谱上的任何颜色 , 也可以是亮度不同的颜色 。
结果是 , 与普通比特相比 , 一个量子比特可以存储和处理大量的信息 , 而且当你把量子比特连接在一起时 , 容量会成倍增长 。在谷歌Sycamore芯片上以53个量子比特来存储所有的信息 , 将需要大约72PB(720亿GB)的传统计算机内存 。不需要太多的量子比特 , 其计算和存储能力就可以与星球大小的传统计算机相媲美 。
■量子大战:IBM vs 谷歌
文章图片

文章图片

当然 , 量子比特并非没有缺点 。由于量子比特脆弱且易受干扰 , 因此必须与热量、振动和杂散的原子完全隔离 , 因此才有了谷歌量子实验室里的“枝形吊灯”冰箱 。即便如此 , 它们最多也只能工作几百微秒 , 然后就会“退化”(decohere) , 失去叠加状态 。
量子计算机并不总是比传统计算机快 。它们只是有所不同的机器 , 有的更快 , 有的更慢 , 并且需要不同种类的软件 。为了比较它们的性能 , 你必须编写一个近似模拟量子计算机的经典程序 。
在实验中 , 谷歌选择了一个叫做“随机量子电路采样”的基准测试 。它产生了数百万个随机数字 , 但带有轻微的统计偏差 , 而这正是量子算法的特点 。如果Sycamore是个袖珍计算器 , 它就相当于随机按下按钮 , 然后检查显示器是否显示了预期的结果 。
谷歌在它自己的大型服务器场和世界上最大的超级计算机Summit(位于橡树岭国家实验室)上模拟了部分过程 。研究人员估计 , 完成整项耗时200秒的计算工作 , 将花费Summit大约1万年的时间 。瞧 , 这就是“量子霸权” 。
那么IBM反对的是什么呢基本上 , 让传统计算机模拟量子计算机有不同的方法 , 你编写的软件 , 你分割和存储数据的方式 , 以及你使用的硬件都会对模拟运行的速度产生很大影响 。IBM表示 , 谷歌假定模拟需要被分割成许多块 , 但拥有280PB存储空间的Summit足以同时保存完整的Sycamore状态 。IBM建造了Summit , 所以它对此非常了解 。
在最基本的层面上 , 传统计算机中的软件是一系列逻辑门 , 如NOT、OR和NAND , 它们改变比特的内容(0或1) 。同样 , 量子软件由作用于量子比特的一系列逻辑门组成 , 但它有一组更大、更奇特的门 , 它们的名字分别是SWAP(交换周围两个量子比特的值)、Pauli-X(翻转量子比特的值的NOT门量子版本)和Hadamard(将量子比特从0或1转换为0和1的叠加状态) 。到目前为止 , 还没有像C++或Java这样的高级语言的量子编程语言 , 但谷歌和IBM都创建了图形界面 , 这让使用GATES进行编程变得容易 。
量子比特存储信息的方式就像筛子存储水一样 , 即使是最稳定的量子态也会在几百微秒内“退化” , 或者从脆弱的量子态跌落 。甚至在那之前 , 错误就开始堆积 。这意味着一台量子计算机只能做固定量的计算 , 然后就会慢慢停下来 。谷歌的更大芯片在30到40微秒后“退化” , 足够它们运行40个量子逻辑门序列 。IBM的芯片可达500微秒 , 但它们处理逻辑门的速度也更慢 。


推荐阅读