芯片的演算能力到底能渠道什么样的极限?就在刚刚,Google推出了一款名为Willow的量子芯片,号称用5分钟不到的时间,可以解决别的电脑需要耗时10亿亿亿年的任务!
这是个什么样的概念呢?如果把10亿亿亿年的数字完整写出来,就是10,000,000,000,000,000,000,000,000年,是真正意义上的天文数字,超越宇宙的存在的年龄(约138亿年)
而且这不是拿Willow随随便便和一个十多年前的破电脑对比,Willow的对比对象还是一台被视为是如今最快的超级电脑Frontier对比,也就是说Frontier算到“大道磨灭”的难题,Willow不到五分钟就搞定了。

据了解,Willow用上了105个Qubits(量子比特),而它最大的成就之一,就在于能维持极低的错误率,在量子计算的发展近30年的历程中,量子比特的出错率一直都是尚待攻克的难题。
一旦量子比特出错,就很难正常运作,也很难保存资讯,更不用说要利用这些资讯来进行运算了。而且这种难题还是会叠加的,你在芯片中运用的量子比特越多,就会出现越多错误。
而现在,Google则表示他们成功打造的Willow能在使用更多量子比特的前提下减少更多的错误,这无疑为量子计算的发展打开了更多的可能性。
——话虽是这么说,但Google自己也在探索这些量子计算未来能如何投入实际应用以及寻找出技能超越经典计算机又能创造商业价值的算法,言下之意就是尚在探讨运用范围的阶段。

而他们也在Coursera开设了量子计算相关的课程,邀请各路开发者、工程师、研究人员来一同学习量子错误并一同探讨创造算法,进而解决未来更能出现的更多问题。