谷歌量子计算改进图像分类,微美全息5G核心算法助力AI视觉发展
时间:2022-05-14 20:39:01 | 来源:网络营销
时间:2022-05-14 20:39:01 来源:网络营销
在一个新的教程中,谷歌的研究人员演示了如何使用量子计算技术对由单个光子照射的28像素乘28像素的图像进行分类。通过改变光子的量子态,他们表明他们能够在流行的手写数字MNIST语库上实现至少41.27%的精度比传统计算方法提高了21.27%。
谷歌已经证明了量子计算也能解决传统机器学习中的图像分类问题,而且随着技术发展,量子计算机将在在学习能力上超越经典的神经网络。
另外量子计算还能解决经典网络中一些棘手问题,比如预防出现模型训练中的梯度消失问题。
工作研究人员说,这是为了说明量子力学教科书可以揭示人工智能问题,认为最大的可实现的分类精度,如果一个算法必须做出决定后发现第一个量子的光(即光子)通过液晶屏幕显示一个图像从一个数据集。MNIST,最经典的计算可以完成的是检测一个落在图像像素上的光子,然后通过将每张图像的亮度重调到一个单位和来从光强分布中猜测数字。
MNIST 对于机器学习研究者来说再熟悉不过了,它是一个由 Yann Lecun 等人创建的手写数字图像数据集,包含训练集和测试集,训练集包含 60000 个样本,测试集包含 10000 个样本(在 2019 年又增加了 50000 个测试集样本)。
研究人员的量子力学方法使用分光器、移相器和其他光学元件来创建一个类似全息图的推理模式。光子降落的推理模式区域可以用于图像分类,说明没有必要同时照亮多个光子以产生干扰。
研究人员写道:从概念上讲,利用干扰来提高量子实验产生所寻求结果的可能性,是所有量子计算的基本理念。除了为量子和机器学习专家提供一个简单易懂的玩具问题之外,这个简单量子/简单机器学习角也可能对在一个更容易理解的设置中教授测量过程的物理很有兴趣。
有人预测,量子计算将在人工智能和机器学习领域取得重大进展。例如,去年3月,IBM、MIT和牛津大学的研究人员在《自然》杂志上发表了一篇论文,声称随着量子计算机变得更加强大,它们将能够进行特征映射。在高度复杂的数据结构上,将数据分解成非冗余的特性,这是传统计算机无法做到的。然后,研究人员将能够开发出更有效的人工智能,例如,能够识别经典计算机看不到的数据模式。
机器学习和量子计算这两项技术都有可能改变计算的执行方式,以解决以前无法解决的问题,《自然》杂志论文的合着者写道。量子算法提供的计算加速的一个核心要素是通过可控的纠缠和干涉来开发指数级大的量子状态空间。
在现代科技中,量子力学和机器学习都发挥着重要作用,量子计算的 AI 应用这一新兴领域很有可能帮助许多学科实现重大突破。然而,目前大多数机器学习从业者对量子力学还没有透彻的了解,多数量子物理学家对机器学习的理解也非常有限。因此,找到一些二者都能理解的问题非常重要,这些问题既要包含简单且被广泛理解的机器学习思想,也要包含类似的量子力学思想。