一个研究小组证明,超参数化提高了量子机器学习的性能,这种技术超越了经典计算机的能力。他们的研究为优化量子神经网络的训练过程提供了见解,从而提高了实际量子应用的性能。2021 年,加西亚-马丁作为马德里自治大学的一名研究生参加了该实验室的量子计算暑期学校,从事这项研究。机器学习或人工智能通常涉及训练神经网络来处理信息(数据),并学习如何解决给定的任务。
洛斯阿拉莫斯国家实验室博士后研究员迭戈-加西亚-马丁(Diego Garcia-Martin)说:"我们相信,我们的研究成果将有助于利用机器学习来学习量子数据的属性,例如在量子材料研究中对不同物相进行分类,而这在经典计算机上是非常困难的。他是洛斯阿拉莫斯团队在《自然-计算科学》(Nature Computational Science)上发表的一篇关于该技术的新论文的共同作者之一。
简而言之,我们可以把神经网络想象成一个带有旋钮或参数的盒子,它将数据作为输入,并根据旋钮的配置产生输出。
(相关资料图)
加西亚-马丁说:"在训练阶段,算法会随着学习更新这些参数,试图找到最佳设置。一旦确定了最佳参数,神经网络就能够将它从训练实例中学到的知识外推到新的和以前未见过的数据点上。"
在训练参数时,经典人工智能和量子人工智能都面临着共同的挑战,因为算法在训练过程中可能会达到次优配置,从而停滞不前。
性能飞跃
超参数化是经典机器学习中的一个著名概念,它可以增加越来越多的参数,从而避免停滞。
直到现在,人们对超参数化在量子机器学习模型中的影响还知之甚少。在这篇新论文中,洛斯阿拉莫斯团队建立了一个理论框架,用于预测量子机器学习模型变得过度参数化的临界参数数。在某个临界点,增加参数会促使网络性能飞跃,模型也会变得更容易训练。
"通过建立量子神经网络超参数化的基础理论,我们的研究为优化训练过程和提高实际量子应用的性能铺平了道路,"手稿第一作者、洛斯阿拉莫斯大学博士后研究员马丁-拉罗卡(Martin Larocca)解释说。
通过利用纠缠和叠加等量子力学方面的优势,量子机器学习有望实现比经典计算机上的机器学习更快的速度或量子优势。
避免机器学习中的陷阱
为了说明洛斯阿拉莫斯团队的研究成果,论文的资深科学家、实验室的量子理论家马可-塞雷佐(Marco Cerezo)描述了一个思想实验:在这个实验中,一个远足者在一片黑暗的风景中寻找最高的山峰,这就是训练过程。徒步旅行者只能朝特定方向前进,并通过使用有限的全球定位系统测量海拔高度来评估他们的进展。
在这个比喻中,模型中参数的数量与远足者可移动的方向相对应,Cerezo 说。他说:"一个参数允许前后移动,两个参数允许横向移动,以此类推。与我们假设的徒步旅行者的世界不同,数据景观可能不止三个维度。"
如果参数太少,徒步旅行者就无法进行彻底的探索,可能会把一座小山误认为是最高的山峰,或者被困在一个平坦的区域,迈出任何一步似乎都是徒劳。然而,随着参数数量的增加,行走者可以在更高的维度上向更多的方向移动。最初看似局部的山丘可能会变成山峰之间的高谷。有了更多的参数,徒步者就能避免被困,找到真正的山峰或问题的解决方案。
标签:
X 关闭
X 关闭