《量子信息网络产业联盟:2024量子人工智能技术白皮书(139页).pdf》由会员分享,可在线阅读,更多相关《量子信息网络产业联盟:2024量子人工智能技术白皮书(139页).pdf(139页珍藏版)》请在三个皮匠报告上搜索。
1、量子人工智能技术白皮书 1 一、绪论(一一)人工智能人工智能 1.人工智能概述人工智能概述 人工智能是机器,特别是计算机系统对人类智能过程的模拟。这些过程包括学习、推理和自我纠正。人工智能的特定应用包括专家系统、语音识别和计算机视觉等。人工智能是由美国计算机科学家约翰麦卡锡于1956年在达特茅斯会议上创造出来的。近年来它获得各大媒体与公众的持续关注,部分原因在于大数据,或者现在进行的业务收集数据的速度、规模和种类的增加。人工智能可以执行诸如比人类更有效地识别数据中的模式等任务,使企业能够从数据中获得更多洞察力。人工智能的发展大致经历了三个重要阶段:1)1950-1970 年代:即人工智能的“逻
2、辑推理”时代。1956 年夏天,美国达特茅斯学院举行了历史上第一次人工智能研讨会,被认为是人工智能诞生的标志。在会上,麦卡锡首次提出了“人工智能”概念,纽厄尔和西蒙则展示了编写的逻辑理论机器。人们当时认为只要机器具有逻辑推理能力就可以实现人工智能,但后来发现这样还是远远达不到智能化水平。2)1970-1990 年代:即人工智能的“知识工程”时代。专家系统的出现使人工智能研究出现新高潮。DENDRAL 化学质谱分析系统、MYCIN 疾病诊断和治疗系统、PROSPECTIOR 探矿系统、Hearsay-II语音理解系统等专家系统的研究和开发,将人工智能引向了实用化。量子人工智能技术白皮书 2 人们
3、当时认为要让机器学习知识,才能让机器变得智能化,但后来发现将总结好的知识灌输给计算机十分困难。3)2000 年至今:即人工智能的“数据挖掘”时代。随着各种机器学习算法的提出和应用,特别是深度学习技术的发展,人们希望机器能够通过大量数据分析,从而自动学习出知识并实现智能化水平。这一时期,随着计算机硬件水平的提升,大数据分析技术的发展,机器采集、存储、处理数据的水平有了大幅提高。特别是深度学习技术对知识的理解比之前浅层学习有了很大的进步,Alpha Go 和中韩围棋高手过招大幅领先就是目前人工智能的高水平代表之一。人工智能可以通过多种方式进行分类,这里列举两种分类的方法,第一种将人工智能系统分类为
4、弱人工智能或强人工智能。弱人工智能,也称为窄人工智能,是为特定任务设计和训练的人工智能系统。虚拟个人助理,如 Apple 的 Siri,是一种弱人工智能的形式。强人工智能,也称为人工智能,是一种具有广泛的人类认知能力的人工智能系统,因此当提出一项不熟悉的任务时,它具有足够的智能来寻找解决方案,也就是是否能够通过由数学家阿兰图灵于 1950 年开发的图灵测试,判断计算机是否能真像人一样思考,尽管该方法存在争议;第二种是来自密歇根州立大学综合生物学和计算机科学与工程助理教授 Arend Hintze 的分类方法。他将人工智能分为四类,从现有的人工智能系统类型到尚不存在的有感知系统。2.传统人工智能
5、特点传统人工智能特点 人工智能(Artificial Intelligence,以下简称 AI)的四大特点如下:量子人工智能技术白皮书 3 1)自我学习和自我进化:AI系统能够自我学习和自我进化,不断提高自身的智能水平。2)处理和分析数据的能力:AI系统能够通过数据的分析和处理,提取出有用的信息和模式,并做出预测和决策。3)自动化和智能化的任务:AI系统能够执行各种自动化和智能化的任务,如语音识别、机器翻译、自动驾驶等。4)与人交互的能力:AI系统能够与人进行交互,如通过语音、图像等方式与人类进行对话,从而不断学习和适应人类的语言和文化。(二二)量子信息技术与人工智能的融合量子信息技术与人工智
6、能的融合 量子信息技术和人工智能都是当今最前沿的技术领域之一,它们在各自的领域内都有非常强的影响力和应用前景。近年来,越来越多的研究者开始将量子计算和人工智能进行深度融合,旨在实现更快速、更准确和更高效的计算和决策。1.量子信息技术概述量子信息技术概述 量子信息技术是量子物理与信息科学交叉的新生学科,其物理基础是量子力学。而量子力学则是在 1920 年由爱因斯坦等科学家首次创立。自从问世以来,量子科学已经先后孕育出原子弹、激光、核磁共振等新技术,成为20世纪最重要的科学发现之一。进入21世纪,量子科技革命的第二次浪潮即将来临。第二次量子科技革命将催生量子计算、量子通信和量子测量等一批新兴技术,
7、将极大地改变和提升人类获取、传输和处理信息的方式和能力。其中,量子通信是较为重要的安全技术,它是利用量子态作为信息载体来进行信量子人工智能技术白皮书 4 息交互的通信技术,利用单个光量子不可分割和量子不可克隆原理的性质,在原理上确保非授权方不能复制与窃取量子信道内传递的信息,以此保证信息传输安全。量子信息技术的三大基本原理:量子比特、量子叠加、量子纠缠。量子比特是量子计算机的最小储存信息单位,一个量子比特可以表示 0 也可以表示 1,更可以表示 0 和 1 的叠加,即可处在 0 和 1两种状态按照任意比例的叠加,因此,量子比特包含的信息量远超过只能表示 0 和 1 的经典比特。量子信息技术研究
8、已成为当前世界科技研究的一大热点。国际社会纷纷加大研发力度和投入,力争抢占技术制高点。中国近年来对量子信息技术的重视和支持力度也逐渐加大,习近平总书记在2018 年强调“以人工智能、量子信息、移动通信、物联网、区块链为代表的新一代信息技术加速突破应用”,进一步肯定了量子信息技术的战略地位。2.量子信息技术与人工智能双向赋能量子信息技术与人工智能双向赋能 以量子计算为例,作为量子信息技术的关键核心技术,量子计算与人工智能的结合,能够在未来有效提升算力供给能力,从而进一步推动人工智能的发展和应用。现在的人工智能系统使用的是成百上千个 GPU 来提升计算能力。这使得处理学习或者智能的能力得到比较大的
9、增强。然而这套系统也需要庞大的硬件机柜和相配套的硬件机房,较大的人工智能硬件系统需要将近半个足球场的占地空间。当量子芯片中的量子比特达到一定数量后,计算能力将完全满量子人工智能技术白皮书 5 足人工智能的算力需求。实现人工智能,原来需要一千台或者一万台计算机的规模,使用量子计算机可能就只需要一台,也就是说人工智能将不再依赖于大型服务器集群,或者庞大的云计算中心。在人工智能领域,量子计算的优势主要表现在其可以通过量子并行性和量子态叠加等优势来处理复杂的计算问题,从而提高机器学习算法的训练速度和准确度;通过量子搜索、量子优化等方法,提高优化算法的效率和精度,从而加速解决各种优化问题;通过量子隐形传
10、态和量子密钥分发等技术,保障数据的安全传输和存储,进而保障数据的隐私和安全等。在量子计算领域,人工智能的优势主要表现在以下两个方面:一是改善量子计算中的算法。量子计算需要开发新的算法和数据结构来适应量子系统的特点。人工智能技术可以帮助优化和改进量子算法的设计和实现,从而提高量子计算的效率和准确度。二是改善量子计算中的控制。量子计算需要高精度的控制和测量,而这些控制和测量通常会受到各种噪声和误差的影响。人工智能技术可以帮助改善量子计算中的控制和测量,从而提高量子计算的稳定性和可靠性。因此,量子计算和人工智能的深度融合可以带来巨大的优势和潜力,将有助于推动计算机科学和技术的发展。二、量子人工智能概
11、述(一一)量子人工智能量子人工智能 1.量子人工智能的定义量子人工智能的定义 量子人工智能技术白皮书 6 量子人工智能(Quantum Artificial Intelligence,QAI)是一种基于量子计算的人工智能技术。它利用量子计算机的特殊性质,如量子叠加和量子纠缠,来加速机器学习和优化算法,从而实现更高效、更准确的人工智能应用。2.量子人工智能的主要应用量子人工智能的主要应用 利用量子人工智能上述自身的这些性质,量子人工智能可以设计出一些特殊的算法,来解决传统人工智能难以处理的问题。例如,量子人工智能可以用量子神经网络(Quantum Neural Network,简称QNN)来模拟
12、复杂的非线性函数,从而提高人工神经网络的表达能力和学习效率。量子人工智能也可以用量子优化算法(Quantum Optimization Algorithm,简称 QOA)来寻找最优解或近似最优解,从而解决组合优化、约束满足、机器学习等领域的难题。在现实生活中量子人工智能也有着广泛的应用前景,它可以在各个领域提供更好的解决方案和服务。以下是一些量子人工智能的应用探索发展方向示例:1)医疗健康:量子人工智能可以帮助医生进行更精确的诊断和治疗,例如利用量子机器学习来分析医疗数据,发现潜在的疾病风险和治疗方案;利用量子优化算法来设计新型的药物和疫苗;利用量子神经网络来模拟生物分子的结构和功能。2)金融
13、服务:量子人工智能可以帮助金融机构进行更高效的风险管理和投资决策,例如利用量子机器学习来预测市场走势和价格波动;利用量子优化算法来优化资产组合和交易策略;利用量子神经网络来模拟复杂的金融模型和场景。量子人工智能技术白皮书 7 3)智慧城市:量子人工智能可以帮助城市管理者进行更智能的规划和运营,例如利用量子机器学习来分析城市数据,提升公共服务和安全水平;利用量子优化算法来优化交通网络和能源分配;利用量子神经网络来模拟城市环境和社会行为。总之,量子人工智能是一种基于量子计算的人工智能技术,它可以利用量子计算机的特殊性质来加速机器学习和优化算法,从而实现更高效、更准确的人工智能应用。随着量子计算机的
14、发展和应用,量子人工智能将成为未来人工智能领域的重要发展方向。(二二)量子人工智能技术现状及趋势量子人工智能技术现状及趋势 1.全球量子人工智能技术投资状况全球量子人工智能技术投资状况 全球量子人工智能技术的投融资状况非常活跃,而且呈现出多元化和不断增长的特点。这个领域在国内也受到了高度关注,投资机构对于其前景也十分看好。随着量子人工智能技术的不断发展,未来有理由相信该领域的前景更加广阔。2021 年,NORDIC QUANTUM COMPUTING GROUP 获得 875万美元的种子轮融资,由英特尔、M Waldau 和 Start ENGINE 的超级天使基金等多家机构和个人共同投资;Q
15、uantistry 完成 175 万美元的种子融资,由 Gray Ghost Ventures、SEIF and Joseph Heiderich 等多家机构和个人共同投资;QC WARE 获得 2500 万美元 B 轮融资,该轮融资由 Koch Industries 投资部门 Koch Disruptive Technologies 和世界领先的聚合物公司之一 Covestro 共同领投,三星风投和回归投资者花旗、D.E.Shaw 集团和 Pegasus Tech Ventures 跟投。2022 年,Quantistry 宣布完成了 500 万美元的超额认购种子扩展量子人工智能技术白皮书
16、8 融资,由 Redline Capital 领投,现有投资者 Gray Ghost Ventures 跟投;Quantum Machines完成了5000万美元的B轮融资,由Red Dot Capital Partners 领投,Exor、Claridge Israel、Samsung NEXT、Valor Equity Partners、Atreides Management LP 参投,TLV Partners、Battery Ventures、Altshuler Shaham 以及其他现有投资者跟投,迄今为止,Quantum Machines 筹集的总资金达到了 7300 万美元;Za
17、pata Computing 完成了一轮 3800 万美元的 B 轮融资,投资方包括霍尼韦尔(Honeywell)等知名公司。2.全球量子人工智能技术政策全球量子人工智能技术政策 全球量子人工智能技术的政策布局正不断加强。以下是一些主要国家和地区在量子人工智能技术领域的政策情况。美国政府自 2018 年开始连续发布了多项战略性文件,包括国家量子倡议法案、量子网络基础设施法案、量子网络基础设施和劳动力发展法案等,以提高量子科技在全国科研领域中的地位,推动量子科技的发展。此外,美国政府还与多个私营公司合作,共同推动量子人工智能技术的发展。我国近年来加强了量子科技领域的政策布局,发布了多项重要文件,
18、将量子科技列为未来发展的重点领域之一。同时也在人工智能领域布局和推动与量子计算等领域的融合发展,新一代人工智能发展规划中明确指出,布局前沿基础理论研究。针对可能引发人工智能范式变革的方向,前瞻布局高级机器学习、类脑智能计算、量子智能计算等跨领域基础理论研究。量子智能计算理论重点突破量子加速的机器学习方法,建立高性能计算与量子算法混合模型,量子人工智能技术白皮书 9 形成高效、精确、自主的量子人工智能系统架构。欧洲议会于 2018 年通过了量子技术公约,旨在推动欧盟及其成员国在量子技术领域的协同发展。此外,欧盟还提出了“欧洲量子计划”,旨在推动欧盟在量子技术领域的投资和研发,打造全球领先的量子技
19、术产业链。日本政府在 2017 年提出了量子计算机技术研究开发培育事业,旨在促进日本在量子计算机领域的研发和应用。此后,日本政府又提出了量子技术创新计划,旨在推动日本在量子科技领域的创新和发展。总之,全球主要国家和地区都在量子人工智能技术领域加强了政策布局,以推动该领域的发展和产业化的进程。3.全球量子人工智能技术发展趋势全球量子人工智能技术发展趋势 量子人工智能利用量子计算的高并行性,提高对大数据的处理、分析和挖掘能力,并且借鉴量子力学的原理,促进新型算法的产生,能够提供全新的计算范式。量子人工智能也有望成为人工智能市场增长的重要驱动因素。因此,受到产学研用各方的高度关注,但是总体来讲,量子
20、人工智能技术和产业整体还处于技术萌芽期。美国著名的咨询公司 Gartner 将一项技术的发展进程分为五个阶段:技术萌芽期、期望膨胀期、泡沫破裂低谷期、稳步爬升复苏期和生产成熟期。量子人工智能目前主要集中在实验室研发、算法和应用场景的探索,少数商业公司推出简单的应用服务或案例演示,符合 Gartner 对技术萌芽期的定义。处于萌芽期的技术或服务在短期内会快速发展,在1-2年内进入期望膨胀期,但是距离成熟商用至少量子人工智能技术白皮书 10 需要 10 年的时间。虽然部分量子人工智能算法在含噪中等规模量子(NISQ)硬件上可以有效运行,但现阶段还未成为人工智能领域的主流方案。量子人工智能的发展面临
21、诸多挑战。一是量子计算硬件路线尚未收敛,规模和性能无法满足应用需求。量子处理器是执行量子人工智能算法的“核心引擎”,是制备、操作和测量量子比特与量子逻辑门的物理载体,也是现阶段量子计算研究与应用的关键方向之一,超导、离子阱、硅基半导体、光量子和中性原子等技术路线呈现多元化发展和开放竞争态势,尚未出现技术路线融合收敛趋势。此外量子人工智能的加速优势还体现在问题规模上,但是问题规模越大,量子线路的宽度和深度随之增大,所需要的量子硬件资源(量子比特数目)越多,对量子比特性能(如保真度、相干时间)的要求也越高,当前的硬件水平无法满足大规模应用需求。二是缺乏有效的数据编码方法。目前绝大部分的数据都是经典
22、的,而运行量子人工智能算法需要将经典的数据编码到量子比特上。学术界已经提出诸多中经典数据的量子表示方法,但是仍处于理论研究和实验验证的阶段。如何高效、准确地进行经典数据的编码仍是未来关注的热点。三是缺乏面向NISQ的成熟算法。当前量子计算硬件处于从实验样机向工程化样机转化的关键阶段,但是量子比特数目只有数百个,并且量子比特的相干时间和保真度还不够理想,量子错误缓解和量子纠错等技术尚不成熟。因此在设计量子人工智能算法时要充分考虑当前的硬件水平并且能体现量子加速优势。目前尚没有成熟的量子人工智能算法被广泛应用于实际的生产生活中。量子人工智能技术白皮书 11 三、量子人工智能关键技术(一一)量子人工
23、智能平台框架量子人工智能平台框架 鉴于量子人工智能领域在未来发展的广阔前景,在真正的容错通用量子计算机落地前,国内外各家相关公司早已在其计算框架技术、软件服务方面进行了布局,以利用先发优势吸引和培养潜在用户。各厂商等通过建立自己的量子人工智能及量子计算等平台框架来提升行业影响力,打通自主研发的芯片和算法,实现软硬协同、赋能百业。以量子机器学习平台框架为例,其关键技术组成包括:训练数据集管理、量子机器学习模型的定义与训练框架、量子机器学习的训练过程管理与部署、量子机器学习模型分析辅助工具、量子机器学习实例算法库等。下面是一些国内外主流量子公司的量子人工智能相关的平台框架技术。1.IBM Qisk
24、it IBM 的量子产品主要以 Qiskit 为核心构建。其中,Qiskit 部分的核心是由四部分组成,包括 Terra 线路编辑、Aer 计算仿真模块、Ignis纠错模块以及AquaIDE模块。Terra线路编辑模块是在线路和脉冲级别上构成量子程序的基础模块,针对特定设备进行了优化,同时管理远程量子设备上所执行的一批实验。Aer计算仿真模块可以在经典处理器在尽最多大程度模拟量子计算。Aer 是基于 QASM 制作。Ignis 纠错模块包括更好地表征错误,改善门控,以及在存在噪声的情况下进行计算。AquaIDE 模块可用于构建量子计算应用程序。Qiskit 机器学习包目前只包含样本数据集。Qi
25、skit 有一些分类算量子人工智能技术白皮书 12 法,如 QSVM 和 VQC,数据可以用于实验,还有 QGAN 算法。图 1 Qiskit 梯度计算框架 除了 Qiskit 机器学习提供的模型外,还有 TorchConnector,允许用户将所有的量子神经网络直接集成到PyTorch开源机器学习库中。Qiskit 内置梯度计算算法,不仅支持量子梯度也支持函数梯度计算,除了支持期望值的一阶梯度也支持二阶梯度(Hessians)计算,这包括了PyTorch在反向传播过程中计算的总体梯度,同时也考虑到了量子神经网络。Qiskit 灵活的设计还允许将来构建到其他包的连接器。2.Xanadu Pen
26、nyLane PennyLane 是 Xanadu 的开源量子计算软件,是一个用于量子机器学习、量子化学和量子计算的开源软件框架,能够在真实量子计算机硬件上运行,广泛用于量子机器学习、化学和优化。PennyLane 作为一个跨平台的 Python 库,它实现了一种新的范式:量子可微编程,能够与机器学习工具无缝集成。支持类似于训练人工神经网络的方式来训练量子机器学习模型。PennyLane还提供一整套功能、模拟器、硬件和社区主导的资源,使所有级别的用户都能轻松构建、优化和部署量子经典应用程序。量子人工智能技术白皮书 13 图 2 PennyLane 量子机器学习框架示意图 该框架主要特点有,代码
27、在一次编写后,可在任何地方运行。程序设计中,可以自由切换模拟器和量子计算机硬件类型,不需要对程序进行其他更改;将高性能计算和 GPU 与 Xanadu、Amazon Braket、Google、IBM、Rigetti 等公司的量子硬件无缝结合,轻松地从量子机器学习模型的快速迭代设计过渡到硬件测试;内置量子电路的自动微分技术,PennyLane框架知道如何区分量子设备是模拟器还是量子计算硬件,自动为作业选择最佳算法;支持量子硬件上的机器学习,将量子硬件无缝连接到 PyTorch、TensorFlow、JAX 和NumPy,构建起丰富灵活的量子-经典模型;灵活性强,从量子优化器到量子化学算法,在构
28、建算法时,如果需要额外的工具时,随手可得;集成度高,从量子优化器到量子化学算法所需的工具应有尽有。3.图灵量子图灵量子 DeepQuantum 图灵量子提出 DeepQuantum 计算框架,以芯片和算法为核心实现软硬协同,基于 Qumode 实现光量子计算模拟,与基于 Qubit 的量子计算模拟相结合,将使得 DeepQuantum 在业内具有特色。图灵量量子人工智能技术白皮书 14 子致力于开发一个完善的计算框架,为云平台、量子 AI 教育产品、量子计算比赛、POC 开发以及内部算法应用的开发等提供技术支撑,也更需要一个高效好用的计算框架,赋能算法开发,以在更多生物医药、金融科技等应用场景
29、中找到潜在的量子增强应用。图灵量子 DeepQuantum 计算框架同时包含基于 Qubit 的量子计算模拟和基于 Qumode 的光量子计算模拟,并且涵盖量子神经网络、VQE、高斯玻色采样等应用和演示模块。DeepQuantum 底层基于张量网络技术(Tensor Network)进行优化,框架计算效率和可模拟规模具有一定优势。图 3 DeepQuantum 量子机器学习计算框架 DeepQuantum 加入目前最先进的张量网络技术,复现量子计算领域的研究亮点,并与与图灵量子公司研发的芯片打通,支持通过云平台调用底层硬件计算资源,未来可通过硬件赋能上层算法应用。量子人工智能技术白皮书 15
30、DeepQuantum 还部署到量子智算中心,探索展示具有价值或潜力的应用演示。未来,图灵量子进一步打造 DeepQuantum 生态,持续提升在行业内的影响力,以优质社区吸引各类人才,拓展量子计算生态,推动实现技术应用赋能。4.百度百度 Paddle Quantum 量桨是百度基于飞桨开发的量子机器学习平台。量桨的主要特点包括:轻松上手,丰富的在线学习资源(近 50 篇教程案例),可以通过模板高效搭建量子神经网络;功能丰富,提供多种优化工具和 GPU 模式,通过量易伏可以连接真实的量子计算机,并且支持多种噪声模型的模拟;特色工具集,提供组合优化和量子化学等前沿领域的计算工具箱,分布式量子信息
31、处理模组 LOCCNet,基于测量的量子计算模块,并且包含自研多种量子机器学习算法。基于百度自己的飞桨平台,能够连接真实的量子计算机,教程功能模块比较丰富。但也存在模拟器性能等若干提升方向,以及平台生态活跃性和吸引力的营造。5.华为华为 MindQuantum MindQuantum 是基于 MindSpore 的新一代量子计算领域套件,支持多种量子神经网络的训练和推理。MindQuantum聚焦于NISQ阶段的算法实现与落地。结合 HiQ 高性能量子计算模拟器和昇思MindSpore并行自动微分能力,MindQuantum有着极简的开发模式和极致的性能体验,能够高效处理量子机器学习、量子化学
32、模拟和量子组合优化等问题,为广大科研人员、教师和学生提供快速设计和量子人工智能技术白皮书 16 验证量子算法的高效平台,让量子计算触手可及。MindSpore Quantum 作为一个通用的量子计算框架,支持全量子和经典量子混合计算,可以在经典模拟器和量子芯片上运行。图 4 是 MindQuantum 的架构图,通过量子模拟器算子来对量子体系进行模拟,可以完成前向传播和梯度计算的功能。在此基础之上,还有量子算法库,如量子神经网络、量子化学模拟的 VQE 和量子优化算法 QAOA 等。框架的上层为量子应用,基于 MindQuantum的量子算法应用到机器学习、化学模拟和运筹优化等计算任务。图 4
33、 MindQuantum 框架图 6.腾讯腾讯 TensorCircuit 腾讯 TensorCircuit 提供高性能量子线路和量子算法模拟框架,其软件原型开发和开源开始于 2020 年 4 月。Tensorcircuit 面向 NISQ时代,克服了传统量子模拟软件的缺陷。为了实现大规模量子比特和高效率量子模拟,加入了很多代表性能的特性,如基于高效的张量网络模拟引擎、支持自动微分、即时编译、GPU 加速和矢量化并行。因此,相较于Google、IBM和Xandau等国际主流公司量子框架量子人工智能技术白皮书 17 方案,TensorCircuit在多种常见任务上报告了10到106倍的加速。同时
34、,TensorCircuit 在特定问题上实现支持包含数百个量子比特的线路精确模拟,是主流态模拟器所支持的最大模拟量子比特数的二十倍以上。一个具体例子是,TensorCircuit可在单GPU上跑通完整的600量子比特一维 VQE 工作流(横场伊辛模型,七层阶梯状双比特门)。对于该 600 比特系统,单步计算能量和全部线路梯度的耗时约 18s。TensorCircuit 支持 TensorFlow、PyTorch 和 JAX 三大最主流的机器学习库作为后端。TensorCircuit 基于 PyTorch 的 vmap 无法满足它全部需求的实际,扩展为借助其他两种后端实现相关计算。整体的编程风
35、格类似 JAX 的函数式编程理念。图 5 TensorCircuit 的产品特色 目前 TensorCircuit 按照“统一量子编程”这一愿景正在持续进行开发和功能迭代,适用于量子机器学习(QML)相关任务的快速实现、算法研究和工业级部署,为量子机器学习的学术研究和应用探索能提供可靠高效的平台。针对目前最流行的三种大模型机器学习架构:Transformer、扩散模型和图神经网络,国际上已经有相关科研工作尝试使用 TensorCircuit 作为基础工具实现了量子版本的开发和实现,形成了一定的学术研究影响力。量子人工智能技术白皮书 18 7.本源量子本源量子 VQNet VQNet 是本源量子
36、开发的新一代量子与经典统一的机器学习框架,该机器学习框架首次将量子与经典统一,支持量子机器学习和经典机器学习模型的构建与训练、经典量子混合运算,可连接超导量子计算机本源悟源,将支撑图像处理、信号处理、自然语言处理等更多应用场景落地。VQNet 集经典机器学习模型和量子机器学习模型于一体,可以让开发人员更便捷构建、运行和优化经典和量子机器学习算法。可以通过本源量子计算云调用本源悟源量子计算机,加速量子机器学习模型中的量子线路计算。同时,VQNet 不仅可以支持量子机器学习模型的训练,也支持经典神经网络模型、量子与经典神经网络混合模型等更多更复杂的模型的构建。这项突破将量子与经典统一,让此框架更加
37、实用。此外,VQNet 将有效助力图像处理、信号处理、自然语言处理更多应用场景落地。图 6 本源量子 VQNet 主页面(二二)量子神经元量子神经元 1.神经元神经元 量子人工智能技术白皮书 19 神经元是神经系统中的基本功能单位,也称为神经细胞。它们是大脑主要组成部分,负责接收、处理和传递神经信号,以支持生物体的神经功能和信息处理。神经元通过电化学过程来传递信号。当一个神经元受到足够的刺激时,它会产生电信号,该信号会沿着轴突传播到其他神经元的树突,从而在神经网络中传递信息。神经元之间的连接和信号传递是神经系统功能的基础,它们协同工作以实现感觉、思维、运动控制和其他神经活动。感知器,也叫感知机
38、,是受到神经元启发的数学模型。它具有n个输入节点(神经元),其值为xk=1,1,其中k=1,n,这些输入节点连接到单个输出神经元y,连接的重要性用权重wk1,1)表示,所有输入的加权求和表示为:h(w,x)=nk=1wkxk 输出 y 由激活函数确定:y=1,if h(w,x)b1,else 其中b是一个阈值。Rosenblatt 于 1958 年引入了感知器,对神经科学和人工智能至关重要。然而,人们发现感知器只能对线性可分函数进行分类。这一挑战在20世纪80年代通过多层感知器或人工神经网络得到解决。最近,人们对结合量子物理和感知器开发量子神经网络产生兴趣。2.基于相位估计的量子神经元基于相位
39、估计的量子神经元 上面已经介绍了神经元,以及它在经典计算机上的模型感知机。量子人工智能技术白皮书 20 神经网络使用感知机作为其基本的计算单元,这些感知机模拟了神经元从相邻神经元接收信号,然后根据信号强度产生激活的现象。作为线性分类器,它们在机器学习的基础概念中占据了重要位置。在量子机器学习中,人们试图基于量子信息理论在量子计算机上实现神经元,即量子神经元。受量子相位估计技术的启发,科学上提出了一个量子感知机模型。该量子感知机实现了 step function 激活,它的计算复杂度是 O(nlog2 n)。虽然比经典神经元相比 O(n)稍复杂一些,但是它可以处理非线性可分的数据,比如拟合 XO
40、R 函数。该量子感知器使用相位估计,归一化输入h(w,x)=0,1)被转化为量子相位,然后使用量子傅立叶变换解码相位信息。简单回顾相位估计算法的作用:12t 2t1j=0e2ij|j|y1,yt 其中,=0.y1yt,这是一个二进制的小数。为了使用 Qubit 编码感知机,把-1 映射成 0。感知机是二进制的,感知机的n个输入可以写成一个矢量 x=(x1,x2,.,xn),可以进一步被量子态|x=|x1,xn 表示。有时候人们会把量子态|x=|x1,xn 理解为一个正整数的二进制展开,即|x=|x1,xn表示 x112+xn12n=x。量子人工智能技术白皮书 21 图 7 基于相位估计的量子神
41、经元 相位估计的量子感知机线路分为三个阶段:1)将归一化的网络输入 h(w,x)=0,1)写入量子状态|x=|x1,xn 的相位;2)应用具有 t 精度的相位估计算法;3)此过程将返回一个量子态|y =|y1,yt,测量 y1 的值,1 表示激活。注意,对于任意大于等于 12 的 ,y1=1;对于任意小于 12 的,y1=0。因此,量子感知机实现了非线性映射 h(w,x)y1。下面将完整的描述基于相位估计的量子感知机的线路。如上图所示,假定初始状态为|0,0|x1,xn。该量子态包含两个寄存器,第一个寄存器由 t 个量子比特构成,第二个寄存器由 n 个量子比特组成。后者编码了所有输入神经元的二
42、进制状态(注意,-1 值由|0 态表示)。对 第 一 个 寄 存 器 作 用Hadamard变 换 产 生 了 叠 加 态 12tj=02t1|j|x1,xn,其中|j 表示整数 j 的二进制展开对应的量子态的简写,即|j=|j1,jt。量子人工智能技术白皮书 22 对第二个寄存器作用 U(w),得到 U(w)|x1,xn=e2i|x1,xn 其中 U(w)等于 U(w)=P(2w1)P(2w2)P(2wn)其中 P(2wk)是 P(2wk)=100e2iwk 有 P(2wk)|xk=e2iwkxk|xk 如下,使用 DeepQuantum 来编程实现一个基于相位估计的量子神经元。要使用量子线
43、路实现以下感知机函数,考虑只有一个输入神经元 x:h(w,x)=wx 输出 y 由激活函数确定:y=1,if h(w,x)1/20,else 阈值是 1/2。基于相位估计的量子感知机是一种非确定性的实现方式,所以在上面的实验中,同一组 x 和 w,经典感知机激活了,但量子感知机却没有激活。好消息是通过增加 t,来提高激活的概率,具体可以参考。3.基于基于 RUS 线路的量子神经元线路的量子神经元 量子人工智能技术白皮书 23 图 8 基于相位估计的量子神经元 图 8 是最基本的量子神经元线路,一个 qubit 是一个 neuron。(a)经典神经元。每一个二进制输入 x1,.,xn 都被乘以一
44、个权重 wi,最终会被偏置b,得到激活前的加权输入信号 =w1x1+.+wnxn+b。激活后的输出信号是 a=(),其中 是非线性激活函数。(b)量子神经元。这里使用 Bloch 球面来表示一个量子比特。输入比特串被影射成计算基失态|x1,.,|xn。激活前的加权输入信号 被编码在 ancilla 量子比特的振幅上。激活后的信号被编码在 output 量子比特的振幅上。输出量子比特要比非常接近|1,要么非常接近|0,取决于 /4 或者 /4 。(c)重量子人工智能技术白皮书 24 复直到成功线路(Repeat-until-success,RUS)。RUS 线路根据 的取值,产生非线性激活效应,
45、q()。值得注意的是,这里在ancilla 比特上使用旋转门Ry(2),通过控制 Y 门让 ancilla 比特和output 比特发生相互作用,测量 ancilla(如果没有测到|0,就重复之前的所有操作直到成功),便可以实现对输出比特的非线性激活。若测到|0,则输出比特最终的状态是 Ry(2q()|0。(d)非线性函数。q(x)=arctan(tan2 x),q2(x)=q(q(x)=arctan(tan4 x),qk(x)=arctan(tan2k x)。(e)和(c)等价,只是更加清晰。Ry(2)=cos|0+sin|1。人们可能会好奇,为什么图 8(b)中输出比特最终的状态是 Ry(
46、2qk()|0,这是因为可以递归调用RUS线路,产生多次激活,q()q(q().qk()。这样做的目的是增加非线性。本节介绍的基于 RUS 线路的量子神经元可以实现类似 sigmoid的激活函数qk(x),但是激活是非确定性,那么成功的概率是多少呢,或者说平均来讲要重复多少次该线路才能完成激活。相关研究给出了估计,如下。定理:假设有一个理想的激活函数g(x),如果x /4,g(x)=0,其他情况下,g(x)=/2 ;对于一个量子神经元来说,它的输入角度是,用k次迭代来实现激活函数qk,要求|qk()g()|,输出是Ry(2qk()|0,平均的运行时间为:O(n/)2.075(1/)3.15)其
47、中,n 是输入神经元的个数,是权重的精度。量子人工智能技术白皮书 25 (三三)参数化量子线路的神经网络参数化量子线路的神经网络 近年来,人工神经网络在各领域都得到了广泛应用,展现出了强大的能力。与此同时,量子计算技术也在迅猛发展,近期量子处理器已经具备较为稳定的计算能力,全球多家量子计算机公司也能提供各种各样的量子计算实验平台。在各方面技术的推动下,量子神经网络这一交叉领域又重新获取各界学者的关注。早期的量子神经网络大多基于量子计算的相关物理过程提出,没有对量子比特、量子线路等具体量子处理器结构进行描述,更没有统一的框架。近期的“量子神经网络”具有更宽泛的含义,多指代通过量子线路或者量子系统
48、实现的具有网络化结构、参数可训练的计算模型,因此参数化量子线路可以被视为机器学习模型。混合量子-经典系统能使现有的量子设备充分发挥作用,在这种混合框架下,本节围绕着 NISQ时代的量子线路模型展开,详细介绍参数化量子线路如何像人工神经网络一样学习。1.NISQ 时代的量子线路学习时代的量子线路学习 自从 HHL 算法给出了在量子计算机上实施基本矩阵运算的方法,很多基于量子计算机的机器学习算法被提出,如量子支持向量机、量子神经元等。这些基于 HHL 算法的核心是相位估计算法,而相位估计算法需要高深度量子线路,这在 NISQ 时代是比较困难的。混合量子-经典框架下的低深度量子线路模型使 NISQ
49、时代的量子设备能充分发挥作用,变分量子求解器(VQE)、量子近似优化算法(QAOA)等都是混合算法的代表,这些混合算法(混合量子-经典算法)的核心思想是将问题分成两部分,分别由经典计算机和量子人工智能技术白皮书 26 量子计算机处理。图 9 混合计算架构 图 9 展示了混合框架的学习方法。整体方法包含了三个部分:人类、经典计算机、量子计算机。人类理解问题、选择合适的模型、将信息“传达”进模型,经典计算机对数据进行预处理、并且选择参数化量子线路的参数集合,量子硬件准备量子态、实施量子态的演化以及测量。测量结果又被经典计算机处理,最终输出预测值。为了提升预测值的准确性,经典计算机通过一些优化算法来
50、进行模型中的参数更新。这一整个迭代过程是由经典计算机和量子计算机协同进行的,也就是“混合”的含义。其中基于量子线路的模型是近期量子神经网络算法的基本模块,可以通过调节线路中门的参数来调节门的操作。这里是一个简单参数化线路的例子,包含两个参数化的量子逻辑门操作。首先是一个单量子比特的旋转门操作,旋转角度是可变参数;然后是一个两量子比特的控制旋转门操作,旋转门的旋转角度也是可变参数。量子人工智能技术白皮书 27 2.量子线路的基本学习方法量子线路的基本学习方法 为了使混合算法适用于机器学习甚至深度学习,科学家们提出了一种通用的混合框架学习方法,这种方法为量子深度学习提供了重要指导。在监督学习中,有
51、输入为 xi ,对应的标签为 f(xi)。算法的输出为 yi=y(xi,),通过更新参数 使得输出 yi=y(xi,)与标签 f(xi)靠近。量子计算机来进行关于输出 yi=y(xi,)的计算,而经典计算机用来进行参数的更新。学习的目标是最小化代价函数,即通过调整 使标签与输出的距离最小。在无监督学习中,只有输入数据,没有标签,这时代价函数就不包含标签数据。这种量子线路学习方法(称之为 Quantum Circuit Learning,QCL)主要包含五个步骤:1)将输入数据 xi 进行数据的量子态编码,得到|in(xi);2)将变分量子线路 U()作用在编码量子态上,编码量子态进行演化后产生
52、输出量子态 U()|in(xi);3)对输出量子态 U()|in(xi)进行可观测量 O 期望值的测量,对测量结果进行某种变换 F(按需)得到输出 yi=y(xi,),其中 y(xi,)=F(O(xi);4)不 断 迭 代,更 新 参 数 以 最 小 化 代 价 函 数 L(f(xi),y(xi,);5)评估独立于训练数据集的测试数据集的代价函数。下面将对前四点进行讨论,第五点“训练-验证-测试”的思想与经典深度学习思想完全相同,不再讨论。量子人工智能技术白皮书 28 3.量子数据编码量子数据编码 数据表示是深度学习中很重要的部分,对于经典深度学习而言,问题的关键是如何将数据以数值形式表示从而
53、使用经典算法来解决问题。对于量子深度学习而言,问题的关键是如何将数据以适应量子系统的形式表示,从而用量子算法解决问题。这个过程被称为数据编码(也被称为数据嵌入,数据上传)、量子态编码。这部分对于量子算法来说至关重要,因为它直接影响到计算能力。假设有一个包含有 M 个样本的经典数据集 X ,且每个样本包含 N 个特征:X=x1,xm,xM 其中 m=1,M ,xm 是N维向量。数据编码的目的是将这组数据转化成在量子系统中的表示,接下来将介绍三种常见方式。1)基态编码基态编码 基态编码是一种非常直观的编码方式,简单来讲,它把一个长度为 N 的二进制字符串转化为一个有 N 个量子比特的量子态。例如,
54、x=8,它的二进制表示为1000 ,那么它的基态编码为|1000 。一般地,对于一个N比特的字符串x=(x1,x2,xN),则对应的 N 量子比特的量子态为|x=|x1,x2,xN ,其中 xn 0,1,n=1,N。对于上述所示数据集 X,当每一个样本是一个 N 比特字符串时:xm=(x1,x2,xN),xn 0,1,n=1,N ,可以使用基态编码,编码为量子态|xm=|x1,x2,xN。将整个数据集 X 进行基态编码有如下表示:量子人工智能技术白皮书 29|X=1M Mm=1|xm 2)振幅编码振幅编码 振幅编码将数据编码到量子态的振幅中,它将一个 N 维的数据 x 进行归一化,编码到量子态
55、|的振幅中:|x=Ni=1xi|i 其中 N=2n,xi 是归一化后的 x 的第 i 个元素,|i 是第 i 个计算基。对于上述所示数据集 X,可以将所有的 M 个 N 维样本拼接到一个向量中:=(x1,xm,xM)其中 xm=(x1m,xnm,xNm),那么振幅向量为:l2norm=1 2 因此将数据集 X 进行振幅编码有如下表示:|X=MNi=1i|i 其中 i 是振幅向量中的元素,|i 是计算基。n 个量子比特的系统可以编码 2n 个振幅,也就是说,编码 M N 个数字需要 n log2(MN)个量子比特。举一个具体的例子:假设将数据集 X=x1=(1,2),x2=(0,3)进行振幅编码
56、,经过拼接以及归一化后得到振幅向量:量子人工智能技术白皮书 30 l2norm=114(1,2,0,3)那么编码后的量子态为:|X=114(|00+2|01+3|11)3)角度编码角度编码 角度编码将数据的 N 个特征编码到 n 个量子比特的 N 个参数化量子门的旋转角中,N n,例如将 x=(x1,xN)进行角度编码:|x=i=1Ncos(xi)|0+sin(xi)|1 这里可以将角度编码具体到某个量子门来实现(这里用 Ry 门举例),首先回顾一下 Ry 门的矩阵表达式:Ry()=exp(i2Y)=cos(/2)sin(/2)sin(/2)cos(/2)那么将 x=(x1,xN)通过 Ry
57、门进行角度编码后有:|x=i=1NRy(xi)|0 上述表达式可以这样理解,将 N 个初始量子比特设置为|0 ,每一个量子比特经过相应的旋转门 Ry(xi)作用后,得到的系统的态即为角度编码后的态|x。考 虑 数 据 集 X=x1=(1,2,5,6),x2=(0,3,3,1),x3=(1,1,2,3),对它进行角度编码,每个样本可以使用四个量子比特来进行角度编码。注意:这里 encode 只能针对一条一维的数据,如果要进行 batch 运算,则可以用 for 循环等方法。4.变分量子线路变分量子线路 量子人工智能技术白皮书 31 混合量子-经典算法就是用经典优化器来训练包含量子线路的模型,熟知
58、的混合算法有 Variational Quantum Eigensolver(VQE),Quantum reservoir computing(QRC)等,它们与本章讲述的近期通用量子线路学习(QCL)有着一定区别。QRC 和 QCL 的输出可以定义为 y(xi)=wO ,w 为权重向量。变分量子本征求解器(VQE)的任务是通过调节线路的参数 直接最小化量子线路的输出,即最小化 wfixedO()。量子储备池计算(QRC)的任务是通过调节线性权重 w 最小化输出与标签的“距离”,即最小化 f(x)wO(x)。量子线路学习(QCL)的任务是通过调节线路的参数 最小化输出与标签的某种代价函数,即最
59、小化 L(f(x),wO(x,)。三者示意图如图 10 所示。图 10 变分量子线路 变分量子算法就是用经典优化器来训练参数化的量子线路。对于经典深度学习算法,模型通常是一个在经典计算机上运行的神经网络;对于变分量子算法,模型是一个在量子计算机(或模拟器)上运行的参数化量子线路。变分量子算法中的参数可优化的量子线量子人工智能技术白皮书 32 路,也称作变分量子线路。变分量子线路和经典神经网络都可以被看作是由可调参数控制的连接的计算单元层,这也是现在广泛地将变分量子线路称为“量子神经网络”的重要原因。这里有一个简单的例子:对数据 x1=(1,2,5,6)使用两个量子比特进行角度编码(如上一个代码
60、块所示),然后使之通过量子变分线路。运行以下代码,从输出的图片看出,前面参数固定的线路为编码线路,后面参数随机的线路为变分线路。数据通过量子编码表示成量子态矢量后,输入到变分量子线路(酉矩阵)中进行变化,这一过程为量子态的演化,数学过程即为简单的矩阵乘法。不可避免地,变分量子线路面临着一些挑战,比如非线性的实现、梯度计算等等。非线性激活函数是神经网络成功的关键因素,但是量子线路中门的操作是酉变换,是线性的。因此,如何在量子线路中实现高效且可靠的非线性操作仍然是一个活跃的研究领域,需要进一步的研究和创新。注意,前面提到的角度编码也是引入了非线性。在量子设备上,计算过程中无法获取中间某点的量子态。
61、虽然可以通过测量辅助量子比特来提取有限信息,但任何试图观测系统状态的尝试都会破坏其量子特性。因此,很难在量子设备上实现一种真正类似于反向传播的线路学习算法,因为它依赖计算过程中存储的网络中间状态。5.参数化量子线路的输出参数化量子线路的输出 量子人工智能技术白皮书 33 数据依次经过编码线路、变分线路后,通常伴随着量子测量。通过对指定量子比特进行多次量子测量,得到经典数据,此数据可看作线路的输出并可以继续传递到后面的网络进行下一次运算。例如,在全量子(没有任何经典神经网络拼接,称之为混合算法中的全量子模型)的量子分类器中,量子线路的输出即为预测值,用来与真实标签计算损失函数;在混合模型中(与全
62、量子模型相对应,混合算法中的混合模型是指模型中既有量子神经网络又有经典神经网络,称为混合量子-经典模型),量子线路的输出可以送入下一级经典神经网络中继续参与计算。量子线路的输出通常为测量的期望值。这是因为每次测量可能会得到不同的结果,需要用一个统计学量去表示大量的测量结果,这个统计学量就是期望。期望是多次重复测量得到的理论平均值。相关内容可回顾第二章内容。期望值作为经典数据可以被经典计算机处理。在进行量子测量时,观测量的选择影响着测量结果。在实践中,一般选择 pauli-Z 算子作为观测量。那么自然地,可以继续在上述所示变分线路的最后进行量子测量。6.参数化量子线路的梯度参数化量子线路的梯度
63、在经典深度学习中,梯度下降是常用的优化策略。在量子深度学习中,为了发挥基于梯度下降的优化策略的潜力,获取量子计算的梯度是至关重要的,尽管有基于非梯度的方法被提出,如 Nelder-Mead方法、COBYLA方法等,但为了保证收敛性和当今机器学习软件工具的可用性,基于梯度的方法受到更广泛的关注。传统的计算梯度的常见方法包括有限差分法、自动微分法等。但这些方法并不适用于近期 QCL 的学习:一是由于在 NISQ 时代,量子人工智能技术白皮书 34 有限差分法有着很高的错误;二是自动微分法(基于链式法则原理)是现在的神经网络最常用高效的准确计算方法,这种方法需要储存和重新使用中间导数。但是量子线路中
64、的中间量子态是不能被测量的,测量会破坏整体计算(测量通常是最后进行的,得到输出),所以自动微分法并不适用于量子线路的梯度计算。这里要强调一点,自动微分法仍然可以在更大的框架下使用。由于传统梯度计算的局限性,参数位移法和其衍生方法被提出,成为近期计算量子线路梯度的代表方法。参数位移法,即通过运行两次结构相同但是参数不同的线路得到期望值来计算梯度的方法。下图为混合算法中使用参数位移法计算梯度的过程。图 11 参数位移法 参数位移法提供了一种在近期量子设备上可操作的计算梯度的简单方法,并在量子机器学习中发挥重要作用。参数位移法的规则如下:ddf()=rf(+4r)f(4r)其中 为对应量子门的参数,
65、f()为参数为 时线路的输量子人工智能技术白皮书 35 出期望值,+4r 和 4r 为两次位移后的参数,r 为对应量子门生成元的特征值之差的一半。等式左侧即为线路输出对于选定量子门参数的导数(即梯度),从等式右侧可以看出,只要确定了量子门,这个梯度就可以解析地计算出来。这里提到的参数位移法则是有一定的使用条件的,量子门的生成元只有两个不同的特征值,任何其他情况此法则都不适用。为了将基于参数位移思想的梯度计算方法拓展到更广泛更通用的情况,不再局限于上述条件,多种多样的有趣方法被提出,比如基于门分解的方法和引入辅助量子比特的方法等,这些方法各有巧思,但都有着一定的局限性,至今量子线路的梯度计算方法
66、仍然有着巨大的探索空间。(四四)量子卷积神经网络量子卷积神经网络 1.混合量子经典模型混合量子经典模型 混合量子-经典系统能使现有的量子设备充分发挥作用。因此本节将围绕如何构建混合量子-经典卷积神经网络,混合量子-经典卷积神经网络的种类,然后介绍基于量子模拟的模型架构与实验效果,以及2023年最新的一些混合量子-经典卷积模型的应用介绍,模型架构进展介绍。此处介绍的混合量子-经典卷积神经网络与经典卷积神经网络(CNN)的区别在于,混合量子-经典卷积神经网络将经典 CNN 中的某一层经典卷积或者全部经典卷积替换为量子卷积,经典 CNN 的激活函数、损失函数、优化器都是经典算法。同时设计量子卷积时需
67、要遵守一些经典卷积应该有的属性,如量子卷积需要根据上下层量子人工智能技术白皮书 36 网络的输入维度和输出维度进行特征提取,量子卷积层可以堆叠在任意层之上,量子卷积层数量以及里面的参数都可操控,量子卷积层的梯度可计算、可更新。结合参数化量子线路,结果发现可以用来设计量子卷积。目前已有的混合量子-经典卷积模型中的量子卷积有两种:随机量子线路和参数化量子线路。1)基于随机量子线路的混合模型架构基于随机量子线路的混合模型架构 随机量子线路其基本思想是随机生成包含不同量子逻辑门的线路结构,一般包括以下几个步骤:(1)确定量子线路包含的量子比特数量,即确定希尔伯特空间的维数。(2)从预定义的量子逻辑门集
68、中随机选择一系列量子逻辑门,通常包括阿达玛门、CNOT 门等单量子比特逻辑门和双量子比特逻辑门。(3)随机确定这些量子逻辑门之间的连接方式,即确定每个门作用的量子比特。门的作用顺序也是随机生成的。对于参数化门,如旋转门,随机生成门参数,如旋转角度。重复上述步骤,生成长度为 L 的随机量子线路。经过上述步骤,可以得到一个随机的、难以在经典计算机上进行精确模拟的量子线路。随机量子线路可以创建高维度的量子叠加态,显示出强烈的量子特性。它们在量子模拟、量子机器学习等领域有重要应用。下面介绍一种使用随机参数化量子线路替代经典卷积的混合模型架构,也是混合量子-卷积神经网络模型的开山之作,该工作使用量子人工
69、智能技术白皮书 37 图像基准数据集 MNIST,基于 QxBranch 量子计算机模拟系统。混合模型架构如下图所示:图 12 混合量子卷积神经网络 图 12(A)首先使用 x 个 n*n 个 qubits 的量子线路替代经典 x 个n*n 的卷积核进行卷积操作输出 x 个 feature map,并对 x 个 feature map 进行池化,然后经过 y 个经典卷积核操作后再池化,最后经过 2个全连接层输出;图 12(B)首先对原始中 n*n 的 2 维数据展开成一个一维长度为 n*n 的向量,利用角度编码方法将这个向量编码到 n*n 个 qubits 的量子线路上,然后经过图中随机参数化
70、量子线路结构的操作后,分别对每一个 qubit 进行测量,输出对应原始数据 n*n 位置的 feature map 值,直到量子卷积扫描完整个原始数据。上图中Random quantum circuit 部分,设计的量子线路结构示意图如下:量子人工智能技术白皮书 38 图 13 随机量子线路 该工作对比的经典 CNN 模型架构是:CONV1-POOL1-CONV2-POOL2-FC1-FC2,混合模型将 CONV1 替换为 Quanv1,其余部分与经典 CNN 模型保持一致。在原论文的实验结果中表明 Quanv1 中随着量子卷积个数的增加,预测准确率逐渐增加,且量子卷积个数从1增加到 5 时,
71、预测准确率急剧增加,但是从 25 增加到 50 时,预测准确率似乎呈现出一种饱和的效应:图 14 模型准确率随卷积层数的变化 2)基于参数化量子线路的混合模型架构基于参数化量子线路的混合模型架构 结构式参数化量子线路替代经典卷积的混合模型架构研究工作量子人工智能技术白皮书 39 较多,此处选择部分文献中对结构式参数化量子线路做讲解。文献不仅提出了一个新的混合模型架构,还提出了一个自动计算混合量子-经典损失函数的梯度框架。该工作使用图俄罗斯方块数据集,展示了该混合模型在分类问题中的良好的效果。混合模型架构如下图所示:图 15 另一种混合量子卷积神经网络 2.全量子模型全量子模型 全量子卷积神经网
72、络(Quantum Convolutional Neural Networks,QCNN)是近年来提出的一种量子机器学习模型。QCNN 参考了经典卷积神经网络的思想,使用对数数量级的参数来处理指数数量级的输入量子态。早期的 QCNN 设计中,利用了多尺度纠缠重整化(Multi-scale Entanglement Renormalization Ansatz,MERA)方法和量子纠错技术。量子人工智能技术白皮书 40 这使得 QCNN 的参数量只有对数级别,因此模型可以高效训练和实现。QCNN可以看作是MERA的逆过程,输入量子态经过层层的“去纠缠”线路,最终到达简单的末态。池化层中加入了量子
73、纠错功能,使 QCNN 对局部扰动具有鲁棒性。后续的其它工作在此基础上对QCNN 的结构进行不同的设计,使用不同的量子门,引入不同非线性等。图 16 全量子卷积神经网络 理论分析表明,QCNN 不存在贫瘠高原问题,参数梯度不会随系统大小指数衰减,因此是可以有效训练的。目前 QCNN 已被成功应用于量子相位识别、量子纠错编码优化等问题。随着量子计算设备的发展,QCNN 有望成为量子机器学习一个有价值的方向。量子人工智能技术白皮书 41 1)QCNN 与与 CNN 的联系的联系 图 17 卷积核 卷积神经网络(CNN)通过卷积和池化操作提取输入数据的多尺度特征表示,实现了出色的图像和语音识别效果。
74、卷积层通过应用卷积核于输入特征图,执行局部区域的加权求和运算以提取空间信息,具有平移不变性;池化层可以有效减少特征图尺寸的大小,进而减少计算量,同时引入非线性提高了模型的表达能力。经过多层卷积和池化,CNN 形成层次化的特征提取和表达。量子卷积神经网络(QCNN)从 CNN 获得启发,使用类似的网络结构处理输入的量子态。QCNN 的卷积层以平移不变的方式在有限深度内应用单一的准局部酉算子(Quasi-local Unitary);池化层则通过对部分量子位特进行测量,并将测量结果应用于附近的量子位的酉旋转,实现了系统的压缩同时也引入了非线性。QCNN 的参数量只有经典卷积的对数级别,实现了指数级
75、量子态的高效处理。QCNN 与量子纠错码和张量网络等理论相关,可应用于量子相识别等任务。量子人工智能技术白皮书 42 2)QCNN 与与 MERA 的联系的联系 图 18 QCNN 与 MERA 的联系 在上面提到过,QCNN 的结构与 MERA 张量网络有着紧密的联系,下面将具体介绍它们之间的关系以及 MERA 张量网络的基本介绍。MERA(多尺度纠缠重整化线路)是一种张量网络结构,可以高效地表示某些量子多体系统的波函数。MERA 的基本思想是,先从简单的非纠缠态开始,然后通过引入不同尺度的等距层(Isometry Layers)和酉层(Unitary Layers)逐步生成目标复杂的量子波
76、函数。酉层在现有自由度间施加准局部的酉变换,起到重整化的作用。等距层则引入新的自由度,通常初始化为简单的非纠缠态。MERA 的这种层级结构使它可以用对数级的计算复杂度来表示指数级自由度的量子系统。此外,MERA 还可以直观地反映出量子系统的多尺度量子人工智能技术白皮书 43 结构和长程相关性质。它非常适合表示量子临界态,并可以计算相关函数等物理量。QCNN 的线路结构与 MERA 非常相似,都是以一种层级结构的方式对输入量子态进行操作。二者主要区别在于,MERA 由低层向高层生成目标波函数,而 QCNN 则从高层输入量子态开始,逐步处理到输出层。因此,对于一个可由 MERA 表示的目标波函数,
77、总存在一个对应 QCNN 线路,该线路就是 MERA 的逆过程。这为 QCNN 线路的设计提供了重要启发。与 MERA 不同,QCNN 在每一层还增加了量子纠错的机制。在 QCNN 的池化层中,会通过测量识别出输入态与目标波函数的偏差,然后引入酉变换对余下的量子比特进行“错误修正”。这使得 QCNN 不仅能够表示目标波函数,也能够处理偏离目标波函数的输入量子态。QCNN 线路结合了 MERA 的层级结构和量子误差校正的能力,因此功能更为强大,可以用于量子态分类、编码等任务。3)全量子卷积线路结构全量子卷积线路结构 上文中,重点介绍了 QCNN 的由来和它的一些重要性质,接下来将着重具体介绍如何
78、构建一个量子化的卷积层和池化层,并分析其和经典卷积与池化之间的区别和联系。卷积层是量子卷积神经网络(QCNN)的核心组成部分,其结构受经典卷积神经网络的启发。QCNN 中的卷积层由参数化的量子线路模块组成,这些模块以平移不变的方式作用在相邻的量子比特对上,起到特征提取的作用。具体来说,卷积层中的每个量子线路模块含有一系列旋转门和控制门,模块内门的参数通过训练进行优化。在同一卷积层中,这些量子线路模块完全相同,即具有平移不变性,量子人工智能技术白皮书 44 如图 19 中的每个 U1,其都具有相同的线路结构和参数。卷积层提取输入量子态的局部特征,然后通过后续的池化层减小量子系统的大小。在量子卷积
79、神经网络(QCNN)中,卷积层的参数数量与系统规模无关,这大幅减少了需要进行优化的参数量。此外,卷积层可看作在输入量子态的相邻区块间建立量子纠缠,从而产生全局的特征表示。下图展示了不同线路设计下的 QCNN 卷积层:图 19 不同的 QCNN 卷积层 量子卷积层与经典卷积层的联系:(1)都具备平移不变性。即输入发生平移,输出保持不变。这使得二者都可以提取输入的平移不变特征。(2)都以局部操作的方式对输入进行变换,实现对输入的特征提取。量子卷积层在相邻量子比特对上作用参数化门线路,经典卷积层用卷积核在输入特征图的局部区域内作卷积。量子人工智能技术白皮书 45 (3)参数量与系统大小无关。二者的层
80、内参数量都是常数级的,与输入量子态、特征图的大小无关。这使得参数量容易优化。量子卷积层与经典卷积层的区别:(1)量子卷积层可生成任意的酉变换,而经典卷积核只能实现线性变换。量子卷积层的表达能力更强。(2)量子卷积层通过量子纠缠可建立全局的特征关联,而经典卷积核只能提取局部特征。(3)量子卷积层作用于全部输入量子比特,可利用量子纠缠实现非局部操作。经典卷积核的感受野是局部的。综上,量子卷积层吸收了经典卷积层的一些重要概念,如平移不变性、局部操作等,但更强大,可建立非局部纠缠,引入量子全局特征。这也是其在一些量子学习任务上的优势所在。图 20 经典池化线路 量子人工智能技术白皮书 46 图 21
81、量子池化线路 量子卷积神经网络(QCNN)中的池化层主要作用是压缩系统的大小,并尽量保留前层特征信息,这可以减少后续线路的复杂度和参数量。除了前文中提到的通过测量的方式实现池化层之外,也有文献提出了其它方法实现池化层,这里总结如下:测量操作:通过对部分量子比特进行测量来实现系统的压缩。这种方法可以引入非线性,并从量子纠错的视角进行优化设计,适合 NISQ 设备。但是需要多次测量以获取输出统计量。偏迹压缩:通过偏迹运算,从一个多量子比特系统中提取出部分量子比特的信息,将量子状态降维到一个更小的 Hilbert 空间。这种方法在保留某些局部量子信息的同时,会失去一部分全局信息。这个操作在实际的量子
82、计算实现中可能具有挑战性。量子态丢弃:首先在两个或更多的量子比特之间施加通用的双量子比特酉算子以实现纠缠。然后,从每对量子比特中选择一个进行忽略,使其在后续的量子线路中不再接受任何操作,包括测量。这种操作等效于从 Hilbert 空间中丢弃了这些量子比特。这种方法在实现上相对灵活,并能通过纠缠操作尽量保留重要的量子信息。总之,量子池化层的目的是对量子线路进行压缩以减小参数量,量子人工智能技术白皮书 47 不同实现方式在保留信息量、实现难度、训练方法上各有取舍。当前更多研究侧重于简单的测量或丢弃操作,这可能是更实际的选择。随着量子硬件的发展,期待看到更复杂和智能的量子池化层的设计。量子池化层和经
83、典池化层之间的联系:(1)都能实现降维,提炼重要特征。量子池化层通过对部分量子比特进行操作并可能进行测量来实现压缩,而经典池化层通过下采样或其他统计方法来合并特征,从而实现压缩。(2)参数的影响是有限的。在特定的量子池化层实现中,如使用非参数化的量子门,参数数量与系统大小无关。对于经典池化(如最大池化或平均池化),通常没有需要学习的参数。量子池化层和经典池化层之间的区别:(1)引入非线性的方式不同。量子池化层通过量子门和量子测量来引入量子非线性,而经典池化层,尤其是最大池化,也是非线性的,但这种非线性是通过取最大值或平均值等统计操作来实现的。(2)对特征的处理不同。量子池化层除了进行压缩外,还
84、可能通过参数化的量子门来旋转余下的量子比特,以进一步处理特征;而经典池化层通常仅通过合并特征来进行简化,进一步的特征处理通常由后续的层完成。(3)感受野的不同。量子池化层的操作受到量子纠缠的影响,因此作用于更广泛的输入量子比特;而经典池化层通常只在局部区域内进行特征合并,尽管通过串联多个池化层可以逐步扩大其感受野。综上,量子池化层在实现类似的降维功能时,具有量子非线性、信息保留及参数优化训练等特性,这可能使其优于经典池化层。量子人工智能技术白皮书 48 总体而言,量子卷积神经网络(QCNN)是一种受经典卷积神经网络启发的高效可训练的量子神经网络架构。它采用类似 CNN 的层次结构,可以利用量子
85、效应求解某些经典方法难以解决的量子机器学习问题。QCNN 的参数数量仅与系统中的量子比特数的对数相关,使其可在NISQ设备上实现。它的浅层结构避免了深层量子神经网络训练困难的贫瘠高原(Barren Plateau)问题。QCNN 具有广阔的应用前景,可以扩展到多分类任务,与经典神经网络混合使用等。QCNN 通过特征提取与量子纠缠,展现出量子计算的优势。(五五)量子循环神经网络量子循环神经网络 1.混合量子经典循环神经网络混合量子经典循环神经网络 1)搭建量子搭建量子 RNN 网络网络 首先将介绍如何构建混合量子经典循环神经网络(Quantum Recurrent Neural Network,
86、QRNN),并通过数值试验展示其效果。混合量子经典循环神经网络是经典循环神经网络(Recurrent Neural Network,RNN)的量子版本,主要区别在于混合量子经典循环神经网络使用变分量子线路(Variational Quantum Circuit,VQC)替换了RNN 单元中的全连接层,同时保留了单元里原有的计算逻辑。在学习搭建量子 RNN 模型之前,首先需要了解其中最重要的一个模块变分量子线路(Variational Quantum Circuit,VQC)。变分量子线路(VQC),也被称为参数化量子线路(Parameterized Quantum Circuit,PQC)。一
87、个通用的 VQC,一般由三个部分组成:状态制备、变分量子线路和测量。下图中 U(x)表示状态制备线路,它的作用是将经典数据 x 编码为量子态。V()表示具有可调节参数 量子人工智能技术白皮书 49 的变分线路,可以通过梯度下降的方法进行优化。最后通过测量量子态,得到经典的输出值。图 22 变分量子线路(VQC)的通用架构 U(x)是将经典输入数据 x 编码为量子态的量子线路,V()是具有可调节或可学习参数 的变分线路。线路最后是对部分或全部量子比特的测量。一个用于 QRNN、QLSTM 和 QGRU 的 VQC 模块,包括以下三个部分:编码线路、变分线路和量子测量。2)编码线路编码线路 搭建神
88、经网络后,编码线路将经典数据值映射为量子振幅。量子线路先进行基态初始化,然后利用 Hadamard 门来制备无偏初始态。使用双角编码(two-angle encoding),用两个角度编码一个值,将每个数据值分别用两个量子门(Ry 和 Rz)进行编码。两个量子门的旋转角度分别为:f(xi)=arctan(xi)和 g(xi)=arctan(xi2),其中 xi是数据向量x的一个分量。编码数据的量子态为:|x=Ni=1cos(f(xi)+/4)|0+exp(ig(xi)sin(f(xi)+/4)|1 其中 N 是向量 x的维数,/4 的角偏移是因为初始的 Hadamard门旋转。量子人工智能技术
89、白皮书 50 3)变分线路变分线路 变分量子线路由几个 CNOT 门和单量子比特旋转门组成。CNOT门以循环的方式作用于每一对位置距离1和2 的量子比特,用于产生纠缠量子比特。可学习参数,和 控制单量子比特旋转门,它们可以基于梯度下降算法进行迭代优化更新。该变分量子线路模块可以重复多次,以增加变分参数的数量。4)量子测量量子测量 VQC 块的末端是一个量子测量层,通过测量来计算每个量子态的期望值。在量子模拟软件中,可以在经典计算机上进行数值计算,而在真实的量子计算机中,这些数值是通过重复测量进行统计估计得到的。5)量子量子 RNN 模型模型 量子 RNN 模型是重要模型之一。在讲解量子 RNN
90、 模型前,先简单回顾一下经典 RNN 模型的原理和结构。使用数学公式描述经典RNN 模型的计算单元:ht=tanh(xtWihT+bih+ht1WhhT+bhh)其中 Wih是作用在 xt上的隐藏层权重参数,bih是对应的隐藏层偏差参数,Whh是作用在ht1上的隐藏层权重参数,bhh是对应的隐藏层偏差参数,这里使用 tanh 函数作为激活函数。量子 RNN 模型(QRNN)是经典 RNN 模型的量子版本。主要区别在于经典神经网络被VQC取代,使用数学公式描述QRNN模型的计算单元 ht=tanh(VQC(vt)量子人工智能技术白皮书 51 yt=NN(ht)其中输入 vt是前一个时间步长的隐藏
91、状态 ht1与当前输入向量 xt的级联,NN是经典神经网络层。6)量子量子 LSTM 模型模型 量子 LSTM 模型是另一种重要模型。在讲解 QLSTM 模型前,回顾一下经典 LSTM 模型的原理和结构。经典 LSTM 模型类似 RNN,使用数学公式描述 LSTM 的计算单元:it=(Wiixt+bii+Whiht1+bhi)ft=(Wifxt+bif+Whfht1+bhf)gt=tanh(Wigxt+big+Whght1+bhg)ot=(Wioxt+bio+Whoht1+bho)ct=ft ct1+it gt ht=ot tanh(ct)其中 Wii,Whi,Wif,Whf,Wig,Whg,
92、Wio,Who是权重参数,bii,bhi,bif,bhf,big,bhg,bio,bho是偏差参数,it是输入门,ft是遗忘门,gt是候选记忆细胞,ot是输出门,ct是记忆细胞。量子 LSTM 模型(Quantum Long-Short Memory,QLSTM)是QRNN 的改进版本。QLSTM 中有两个部分,即隐藏状态ht和内部状态ct。使用数学公式描述 QLSTM 模型的计算单元:ft=(VQC1(vt)it=(VQC2(vt)gt=tanh(VQC3(vt)ct=ft ct1+it gt ot=(VQC4(vt)量子人工智能技术白皮书 52 ht=VQC5(ot tanh(ct)y t
93、=VQC6(ot tanh(ct)yt=NN(y t)其中输入 vt是前一个时间步长的隐藏状态ht1与当前输入向量xt的级联,it是输入门,ft是遗忘门,gt是候选记忆细胞,ot是输出门,ct是记忆细胞,NN是经典神经网络层。7)量子量子 GRU 模型模型 量子GRU模型也是重要模型之一。在讲解QGRU模型前,先简单回顾一下经典 GRU 模型的原理和结构。经典 GRU 模型类似 RNN,使用数学公式描述 GRU 的计算单元:rt=(Wirxt+bir+Whrh(t1)+bhr)zt=(Wizxt+biz+Whzh(t1)+bhz)nt=tanh(Winxt+bin+rt(Whnh(t1)+bh
94、n)ht=(1 zt)nt+zt h(t1)其中 Wir,Whr,Wiz,Whz,Win,Whn是权重参数,bir,bhr,biz,bhz,bin,bhn是偏差参数,rt是重置门,zt是更新门,nt是候选隐藏状态。量子 GRU 模型(Quantum Gated Recurrent Unit,QGRU)是一种类似于 QLSTM 门控机制的 QRNN。与 QLSTM 相比,QGRU 的参数更少,体系结构更简单。使用数学公式描述 QGRU 模型的计算单元:rt=(VQC1(vt)zt=(VQC2(vt)ot=cat(xt,rt Ht1)量子人工智能技术白皮书 53 nt=tanh(VQC3(ot)h
95、t=(1 zt)nt+zt ht1 yt=NN(ht)其中输入 vt是前一个时间步长的隐藏状态ht1与当前输入向量xt的级联,rt是重置门,zt是更新门,nt是候选隐藏状态,NN是经典神经网络层。8)基于基于 QRNN 的储备池计算的储备池计算 本部分将介绍如何构建基于 QRNN 的储备池计算(QRNN-Based Reservoir Computing,QRNN-RC),并展示 QRNN-RC 模型的代码实现和实验测试的结果。在介绍 QRNN-RC 之前,需要先了解什么是储备池计算(Reservoir Computing)。在用梯度反向传播训练RNN网络的过程中,可能会出现一些问题,如梯度消
96、失和梯度爆炸,这可能会使训练无法收敛。即使训练收敛了,收敛的计算成本也很高,速度也很慢。为了解决这些问题,储备池计算(Reservoir Computing)出现了。储备池计算(Reservoir Computing)是将大型的、非线性的、随机连接的固定循环网络与具有可训练参数的线性输出层分离的网络结构,一个 Reservoir Computing 由三个部分组成:输入层,中间层和输出层,Reservoir computing 中间层的矩阵是随机生成的且生成后就保持不变,真正需要训练的只有输出层,这也使它的迭代速度比传统的方法快很多。如图所示,Reservoir Computing 可以用数学
97、公式描述:xk=f(Winsk+Wxk1)yk=Woutxkout 量子人工智能技术白皮书 54 其中 sk和xk分别是输入信号和储层状态。W、Win、Wout分别对应储层内部权值、输入节点与储层节点之间的权值、储层节点与输出节点之间的权值。只有Wout需要训练,其他权值随机初始化。图 23 储备池计算结构图 基于 QRNN 的储备池计算(QRNN-RC),简单来说,就是在训练过程中不训练更新 QRNN 中的权重,只训练最后输出的层的参数。2.全量子循环神经网络全量子循环神经网络 在本节中将介绍全量子循环神经网络的原理以及如何构建全量子循环神经网络。全量子循环神经网络(Quantum Recu
98、rrent Neural Network,QRNN)是一类只使用参数化量子线路进行训练的神经网络类型,它有许多不同的网络模型变体,接下来,将介绍现阶段的一些全量子循环神经网络。在对比中,可以发现这些网络结构的一些共性。最后,还将重点介绍两种可以在光学设备上实现的全量子循环神经网络。第一种较早提出的全量子循环神经网络,主要将量子线路分为两个部分。第一个部分是输入和输出线路,这一部分的量子线路用量子人工智能技术白皮书 55 于编码输入时间步的数据,并输出当前时间步的结果。第二个部分是存储信息线路,这一部分的量子线路用于存储历史信息。QRNN的每一个时间步由编码、演化和测量三部分组成,输入和输出线路
99、完成编码后,将通过一个参数化的酉线路 U()与存储信息线路发生相互作用,并将存储信息线路的信息传递到输入和输出线路之中,完成演化操作后,再测量输入和输出线路得到当前时间步的预测结果。重新初始化输入和输出线路,开始下一个时间步。存储信息线路在整个算法中从未被测量过,因此它们保留了过去的信息。训练网络时,只需要利用梯度下降法,训练酉线路 U()中的值即可。图 24 全量子循环神经网络 第二种网络是一种更一般的全量子循环神经网络,对应有前馈QNN 的记忆信息的迭代、每个时间步的输入、每个时间步的输出。这种方案可以较为自由的设置量子比特的个数和网络的连接结构。第三种网络是交错全量子循环神经网络(sta
100、ggered Quantum Recurrent Neural Network,sQRNN),这是第一种 QRNN 的网络模量子人工智能技术白皮书 56 型变体,是一种交错的 QRNN 结构。如图所示,交错全量子循环神经网络结构与第一种全量子循环神经网络结构较为类似,也是由两个部分的量子线路组成,一部分是输入和输出线路,用于编码输入时间步的数据,并输出当前时间步的结果。另一部分是存储信息线路,用于存储历史信息。不同的地方在于,sQRNN 通过交错的方式堆叠量子循环块(Quantum Recurrent Blocks,QRB),这种方法可以大大降低算法对量子器件相干时间的要求。原先的网络结构分配
101、给输入输出线路和存储信息线路的量子比特是固定的,也就是说,在实现这种网络结构时,存储信息线路的量子比特需要一直工作。因此,原先的网络结构要求量子器件具有较长的相干时间,而相干时间是量子比特的核心指标之一,很难大幅度提高。而在 sQNN 网络模型中 QRB 以交错方式排列,量子比特依次分配给存储信息线路,这使得每个量子比特都可以在几个时间步骤后重新初始化为|0态。sQRNN 通过采用这种轮班工作策略,大大降低了量子硬件的相干时间要求,更易于在现有的量子设备上使用。图 25 交错全量子循环神经网络 第四种网络是量子离散映射循环神经网络(Quantum-Discrete-Mapbased Recur
102、rent Neural Network,QDM-RNN,它也是第一种QRNN 的网络模型变体。QDM-RNN 同样由输入输出线路和存储信量子人工智能技术白皮书 57 息线路组成,但不同的是,当每一时间步经过编码层线路和参数化酉算子 U()演化后,会再用不同的可观测集合Om和Ox分别测量输入输出线路和存储信息线路,以获得经典信息,再在下一时间步将测得的存储信息输入存储信息线路。这一设计使得 QDM-RNN 的线路深度不会随着时间序列的长度而增加,从而可以避免量子线路过深的问题,大大降低算法对量子器件相干时间的要求,这使得它更容易在现有的量子器件上实现。图 26 量子离散映射的通用架构 在这里,还
103、将介绍两种可以在量子光子硬件上实现的全量子循环神经网络。1)连续变量量子循环神经网络(连续变量量子循环神经网络(Continuous-Variable Quantum RNN,CV-QRNN)通用 CV 量子计算需要一组单量子模门和一个受控的双量子模门,它们可以生成所有可能的高斯运算和单量子模非线性变换。在光量子线路中,量子模态是通过在电磁场中携带编码信息的光子模态来实现的。所有高斯门都可以由简单的线性设备(如分束器、相移器和压缩器)构建。非线性通常通过交叉 Kerr 相互作用实现,也可以通过测量实现。CV-QRNN 的实现将涉及位移门:D():=expa a 量子人工智能技术白皮书 58 其
104、中 是一个复位移参数,a(a)分别是一个湮灭(产生)算子。压缩门:S(r):=expr2(a 2+a 2)其中 r 是一个复压缩参数。相位门 R():=expia a 其中 (0,2)。分束门:B():=exp(a b a b)其中 (0,/2),a 和b(a 和b)分别是两个相互作用量子比特的湮灭(产生)算符。用 I(,)表示任意多端口干涉仪,它可以由上述门组成。CV-QRNN 的结构表明,首先制备量子线路的初始态|0n,单量子层 L通过位移门 D(x)将经典数据 x编码到量子网络中,然后所有 n=n1+n2个量子线路在多端口干涉仪I(1,1)后接压缩门S(r1,2),之后接另一个干涉仪I(
105、2,2)和位移门D(1,2)。最后对n2个量子线路进行测量并重置为初始态,同时将n1个量子线路传递到下一次迭代的输入之中。整个网络中=1,1,r1,r2,2,2,1,2,表示所有可训练参数。CV-QRNN 架构可以用现有的量子光学硬件实现,其中产生相干的光源和基本元件(分束器、相移器和压缩器),已经在光子芯片中得以实现,这些硬件可以在室温下工作,其特点是损耗非常低,故而该方案值得进一步关注。量子人工智能技术白皮书 59 图 27 连续变量 QRNN 2)量子光循环神经网络(量子光循环神经网络(Quantum Optical Recurrent Neural Network,QORNN)QORN
106、N 模型如图所示,它包含一个 m 模线路 S,通常由分束器、相移器和压缩器组成。这样的线路可以用辛矩阵来描述,因此,一般把它称为辛线路。S 的左(右)侧的 mio量子线路是 QORNN 的输入(输出),存储信息线路 mmem从左到右使用延迟线连接,延迟线长度相同,称它为“存储模式”。为了执行时间序列任务,将经典信息编码为量子态后输入到 QORNN 的输入端。输入的时间间隔等于数据通过S操作和延迟线传播的时间。存储信息线路赋予了QORNN一定的记忆容量,输出状态依赖于多个过去的输入状态。通过训练线路 S 的参数,QORNN 可以学习处理和预测时间序列数据。2023年,Robbe De Prins
107、 等人演示了利用现有光量子器件实现 QORNN 的一些相关实验,期待该模型领域的进一步发展。量子人工智能技术白皮书 60 图 28 量子光循环神经网络 总结上述的这些全量子循环神经网络模型,可以发现一些共性。全量子循环神经网络都可以分为两个部分,一个部分是输入输出线路,这部分的量子线路用于编码输入数据,并输出当前时间步的结果,另一个部分是存储信息线路,这部分的量子线路用于存储历史信息,一般不会进行测量。另外,全量子循环神经网络的每一个时间步都由编码、演化和测量三部分组成,其中演化部分的线路参数可以通过训练迭代更新。(六六)量子生成模型量子生成模型 1.量子线路玻恩机量子线路玻恩机 量子线路玻恩
108、机(QCBM)是一种具有生成能力的无监督变分量子算法。QCBM 利用量子力学的概率性质(即波函数)来表示数据集的概率分布。QCBM 的优点包括其高表达能力和直接从量子线路中采样的能力。1)生成机器学习生成机器学习 监督学习:机器学习中,有几个分支,监督、无监督以及其它。量子人工智能技术白皮书 61 监督机器学习是最常见的,这种模型基本上是训练计算机如何回答是或否的问题。假如有一个模型,给它一些数据,比如,以猫、狗的图像给模型进行训练。之后,再给它一个从未见过的新图像让模型判断这是猫还是狗。这就是最常见的机器学习技术。无监督学习:在有监督的机器学习中,数据有类似狗和猫的标签。在无监督的情况下,情
109、况并非如此。计算机不能分析出这是狗还是猫,但可以以某种方式寻找到一些模式并分析出一些事情,比如,不知道这些东西是什么,但这两者具有明显不同。这种学习方式试图通过观察数据来理解数据,而不是仅仅回答问题。生成模型的区别:生成机器学习是无监督机器学习的一个非常流行的分支。量子计算机比经典计算机更适合用来研究生成模型(这主要用到了量子测量原理)。常见的经典生成模型与对应的量子生成模型如下所示:表 1 经典与量子生成模型区别 经典生成模型 量子生成模型 生成对抗网络 量子生成对抗网络 受限波尔兹曼机 量子波尔兹曼机 变分自动编码器 量子线路玻恩机 2)量子线路玻恩机量子线路玻恩机 量子线路玻恩机(Qua
110、ntum Circuit Born Machines,QCBM)是一类生成模型,它依赖于参数化的量子线路来生成符合特定概率分布的样本。在这个模型中,量子线路接收一个初始输入态,通常是|0 的乘积态,并施加一系列依赖于可调参数的酉门(Unitary gates)。随后,该线路在计算基上进行测量以得到比特串样本。训练的核心目标是通过调整量子线路的参数,使得输出分布尽可能接量子人工智能技术白皮书 62 近给定的目标分布,而这个目标分布通常由经典数据集所定义。QCBM 的灵感来源于量子物理学中的 Born 规则,该规则表明观测到某一结果的概率与相应的量子态振幅的平方成正比。QCBM 是一种隐式的生成模
111、型,意味着它能够生成样本而不显式提供其概率分布,这在训练过程中带来了一定的挑战,因为传统的最大似然方法在这里无法应用。为了解决这个问题,可以采用一个可微分的损失函数来度量输出和目标分布之间的差异,例如最大均值差异(Maximum Mean Discrepancy,MMD)或 Wasserstein 距离。损失函数的梯度可通过参数位移规则(Parameter-shift rule)在量子计算机上估算,而这一规则得益于量子线路的酉结构。随后,可以利用经典的优化算法,通过梯度信息来更新量子线路的参数。QCBM 展示了在模拟难以通过经典方式模拟的离散分布方面的潜力,并为展现生成模型的量子优势提供了一种
112、可能的路径。通过合理的训练和优化,QCBM 有望在处理复杂分布和高维数据生成任务上展现出超越经典模型的能力。2.量子生成对抗网络量子生成对抗网络 随着深度学习的不断进步,生成对抗网络(GAN)已证明在处理生成任务方面具有显著的潜力。它能够精准捕捉训练数据集的分布特征,并创造出新的样本。然而,传统的 GAN 面临多个挑战:1)模式崩塌:生成器倾向于仅生成某些类型的样本,未能全面捕捉训练集的多样性。2)离散数据生成困难:传统 GAN 在表达离散值梯度上存在挑战。量子人工智能技术白皮书 63 3)训练不稳定性:生成器和判别器的损失值经常出现剧烈波动。4)计算资源需求高:需要大量的计算资源和时间投入。
113、5)梯度消失问题:当生成数据分布与真实数据分布差异较大时,容易遇到梯度消失的问题。近年来,量子计算作为一种新兴的计算范式,显示出在解决某些复杂问题上拥有指数级的速度优势。因此,研究者开始探索将量子计算引入机器学习模型中,进而诞生了以量子线路为基础的量子生成对抗网络(QuGAN)。QuGAN 利用量子比特的叠加和量子纠缠特性,实现了生成器和判别器的高效优化。这种新的计算架构有望缓解经典 GAN 的一些困境。1)量子生成对抗网络结构量子生成对抗网络结构 量子生成对抗网络主要分为两类,全量子生成对抗网络和混合量子-经典生成对抗网络。2)全量子生成对抗网络结构全量子生成对抗网络结构 全量子生成对抗网络
114、的生成器和判别器均为量子结构,而真实数据可以是量子的,也可以是经典的。3)量子真实数据情景量子真实数据情景 量子真实数据情景中,若真实数据由密度矩阵 描述的状态集合表示,生成器则产生密度矩阵 描述的状态集合。判别器的目标是准确区分 与。4)经典真实数据情景经典真实数据情景 经典真实数据情景中,经典数据在输入到量子判别器和量子生量子人工智能技术白皮书 64 成器前需进行量子态编码,量子生成器的潜在空间仍为量子态的集合。以下图示展示了量子生成对抗网络算法框架(利用量子生成器和量子判别器生成经典数据):图 29 量子生成对抗网络 在功能方面,通过测量量子生成器的最终态可以产生经典的离散数据,但无法直
115、接生成经典的连续数据。与此相反,经典 GAN 无法拟合离散数据,因为其框架要求生成器必须是可微分的,而生成离散数据不满足这一条件,从而无法直接应用梯度下降方法来更新参数。然而,量子生成器的输出对应于测量结果的离散分布。作为经典 GAN 的补充,能生成离散数据的 QGAN 和其他已知的 GAN 变体与量子力学机制的结合,无疑具有极高的研究价值。5)混合量子混合量子-经典对抗生成网络结构经典对抗生成网络结构 混合量子-经典对抗生成网络的结构一般有两种:经典生成器与量子判别器和量子生成器与经典判别器。真实数据同样可以是量子的,也可以是经典的。由于经典 GAN 面临训练不稳定的问题,因此在经典 GAN
116、 的发展过程中,不少人提出了各种 GAN 的变体和不同量子人工智能技术白皮书 65 的损失函数优化策略。在优化 QGAN 时,可以借鉴经典 GAN 的一些优化策略,同时也需要关注量子硬件的限制、量子态的编码方式,以及设计适合参数化量子线路结构的策略。经典 GAN 优化策略如下:(1)损失函数优化:损失函数的设计需要考虑量子态之间的距离度量和判别器的区分能力,有时为了避免梯度消失和模式崩溃,也可以在损失函数中添加梯度惩罚项。(2)超参数优化:如学习率衰减,自适应学习率,可以帮助模型更好的收敛。(3)生成器和判别器网络结构优化:这部分的优化对应 QGAN的参数化量子线路结构的设计与优化。(4)量子
117、硬件限制:QGAN 的实现受到量子硬件的物理限制,如噪声、逻辑门的准确性等。算法的优化需要考虑如何在实际硬件上实现和训练 QGAN。量子生成器本质上是生成模型,在量子线路结构选型时将表达能力作为最主要的评价指标;而量子判别器本质上是分类模型,需要探索数据之间的关系,在量子线路结构选型时将纠缠能力作为最主要的评价指标。下图总结了不同的 QGAN,最后一列 Application 中可以看出QGAN 的优化也与具体应用领域的需求和特定任务的优化密切相关。量子人工智能技术白皮书 66 图 30 量子生成对抗网络汇总 6)量子条件生成对抗网络量子条件生成对抗网络 在经典 CGAN 算法的启示下,提出量
118、子条件生成对抗网络算法的全量子方案 QCGAN,该算法的整体流程如图所示。图 31 量子条件生成对抗网络 量子数据集通过量子设备生成,可以直接作为参数化量子线路(PQC)的输入;经典数据集则需要编码成量子态输入到判别器中。在数据准备阶段,还需要根据生成任务的目标和数据特征引入合适的条件约束,并设计线路将经典条件信息也编码为量子态。量子人工智能技术白皮书 67 与经典 GAN 的优化思路相类似的,QCGAN 同时将条件变量添加到判别器和生成器的输入中负责约束训练过程。相应的在线路中添加处理条件变量的寄存器,通过使用多量子比特受控门使条件变量寄存器与数据寄存器发生纠缠,从而引导数据寄存器的学习过程
119、。(七七)量子机器学习量子机器学习 近些年,随着量子信息处理技术的提升,研究者开始关注将量子计算(QC)与机器学习(ML)结合的潜能。量子计算机有助于发现经典计算难以觉察的模式,并产生复杂的分布。这种特质推动了量子机器学习模型的发展。量子机器学习(QML)的两大核心方法包括:一是量子线性代数与优化。相比传统方法,某些情况下提供指数级加速。尽管存在数据加载的“输入问题”瓶颈,但量子线性代数算法仍为机器学习带来了加速机会。二是量子神经网络。相较于经典神经网络,量子神经网络的训练速度更快,且需少量样本。专门设计的量子处理器如量子退火机和光子线路,特别适合实现量子神经网络,而这些处理器相对于通用量子计
120、算机更为实用。机器学习的核心是检测数据中的模式。经典机器学习,例如神经网络,可以很好地模拟大部分模式,但某些复杂模式对经典方法来说是挑战,而量子系统可生成与经典物理学不符的概率分布和关联性。这意味着量子机器学习在特征空间内具有更大的操作潜力,可能解决经典机器学习无法应对的问题。尽管量子算法理论上有加速潜力,但实际实施的挑战仍使得其与经典机器学习之间的优越性待定。这是当前的重要研究方向。量子人工智能技术白皮书 68 1.机器学习与量子机器学习机器学习与量子机器学习 经典机器学习包括有监督学习、无监督学习和强化学习。有监督学习通过标签学习模式;无监督学习则在无标签数据中寻找模式;而强化学习则是在与
121、环境交互中学习最佳策略,例如 AlphaGo 的棋局学习。大多数机器学习算法都在高维空间上执行矩阵操作,这与量子计算的数学特性相似。因此,量子计算与机器学习的结合是寻求更有效算法的方向。目前,已经有一些展现了量子加速的算法,如量子基本线性代数子程序(qBLAS),它在某些方面相比经典算法展现出指数级加速。2.量子机器学习算法量子机器学习算法 1)基于线性代数的量子机器学习基于线性代数的量子机器学习 量子主成分分析:通常,为了揭示未知量子态的属性,给定多个处于该状态的系统的副本,会对不同的可观察量进行测量,并统计分析结果。对于非稀疏但低秩的量子状态,以经典形式揭示特征向量及其相应的特征值的规模随
122、系统维度呈超线性增长。在这里,展示了如何使用多个具有密度矩阵 的量子系统来构建幺正变换 eit 。因此,可以对未知的低秩密度矩阵进行量子主成分分析,以量子形式揭示对应于大特征值的特征向量,其速度比任何现有的算法都要快得多,具有数据分析、态层析和状态区分等应用。量子支持向量机和和核方法:最简单的有监督机器学习算法例子是线性支持向量机和感知器。这些方法试图在数据集中的两个数据类别之间找到一个最优的分隔超平面,使得在很高的概率下,一量子人工智能技术白皮书 69 个类的所有训练样本只出现在超平面的一侧。当超平面和数据之间的边缘被最大化时,便得到了最稳健的数据分类器。这里“权重”在训练中学到的是超平面的
123、参数。SVM 的最大优势之一在于它通过核函数向非线性超平面进行泛化。与其经典对应物一样,量子支持向量机是一个典型的量子机器学习算法示例。首个量子支持向量机在2000 年初被讨论,它使用 Grover 搜索的一个变种来进行函数最小化。因此,从 N 个向量中找到 s 个支持向量需要 N/s 次迭代。最近,一个利用 qBLAS 的最小二乘量子支持向量机被开发出来。数据输入可以来自各种不同的来源。如从 qRAM 访问经典数据或一个量子子程序准备的量子态。一旦数据被提供给量子计算设备,它们就会使用量子相位估计和矩阵求逆算法(HHL 算法)进行处理。构建最优分隔超平面并验证一个向量位于超平面的一侧或另一侧
124、所需的所有操作,原则上可以在poly(logN)的时间内完成,其中N是为准备超平面向量所需的矩阵的维度。这种量子支持机器的方法已经在核磁共振测试台上实验性地展示,用于手写数字识别任务。2)量子量子 Transformer 注意力机制和 Transformer 是目前 AI 大模型的基础,量子机器学习方面还没有公认的量子注意力机制与量子 Transformer,但有一些研究和探索。Quantum Self-Attention Neural Networks for Text Classification 将 高 斯 投 影 量 子 自 注 意 力(Gaussian projected quant
125、um self-attention,简称 GPQSA)引入到量子神经网络中,提出了一种新颖简单的网络架构,即 QSANN,并且在真实的文本数据集上进行了分类的任务。研究结果表明,QSANN 是有效且可拓展的,量子人工智能技术白皮书 70 能够适应NISQ设备且对量子噪声具有一定的鲁棒性。上文已阐述了量子计算的基础知识、文本分类问题以及自注意力机制。因此,下文将重点介绍关于 QSANN 的模型架构和实现上。从经典 Transformer 到量子 Transformer,最直接的做法就是将经典自注意力机制中的线性变换用 PQC 来代替。不过,这个想法不够新颖,而且实践表明这样的模型计算量过大,难以
126、训练,之前的研究人员在 GPU 上用 IMDB 数据集做训练,也需要花大约 100 个小时才能训练一轮。而Quantum Vision Transformers这个工作也是把重心放在了用量子注意力机制去代替经典的注意力机制,通过用PQC 来读取数据以及构建正交神经层,作者们提出了两个版本的量子 Transformer 来处理视觉任务,即 Quantum Orthogonal Transformer 和Quantum Compound Transformer。论文中进行了大量的实验,与最好的经典 Transformer 以及其他基准相比,这种架构的量子Transformer 展现了类似的甚至更好
127、的表现。并且在计算复杂度方面,这里的量子注意力层被证明是比经典算法更具优势的。3)量子强化学习量子强化学习 强化学习(RL)是除了监督和无监督学习之外的第三种范式。量子强化学习(QRL)算法也是量子机器学习的重要分支。将 QRL理解为利用量子资源(无论是在模拟和/或实验中)来解决特定任务的量子辅助方法。将所有 QRL 算法组织成几个模块,按照所谓的量子化程度递增。第一个模块涵盖了称之为量子启发的 RL 算法。第二个模块涵盖了使用 PQCs(VQCs)作为函数逼近器的 QRL 算法。在许多情况量子人工智能技术白皮书 71 下,通过简单地用适当的 VQC 替换标准神经网络函数逼近器就可以获得相应的
128、算法。我们为这一类别中的大多数论文提供了详细的总结,因为人们相信变分量子算法尽管受到现今NISQ硬件的限制,但仍具有获得量子优势的潜力。第三个模块基于所谓的投影模拟和使用 Boltzmann 机器作为函数逼近器的 QRL 的实现。这是一类使用量子算法作为子程序的方法。相应的硬件要求可能只与通用的、容错的和纠错的量子处理单元(QPUs)兼容。最后一个模块的算法将RL 的所有组件都量子化处理。下图显示了 QRL 算法的概览。图 32 量子强化学习算法汇总 4)量子聚类量子聚类 聚类算法是一种无监督学习算法,通过对无标记训练样本的学习揭示数据内在性质以及规律,其目的是簇内样本相似度大,簇间样本的相似
129、性要小。常见的聚类方法主要包括 K-means 算法、层次聚类、密度聚类、谱聚类等算法,在实际应用中,需要结合数据集的大小、簇数量、数据分布情况等因素选择合适的聚类算法。目前相较于利用变分量子算法实现聚类算法,对通用量子聚类算法的研究显得更加成熟,但受量子资源的限制,这类算法在近期量子设备上很难实现。2019 年,Khan 等人探索了 K-means 聚类算法量子人工智能技术白皮书 72 的量子实现,并提出了量子干涉、负旋转、相消干涉三种优化策略以在NISQ计算机上实现更小深度的K-means算法量子线路。经过在IBMQX2机器上对典型数据集的实现进行比较,结果表明NISQ计算机能够以与经典计
130、算机相同的精度解决 K-means 聚类问题。2022 年,Pablo Bermejo 等人基于变分量子线路实现了数据聚类,该算法的思想是将聚类问题转化为一个优化问题,将问题的解编码为目标哈密顿量的基态,同时借助 VQE 算法进行解决。作者使用真实的数据集进行基准测试,实验数值结果表明此算法具有良好的性能,允许将数据划分为许多簇。5)量子降维量子降维 机器学习经常需要处理大量的数据,这些数据维度很高,并且存在一些与解决问题无相关性或者相关性很小的数据,需要降维操作来降低后续计算复杂度。常用的降维操作包括主成分分析、线性判别分析。2014年,Lloyd等人提出了量子主成分分析算法,求解密度矩阵的
131、大特征值对应的特征向量。当密度矩阵是低秩矩阵时,该量子算法的复杂度对数依赖于矩阵维度。2016 年,Cong 等人实现了量子线性判别分析降维算法。与经典算法相比,该算法在原始数据集的维度上具有指数级的加速。2019 年,Yu 等人提出了一种基于主成分分析的量子数据降维算法。该算法当低维空间维数是训练数据维度的对数时,相对经典算法有指数加速效果。2020 年,Pan 等人提出了一个改进的最优投影的量子算法,该算法平方依赖于迭代次数。2021 年,Yu 等人提出了一个线性判别分析的量子降维算法,该算法量子人工智能技术白皮书 73 具有显著的加速效果。2022 年,Pan 等人提出了保邻域嵌入的量子
132、算法,该算法包含三个子算法,分别对应经典算法的三个步骤,并通过量子可访问数据结构连接各个子算法的输入和输出,减少了量子态重复制备的次数。另外,该算法把一般特征问题转化到谱回归的框架下进行求解,从而获得了良好的加速效果。2022 年,Mahmud 等人提出了一种利用量子小波变换和改进的 Grover 搜索算法,在具有高空间分辨率和高维度特征的数据集中进行时间有效的降维和动态模式识别。该量子算法比经典的降维和搜索方法在更短的时间内产生结果。6)量子回归量子回归 回归算法是一种预测性的建模技术,是一种有监督学习,主要研究自变量和因变量之间的关系,目前回归算法主要包括线性回归、岭回归、支持向量回归等研
133、究内容。相比于分类算法,回归算法预测的结果是连续的,而分类算法预测的结果是离散的。2012 年,Wiebe 等人首次提出量子线性回归算法。当数据矩阵稀疏且具有很低的条件数时,该算法相对经典算法具有指数加速效果。2016 年,Schuld 提出利用线性回归预测新数据的量子算法,当输入矩阵为低秩矩阵时,相对经典算法有指数加速效果。2017 年,Wang 等人提出了基于标准黑盒模型的量子线性回归算法,该算法在数据的个数上具有指数加速效果。同年,Yu 等人提出了能够高效处理非稀疏数据矩阵以及高效确定岭回归参数的量子岭回归算法,该算法具有显著的加速效果。2019 年,Yu 等人设计了基于量子线性回归的量
134、子视觉追踪算法,当矩阵条件数较低时,该算法具有指数加量子人工智能技术白皮书 74 速的优势。2022 年,Hou 等人提出了一种量子偏最小二乘(QPLS)回归算法,相比经典算法,QPLS 算法在自变量维度、因变量维度和变量个数上实现了指数级的加速。同年,Chakraborty 等人利用块编码和量子奇异值变换框架,设计了一个具有一般l2-正则化的量子最小二乘算法。该算法对条件数实现了指数加速,同时对精度有指数加速。(八八)量子深度学习量子深度学习 基于以上量子机器学习基本内容,接下来会介绍一些更加开放性的内容,主要涉及了量子注意力机制与量子 Transformer。注意力机制和 Transfor
135、mer 是目前 AI 大模型的基础,量子机器学习方面还没有公认的量子注意力机制与量子 Transformer,但有一些研究和探索。这里按时间顺序列举了三个基于不同量子自注意力机制的模型以及两个启发式的量子 Transformer。1.Quantum Self-Attention Neural Network Quantum Self-Attention Neural Networks for Text Classification将高斯投影量子自注意力(Gaussian projected quantum self-attention,简称 GPQSA)引入到量子神经网络中,提出了一种新颖简单
136、的网络架构,即 QSANN,并且在真实的文本数据集上进行了分类的任务。研究结果表明,QSANN 是有效且可拓展的,能够适应 NISQ 设备且对量子噪声具有一定的鲁棒性。下面将注意力放在在 QSANN 模型架构和实现上。QSANN 的核心单元被称为量子自注意力层(quantum self-量子人工智能技术白皮书 75 attention layer,简称 QSAL)。下图展示了 QSAL 的整体图像。图 33 高斯投影量子自注意力 在经典的注意力机制中,由 queries 和 keys 计算得到权重,再结合values得到最终的输出,受其启发,QSAL中也有类似的对应。对于第 l 层 QSAL
137、的经典输入数据 ysl1,先利用一个量子线路 Uenc 进行编码,即|s=Uenc(ysl1)|0n 下标 s 代表一个数据样本中的输入向量,比如一段文本中的各个词。然后使用另外三个参数化量子线路Uq 、Uk 、Uv 来得到对应的 query、key 和 value。具体来说,query 和key 是对|s 演化后的末态做 Pauli-Z1 测量得到的结果,即 Zqs=s|Uq(q)Z1Uq(q)|s Zks=s|Uk(k)Z1Uk(k)|s 而 value 部分的测量输出被写成一个 d 维向量 os=P1s P2s Pds 其 中 Pjs=s|Uv(v)PjUv(v)|s ,而 每 个 Pj
138、量子人工智能技术白皮书 76 I,X,Y,Zn 则代表一个 Pauli 可观测量。于是就有了第 l 层QSAL 的输出 ysl=ysl1+Sj=1 s,j oj 上式中的 s,j 是第 s 个和第 j 个输入向量之间的归一化的量子自注意力系数,即 s,j=e(ZqsZkj)2 s,j=s,jSm=1s,m 由于这个过程通过测量将量子态投影到经典数据表示,又利用了高斯函数,因此称之为高斯投影量子自注意力。选择高斯函数的原因主要是它包含了无限维的特征空间,并且在经典机器学习中已经被充分研究了。了解了 QSAL,QSANN 就很容易理解了,其整体架构如下图所示。图 34 QSANN 算法架构 输入数
139、据经过 L 层 QSAL 后,对输出的所有特征向量做一次平均,再经过一个全连接层以及Sigmoid函数,即可得到分类的预测结果。最后,尽管 QSANN 在理论上能够应用于 NISQ 设备,还是存在一些问题可以改进。量子人工智能技术白皮书 77 具体来说,QSANN 中的自注意力分数需要使用经典计算机才能得到,那么量子计算机在整个流程中能否承担更多任务?这是值得商榷的。除此以外,这个模型还依赖于大量的测量才能把量子数据转为经典数据。这些都是值得进一步思考的。下面要介绍的第二种量子自注意力机制(QSAM)来自A Natural NISQ Model of Quantum Self-Attentio
140、n Mechanism。通过对经典自注意力机制进行形式上的推广,并充分发挥量子线路对数据进行特征映射与融合的能力,这里的 QSAM 显得非常简洁、直接,仅仅需要在这个框架中设计编码线路与变分线路。实验结果表明,与此前的同类模型相比,QSAM 以更低的模型复杂度、更少的训练参数取得了更好的分类精度。同时,QSAM 对不同的量子噪声均表现出了鲁棒性。作为一个完全量子而非量子经典混合的模型,QSAM 更加适合在 NISQ 设备上实现。首先,直接给出经典自注意力机制在形式上的推广,即 atti=Nj=1g(Qi,Kj)Vj,其中 g()根据不同的自注意力机制,既可以代表点积操作,又可以代表一个神经网络
141、。于是在 QNN 中,可以在数据编码的时候将 Qi、Kj 和 Vj 放在一起,然后再用 PQC 来近似 g()以及算术运算。根据这个想法,就能构建 QSAM 的量子线路,如下图所示。量子人工智能技术白皮书 78 图 35 QSAM 这里有两种 QSAM 的架构,(a)中是基础架构,被称为 QSAMb,(b)中优化过的版本,被称为 QSAMo。QSAMb 由编码线路 Ue 开始,然后就是三个变分线路 U1、U2 和 U3。具体来说,U1 的输出对应于点积自注意力机制中的 QiKjTVj ,后续的 U2 对应于求和,而 U3 则是对注意力向量又做了一次特征变换。为了简化线路结构,前一层量子线路的输
142、出中只有 n1 、n2 和 n3 个量子比特会作为后续 U1、U2 和 U3 的输入。注意到 QSAMb 中进入每个 U1 的后两个编码线路总是相同的,去除这些冗余信息后,就得到了 QSAMo。最后,通过测量即可得到模型的输出结果。2.Quantum Vision Transformers 从经典 Transformer 到量子 Transformer,最直接的做法就是将经典自注意力机制中的线性变换用 PQC 来代替。不过,这个想法不够量子人工智能技术白皮书 79 新颖,而且实践表明这样的模型计算量过大,难以训练,之前的研究人员在 GPU 上用 IMDB 数据集做训练,也需要花大约100个小时
143、才能训练一轮。而Quantum Vision Transformers这个工作也是把重心放在了用量子注意力机制去代替经典的注意力机制,通过用PQC 来读取数据以及构建正交神经层,提出了两个版本的量子Transformer 来处理视觉任务,即 Quantum Orthogonal Transformer 和Quantum Compound Transformer。大量的实验表明,与最好的经典 Transformer 以及其他基准相比,这种架构的量子 Transformer 展现了类似的甚至更好的表现。并且在计算复杂度方面,这里的量子注意力层被证明是比经典算法更具优势的。首先,给出经典注意力机制的
144、数学表达式以方便后续与量子版本进行对照,即 Aij=xiTWxj Aij=softmaxj(Aij)yi=jAijVxj 这里做了一个简化,就是把 query 和 key 的变换矩阵合并成了 W 。接着来看如何将向量和矩阵形式的数据读取到量子线路中,即所谓的 quantum data loader。这里的核心是一元振幅编码(unary amplitude encoding)以及可重构分束器(Reconfigurable Beam Splitter,简称 RBS)。一元振幅编码就是指将一个向量x=(x1,xd)编码为|x=1xi=1dxi|ei ,其中|ei 是只有第 i 位(从左到右)的量子比
145、特为1其余均为0的量量子人工智能技术白皮书 80 子态。RBS 门的定义如下:RBS()=(10000cos sin 00sin cos 00001)RBS 门有一个重要的特性,就是保持 hamming 权重不变,即保持基矢中 0 和 1 的数量不变。于是,一元振幅编码的基矢在 RBS门的作用下是完全封闭的。有了上面的这些铺垫后,就可以正式来介绍量子 Transformer。首先,利用前面介绍的读取数据的线路以及量子正交层,可以得到一个可训练的计算矩阵-向量乘法的线路,如下图所示。这个线路的输出就是编码 Vxi 的量子态,这个向量可以由量子态层析测量的方法得到。图 36 可训练计算矩阵-向量乘
146、法的线路 然后是注意力系数 Aij 的计算,具体线路如下所示。与上面类似,只要再额外加入data loader的伴随线路,那么末态测量第一个量子比特为 1 的概率就是|xiTWxj|2 。经过经典后处理,就可以得到 Aij,再与之前的 Vxj 结合,即为 yi=jAijVxj。这个基于量子线路 实 现 自 注 意 力 机 制 的 模 型 就 被 称 为 Quantum Orthogonal Transformer。图 37 注意力系数线路 用这个模型进行推理时,还可以进一步将 Aij (Aij )与 Vxj 结合的过程用量子线路来实现,其具体线路如下图所示。量子人工智能技术白皮书 81 首先,
147、对于 Ai,经过第一个寄存器的 data loader 后的量子态为 jAij|ej|0 之后,与之前矩阵数据的 data loader 类似,把每一行的 xj 读取到第一个寄存器的|ej 所对应的子空间,即有 jAij|ej|xj 在第二个寄存器上作用量子正交层 V 后,由于 Vxj 的第 k 个元素可以写为 qVkqxjq,因此就有 jAij|ej|Vxj=jAij|ejk(qVkqxjq)|ek=kjAij(qVkqxjq)|ej|ek 于是,对第二个寄存器做量子态层析测量就能得到 yi 了。图 38 Quantum Compound Transformer 到 目 前 为 止,都 只
148、是 用 量 子 线 性 代 数 来 尽 量 复 现 经 典Transformer 的步骤。上面这些量子工具也可以用于构建更加启发式的量子 Transformer,比如下图所示的线路就是 Quantum Compound Transformer 的核心。具体来说,这个量子线路有两个寄存器,分别有 n 个和 d 个量子比特。于是,利用矩阵的 data loader 就可以直接将完整的数据 X nd 读取到线路中。之后,就是简单地将量子正交层同时作用在两个寄存器上。这里,两个寄存器都是一元振幅编码的,因此整量子人工智能技术白皮书 82 个态矢是由 hamming 权重为 2 的基矢组成的。需要注意,
149、基矢的数量并不是所有可能的(n+d2)个,而是对应于两个寄存器上各有一个量子比特为 1 的情况,即 n d 个。不过,这个线路依然是在(n+d2)维的空间中计算矩阵-向量乘法,因此 X 需要通过填零的方式由 n d 维转换为(n+d2)维。而(n+d2)(n+d2)的矩阵 V(2)被称为 V 的二阶复合矩阵。整个过程得到的量子态为|Y=|V(2)X。最后,通过后选择以及量子态层析测量,就可以得到各个 yi 了。图 39Quantum Compound Transformer 的核心(九九)量子强化学习量子强化学习 强化学习是机器学习中不同于监督学习与非监督学习的第三种学习范式。它的基本工作框架
150、,如图 40 所示,是通过智能体(Agent)与环境(Environment)不断交互自主学习最佳的执行策略(Policy),以实现累计期望奖励(reward)最大。过去十年,随着深度神经网络技术的快速发展,出现了将强化学习与深度神经网络结合的新的研究领域,即深度强化学习以解决在高维环境态空间中的决策问题。深度强化学习在游戏,下棋,机器人控制等领域的突出表现引起了大众强烈的兴趣和学术工业界的关注,例如 DeepMind 研发的智能下棋软件 AlphaGo。最近,OpenAl 推出的大语言模型 ChatGPT 又在全世界范围内引起了轰动,其中一项关键性技术便是基于人类反馈的强化量子人工智能技术白
151、皮书 83 学习。深度强化学习的出色表现使得不少人认为强化学习可能是未来通向通用人工智能的关键。图 40 强化学习的基本工作框架 在机器学习快速发展的过去十年里,量子计算同样取得了巨大的进步和成就,特别是 2019 年 Google 宣称在拥有 56 个量子比特的芯片上实现了所谓的“量子霸权”更是掀起了全世界范围内量子计算的研究高潮。由于量子计算是一种新型计算范式,其可能给带来算力上的巨大飞跃,因而人们自然开始研究将量子计算与机器学习结合的量子机器学习。目前,量子计算的发展已经进入了所谓的 NISQ时代,即嘈杂中等尺度量子,意味着已经能够设计制造包含上百个量子比特的量子芯片,但是对这些量子比特
152、的操作存在较大的错误率。由于容错型量子计算需要上百万达到一定计算错误阈值的物理量子比特,在可预期的未来都将处于NISQ阶段。量子机器学习有望在NISQ阶段帮助实现量子优势的演示,因此成为目前的重点研究方向。近两年,由于量子软件与硬件平台的逐步完善,将量子计算与强化学习结合的量子强化学习开始受到关注和大量研究,部分研究结果表明量子强化学习相比深度强化学习在完成相同任务中需要的训练参数有望大大减少。在下文中,将主要聚焦于适用于目前 NISQ硬件的使用参数化量子线路(PQC)进行策略学习的量子强化学习,其量子人工智能技术白皮书 84 他相关的研究内容和进展可参考文献。如图 3-37 量子强化学习的基
153、本工作框架所示,目前量子强化学习的核心是使用适用于NISQ硬件的参数化量子线路来产生含参数的策略动作(a|s),并通过策略梯度下降来更新迭代线路参数以期望实现最优策略来使得累计期望奖励最大。与基于策略学习的深度强化学习相比较,只是将用于函数近似器的深度神经网络替换为参数化量子线路。量子强化学习中的关键在于如何选择含参数的量子线路形式,这里面又涉及到如何编码映射环境状态s,如何设计参数化量子门操作,如何进行测量,最后如何将策略与量子线路测量结果联系起来。目前最常用的含参数量子线路如图 41量子强化学习中含参数量子线路的基本结构所示,其包括变分参数层,编码层,纠缠层以及测量层。在实际工作中,前三个
154、层可能会重复多次以增强量子线路的表达能力。含参数的策略函数通常定义为可观 测量的某种函数,一种常见的定义是 SOFTMAX 形式:(a|s)=eOas,eObs,b (1)其中=(,)。在定义好含参数策略函数形式后,就可以执行策略梯度算法来更新量子线路中的参数:+Elog(at|st)R(t)t=0 (2)其中R(t)为时刻 t 后的累积奖励。类似于深度强化学习,原则上可以探索各种各样的策略学习算法来使得训练收敛性和稳定性更高,在目前的量子强化学习领域这些探索才刚刚开始。量子人工智能技术白皮书 85 图 41 量子强化学习的基本工作框架 图 42 量子强化学习中含参数量子线路的基本结构 基于N
155、ISQ芯片的量子强化学习是刚开始探索的领域,目前依然有大量的技术细节问题亟待解决,其中最重要的是要在真实量子硬件上探索其训练效果并不断进行技术迭代。在最近的一个工作中,在北京量子院的Quafu量子云平台上首次展示了Cartpole训练,这表明目前基于NISQ的量子强化学习有望依托于目前的量子计算云平台得到进一步的快速发展。必须指明的是,部分研究表明量子强化学习相对于深度强化学习在训练参数和训练时间上都有明显减少,这尽管令人感到兴奋,但这些研究中的案例均比较简单,更复杂场景的案例对比研究因而是下一个阶段的重点。此外,目前讨论中默认的环境均是经典环境,对于一般的量子环境,量子强化学习能否展现量子优
156、势同样是值得重点关注的研究方向。量子人工智能技术白皮书 86 (十十)量子搜索量子搜索 量子搜索算法有量子启发式搜索算法、协同搜索算法、结构搜索算法等,本节重点介绍量子搜索算法中结构搜索算法。在中等规模含噪声量子硬件的时代,变分量子算法被认为是最有希望较早展示有意义的量子优势的一类算法。这类方法利用含参量子线路来优化相应的目标函数,有着与深度学习类似的基本架构,同时融合了量子线路表达能力和经典优化方案的优势。与深度学习中神经网络架构的设计类似,也面临着如何选择合适的量子线路结构的问题。快速找到合适的量子线路结构,是有效利用现时量子硬件资源,加速量子计算商业化落地的关键一环。在量子的情况下,线路
157、结构的选择和设计比神经网络结构搜索更加复杂,除了表达能力的增强外,还需要关注量子噪声鲁棒性,量子假设由于贫瘠高原效应带来的可训练性损失,量子线路结构是否适合于量子硬件拓扑和原生量子门组等多种因素。因此考虑多方面因素的通用能力强的高效率量子结构自动化设计方案,是非常值得探索和研究的领域。这一通用能力,对于下一步量子硬件的能力探索和量子支撑的业务合作,都有着非常重要的技术支撑作用。国内腾讯量子实验室等在国际上首次抽象和提出了量子结构搜索的概念,并极大推动了学术界在该方向的进一步发展,在该领域拥有较高的引用数和影响力。并进一步开展可微量子结构搜索的研究,利用参数化概率模型采样不同线路结构并进行针对线
158、路参数和概率模型参数的双重梯度下降,可以实现在保持线路幺正性的同时对指数大搜索空间的高效探索。量子人工智能技术白皮书 87 基于神经网络预测器的搜索框架,继之前的可微量子结构搜索工作之后,进一步探讨了利用神经网络来预测不同线路结构指标的可能性,并展示了完整的高通量筛选最优线路结构的完整的量子结构搜索工作流。研究表明,单纯依靠变分量子线路的结构,而不进行完整的参数训练,就可以得到有效的线路质量评估。此外,该研究团队还将该工作流分别应用在量子机器学习和量子物理模拟的任务中,均表现的比传统方法效果显著提升,且具有很好的迁移能力,同样的预测器可以向不同的体系大小和不同的子任务迁移。因此不同类型的量子线
159、路设计问题得到了高度的抽象和统一,使得该框架具有极强的普适性,不需进行额外修改就可以解决多个子领域的重要问题,达成了重要的线路结构设计平台能力。更进一步的,同样的方案也可以进行不含参线路的自动化组装和设计,进一步扩展了线路结构搜索的应用范围,可以支持在硬件上的量子编译问题。这里两种高效全新的深度学习方案来进行变分含参量子线路的结构设计,广泛适用于机器学习、组合优化、量子模拟、量子纠错、量子编译等实际问题和应用。四、量子人工智能典型应用(一一)量子人工智能典型应用:通信网络量子人工智能典型应用:通信网络 表 2 量子机器学习在超可靠低延迟 6G 网络中的应用 用例名称 量子机器学习在超可靠低延迟
160、 6G 网络中的应用 用例研究方 Kyung Hee University&Massachusetts Institute of Technology 用例提出时间 2023 应用问题需求 目沉浸式和任务关键的数据驱动应用程序,如虚拟现实或增强现实、触觉互联网、工业自动化和自主移动性,正在为第六代(6G)网络中的超可靠低延迟通信(URLLC)创造前量子人工智能技术白皮书 88 所未有的挑战。机器学习方法深度学习、强化学习和联邦学习(FL),提供了新的范式来确保在大数据流上训练的 6G URLLC。然而,传统机器学习能力的限制使得实现严格的6G URLLC 要求具有挑战性,因此需要量子机器学习提
161、供更高效的解决方案。本例中展示量子-经典混合计算用于小型URLLC 任务离载问题。实现方案 使用 QAOA 算法计算(4,2)-任务离载问题,以得到最小URLLC 目标值。使用 POWELL 优化器对经典优化器 Hc 和混合优化器 Hm 进行更新,以计算成本哈希函数 g 和 b。通过使用 2000 次实验(运行),当电路层数等于 1、2、3、4、5时,找到两个最优的离载路径(总 URLLC 成本为 11)以及在所有 212 种可能的离载路径中概率为 0.9 的最优离载路径。通过再次使用 2000 次实验,当电路层数等于 5 时,可以求出平均总 URLLC 成本和最优离载概率和所有 212 种离
162、载路径中最优离载路径的决策概率。(m,n,)-QNN 变分量子计算用于无线网络中功率分配,其中m 表示量子 Keras 层的数量,n 和 分别表示每个量子 Keras层中的量子比特数和电路层数。使用具有学习率为 0.0005 和批量大小为 30 的量子-经典混合模型来通过学习网络中功率分配的最佳策略优化总速率。生成一组信道矩阵以及最佳功率集的数据集来训练混合模型。将训练数据输入卷积密集层以构成(m,n,)-量子电路的输入。随着量子比特数量 n 和电路层数 的增加,功率分配中的均方误差(MSE)显著降低,同时增强的学习率增加了由于这种量子加速而导致的总速率。应用优势 相比于经典计算,利用量子-经
163、典混合算法可以加速此问题计算过程,快速准确地得到最佳方案。硬件要求 对硬件要求较高,采用量子模拟器运行。技术成熟度 受限于当前量子计算机的规模,该应用仍处于前期的演示阶段,离规模化商用尚有一段距离,成熟度偏低。技术难点 当前 QNN 在通信领域已经开始有了一些应用,是量子机器学习算法中最先在通信领域应用的算法,但应用场景较少。另外,深度学习无法有效地优化大规模网络结构、训练复杂网络、模拟网络信息流,基于量子的深度学习有望能提升网络优化质量和速度。应用前景 正在研究中的下一代通信网络对算力要求极高,量子算法正是满足 6G 网络需求的选择。信息来源 https:/ieeexplore.ieee.o
164、rg/abstract/document/10105165 量子人工智能技术白皮书 89 (二二)量子人工智能典型应用:信息安全量子人工智能典型应用:信息安全 1.密码破译密码破译 表 3 Shor 算法破解 RSA 加密系统 用例名称 Shor 算法破解 RSA 加密系统 用例研究方 国内外研究机构与高校 用例提出时间 1995 年(Shor 算法发明后)应用问题需求 RSA 加密算法是目前使用最为广泛的非对称加密方法之一,可以通过对信息进行加密实现安全可靠的传输。在特殊场景下需要对加密信息进行破译。由于 RSA 密码破译的本质是解决质数分解的问题,传统计算机的算力无法在有限时间内实现时间复
165、杂度高的大数的质数分解,因此需要利用量子算法实现高时间复杂度的质数分解计算。实现方案 1995 年,美国贝尔实验室的 Peter W.Shor 证明了利用量子计算能够高效地进行大数因式分解。Shor 算法的核心是将大数因子分解转化为量子傅里叶变换(QFT)在多项式步骤内完成求解函数的周期问题。由于在量子环境下能够以极高的效率实现量子傅里叶变换,因此能够实现求解大数因子分解。应用优势 利用量子计算的并行性能够解决传统计算无法解决的大数因子分解问题。从理论上已经验证了破解 RSA 加密系统的可行性。硬件要求 IBM-Q 提供 16 个量子位,约可以破解 17 位 RSA 密码;2000 个量子位可
166、以在八个小时内破解 2048 位 RSA 密码。技术成熟度 目前,利用 Shor 算法进行 RSA 密码破译的理论可行性已经得到证明。但由于当前量子计算硬件能够实现的比特数有限、且存在较大噪声,尚未实现大规模的实际应用。技术难点 破译 RSA 密码对量子硬件具有更高比特数和低噪声要求,因此仍需进一步研发、优化量子硬件实现技术。应用前景 由于当前 RSA 是一种主流的加密技术,未来在量子计算软硬件完善后,利用 Shor 算法破译 RSA 密码的方法可以广泛用于国防等领域。信息来源 https:/quantum-journal.org/papers/q-2021-04-15-433/pdf/2.量
167、子同态加密协议量子同态加密协议 表 4 量子同态加密协议 用例名称 量子同态加密协议 量子人工智能技术白皮书 90 用例研究方 国内外研究机构与高校 用例提出时间 2013 年 应用问题需求 量子加密利用微观量子作为信息传递载体,基于量子特性进行编码加密、实现信息的安全交互。利用量子的不同偏振状态携带信息,在对量子态测量时会引起波函数坍塌的特性能够让通信双方校验检测窃听行为。为了进一步对量子加密进行增强,保证信息传输与处理的安全性,如何在信息不解密的前提下实现对加密信息进行处理成为量子加密的新需求。实现方案 同态加密能够在分布式环境下为用户提供有力的隐私保护,传统的同态加密算法在云计算等领域都
168、已经实现了重要应用,保证了加密数据处理过程中的隐私安全。量子同态加密的根本方法是在量子计算的过程中引入同态加密原理。目前,学术界已经提出了多种量子同态加密方案。中国科学院大学研究人员在 2013 年提出了基于一次一密完美安全性的对称量子同态加密方案;2015 年提出了基于通用量子线路的量子全同态加密方案。2016 年,电子科技大学研究人员基于三元量子逻辑电路提出四种对称弱三元量子同态加密方案,其中有两种单量子比特方案,一种两量子比特方案和多量子比特方案。该方案可以集成到未来的远程量子服务器结构中,从而在分布式计算环境中保护用户私有量子信息的计算安全性。2017 年,中国科学技术大学研究人员首次
169、基于量子云平台实现线性同态加密保护私有信息,利用量子云技术实现量子同态加密成为新方式。应用优势 构造同态加密协议,能够进一步保证计算过程中的数据隐私安全。尤其未来在云计算中能够发挥安全保护的重要作用。硬件要求 利用现有的量子云计算平台接入量子后端,已经开展了少数验证试验,但仍然需要更高位数、更加稳定的量子硬件系统支撑研究进一步开展。技术成熟度 目前量子同态加密算法理论的研究进展已经超越了试验验证进度,同态加密协议研究正在逐步推进。整体仍然处于理论探索和试验验证起步阶段,距离商用仍然存在一定距离。技术难点 量子同态加密算法当前使用的复内积空间维度低,空间维度自由发展趋势受限。算法落地受到硬件条件
170、限制,仍主要停留于理论研究。应用前景 未来量子同态加密在量子计算中具有重要应用价值,尤其在量子云计算方面能够保障隐私数据的计算安全。量子人工智能技术白皮书 91 信息来源 https:/ https:/arxiv.org/pdf/1410.2435.pdf https:/ 00767 https:/arxiv.org/pdf/1612.02886.pdf(三三)量子人工智能典型应用:金融科技量子人工智能典型应用:金融科技 1.投资组合优化投资组合优化 表 5 证券投资组合优化 用例名称 证券投资组合优化 用例研究方 本源量子 用例提出时间 2022 年 应用问题需求 投资组合优化问题是量化金融
171、中较为典型的一类问题。当投资组合优化问题规模较大以及亟待优化证券数目较多时,采用经典方法求解该问题需要消耗大量的计算资源。因此需要寻找效率更高的计算方法。实现方案 为了降低计算资源的消耗、提升计算速度,可以采用 Grover 适应性搜索算法和变分量子算法(VQA 算法)解决投资组合优化问题。实际问题中的投资组合优化是一个典型的二次规划(QP)问题。研究团队首先将 QP 问题转化为 QUBO 问题,进而利用可以找到全局最优的 GAS 算法对问题进行优化。同时采用拟设 Hardware Efficient Ansatz 的变分量子算法对问题进行直接优化,缓解量子计算机噪声并适应现有量子芯片的拓扑结
172、构。研究团队用 Grover 适应性搜索算法对 4 只证券进行实证分析,仅通过86次查询即搜索到问题的最优结果。对于采用拟设为 HEA 的 VQA,研究团队对 6 只证券进行实证分析,对比经典二次规划方法序列最小二乘规划(SLSQP)算法,发现优化结果可以近似甚至优于该方法。应用优势 相比于经典计算,利用量子算法可以加速组合优化算法的计算过程,快速准确地得到最佳方案。硬件要求 本用例使用本源量子虚拟机。技术成熟度 受限于当前量子计算机的规模,该应用仍处于前期的演示阶段,离规模化商用尚有一段距离,成熟度偏低。技术难点 在数据量更大的场景下需要更强的算力,量子计算机需要更多的量子比特以及更可靠的纠
173、错能力。应用前景 该算法可进一步应用于计算更为复杂资产的组合策略优化,在未来的资产管理领域发挥重要作用。量子人工智能技术白皮书 92 信息来源 https:/ 2.ATM 业务智能化决策业务智能化决策 表 6 量子计算在 ATM 业务智能化决策问题中的应用 用例名称 量子计算在 ATM 业务智能化决策问题中的应用 用例研究方 量旋科技、华夏银行 用例提出时间 2021 年 应用问题需求 2020 年,商业银行 ATM 机具的使用率因受到移动支付的冲击而出现了大量的撤机现象,全国范围内 ATM 机具减少了 4万余台,在此背景下商业银行需要精准地筛选出效能差、使用率低的机具设备,并进行撤机,以缩减
174、成本。实现方案 项目选取国内某股份制商业银行 2243 台 ATM 机具作为数据样本,范围覆盖全国31个省、直辖市、自治区,型号包括取款机、存取款一体机和循环机。数据来源为 ATM 机具原始监控报表数据和流水日志,数据时间范围跨度为两年。为构建智能预测模型,本文选定特征参数,通过取均值、中位数、方差等统计学方法对报表数据进行计算加工,最终得出 4 个特征参数,包括故障次数、满钞时间、离柜率趋势和日均繁忙时间。同时选定“撤机”与“不撤机”作为输出标签,该标签为相关业务管理部门根据 ATM 机具所在地区综合环境、成本、运行情况等要素,通过专家评分,最终给出的一套贴合业务实际的是否撤机标识。项目设计
175、了一个两比特的量子神经网络对是否撤机进行分类,最终准确率达到 75.57%,达到预期效果。应用优势 通过将量子计算于神经网络结合,能够实现复杂建模,并对未来的发展趋势进行预测。硬件要求 本用例使用量旋双子座量子处理器。技术成熟度 目前对量子神经网络的研究还集中于小规模的实现,距离实现大规模商用仍有距离,成熟度偏低。技术难点 为实现更大规模的量子神经网络,需要在当前 NISQ 背景下实现更多的量子比特和更加稳定、准确度更高的量子硬件与算法。应用前景 未来可以在更大规模的量子计算机上实现量子神经网络,对相关的问题进行处理和解决。信息来源 https:/ 3.银行客户流失预测银行客户流失预测 表 7
176、 银行客户流失预测 用例名称 银行客户流失预测 量子人工智能技术白皮书 93 用例研究方 QC Ware、Ita Unibanco 用例提出时间 2022 年 应用问题需求 为更加准确地预测银行用户的稳定性,加强客户维护及提供更优质服务,需要提前判断用户在未来短期内流失的可能性,为银行业务的开展提供支撑。实现方案 QC Ware 利用 Ita Unibanco 提供的有效性长达两年的匿名用户数据和 180,000 个左右的数据点,基于行列式采样技术,开发出了用于训练客户留存模型的量子算法,利用训练的算法模型预测在未来三个月内客户流失的情况。此外,QC Ware 还尝试在经典计算机上实现这些量子
177、算法的量子嫁接,从而改进了 Ita Unibanco 的原有模型,并将捕获的提款量增加了 2%,同时将其整体模型的精度从 71%提高到 77.5%。应用优势 相比于传统计算方式,量子计算能够更加精确地对大规模数据进行运算处理,提升模型预测精确度。硬件要求 该用例暂未使用量子计算机运行,算法已经在经典计算机上实现。技术成熟度 已经实现算法原理设计和经典计算机的嫁接应用,但尚未在真实量子计算机运行,成熟度偏低。技术难点 依赖于量子计算机硬件实现,需要实现大规模量子比特运算和合理范围内的噪声控制。应用前景 能够高效、准确地实现预测任务,未来具有广泛应用前景。信息来源 https:/ 表 8 基于量子
178、生成对抗网络的图像生成 用例名称 基于量子生成对抗网络的图像生成 用例研究方 中国科学技术大学 用例提出时间 2021 年 应用问题需求 生成对抗网络(GAN)处于生成学习的前沿,已广泛用于图像处理、视频处理和分子开发。尽管 GAN 取得了广泛的成功,但巨大的计算开销使它们接近摩尔定律的极限。例如,具有 1.58 亿个参数的 BigGAN 经过 2 天的训练,使用 1400万个示例和 512TPU 生成 512512 像素图像。最近,理论工作表明,量子生成模型可能比经典模型表现出指数优势,引起了对量子 GAN 理论和实验的广泛研究兴趣。实现方案 2021 年,中国科学技术大学潘建伟院士研究组在
179、超导量子处理器上通过实验实现了真实世界手写数字图像的学习和生成。遵循 GAN 的常规,该方案中利用了生成器 G 和判别器量子人工智能技术白皮书 94 D之间的两人极小极大游戏。实验中采用12个量子比特组成的链式结构,最高可选择 6 个相邻比特。单比特门和受控 Z门的平均保真度分别为 0.9994 和 0.985。从光学识别的手写数字数据集中选取两个样本,每个训练样例是一个 88 像素的图像,M=64。实验中设置 T=4,N=5,可训练参数的总数为 100。结果标明,实验量子 GAN 输出与模拟量子 GAN相似质量的图像,在当前的噪声水平和系统大小下对噪声不敏感。此外,利用灰度条形数据集展示了量
180、子 GAN 和基于多层感知器和卷积神经网络架构的经典 GAN 之间的竞争性能,分别以Frchet距离得分为基准。实验中还使用量子批处理 GAN 来完成灰度条形图像生成任务,以验证其生成能力。应用优势 量子生成对抗网络相对于经典生成对抗网络具有指数加速的特征。该方案能够完成具有高维特征的图像生成,并可以利用量子叠加特性并行训练多个示例。此外,量子 GAN 具有减少训练参数的潜在优势。硬件要求 实验中采用了 12 比特量子计算芯片。技术成熟度 目前,利用量子 GAN 生成图像的可行性已经得到证明,其性能与数值模拟的量子 GAN 网络接近。但由于当前量子计算硬件能够实现的比特数有限、且存在较大噪声,
181、尚未实现大规模的实际应用。技术难点 该方案在处理大规模问题时需注意维持其可训练性并避免贫瘠的高原。可能方法包括设计贫瘠高原免疫 ansatz,通过将大尺寸问题剪裁成多个小尺寸问题,以保证量子补丁 GAN的可训练性。另外,提升量子 GAN 性能的一个基本原则是不断提升量子处理器的质量,例如,更大数量的量子比特,更多样化的连接性、更低的系统噪声和更长的退相干时间。应用前景 由于 GAN 在图像识别和处理方面的巨大潜力,未来在量子计算软硬件完善后,量子 GAN 方法可以广泛用于图像识别、及其视觉、增强现实 AR、医疗等领域。信息来源 Physical Review Applied 16,024051
182、(2021)(五五)量子人工智能典型应用:生物制药量子人工智能典型应用:生物制药 1.模拟蛋白质折叠模拟蛋白质折叠 表 9 量子退火机上的粗粒度格点蛋白质折叠 用例名称 量子退火机上的粗粒度格点蛋白质折叠 用例研究方 ProteinQure、University of KwaZulu-Natal 用例提出时间 2018 年 量子人工智能技术白皮书 95 应用问题需求 通过模拟蛋白质折叠过程,可以在各种不同异构蛋白质分子中找到最低能的结构。由于蛋白质的大分子特性,寻找好的蛋白质模拟方法这一直以来是个巨大的挑战。利用格点模型模拟的方法是其中一个应用于蛋白质折叠和设计的方法,但计算格点模型蛋白质的异
183、构体基态能问题已被证实是一个 NP完全问题,在经典计算机的上的模拟规模被限制在100个氨基酸长度上,更大规模的蛋白质折叠模拟工具还有待开发。实现方案 研究人员把蛋白质折叠的结构预设在一个立方体格点上,通过编码的方式,把蛋白质分子的“生长”路径对应的链条生长方向编码为二进制数据。根据蛋白质的化学特性构建出对应的哈密顿量和量子线路,随后在量子退火机 D-Wave 2000Q 上运行。作为算例,求解一个包括 10 个氨基酸的蛋白质分子用了 0.377 秒。应用优势 该研究建立了一个拥有更高复杂度格点的蛋白质折叠模型,并且可以在量子芯片/量子计算机上实现。这些模型可以扩展到其他类似的量子系统的模拟中。
184、硬件要求 基于量子退火算法的量子计算芯片 技术成熟度 目前该技术还处于科学探索的阶段,在测试算例中还只包括了 8 个与 10 个氨基酸的蛋白质分子。技术难点 该方法要求大规模的量子退火机和更高精度的量子控制技术。应用前景 该方法将来扩大规模后能提供更大规模的蛋白质折叠模拟,从而在现在的蛋白质/大分子结构搜索中发挥作用。信息来源 https:/arxiv.org/abs/1811.00713v1 2.模拟氢链结合能和二氮烯异构化反应模拟氢链结合能和二氮烯异构化反应 表 10 模拟氢链结合能和二氮烯异构化反应 用例名称 模拟氢链结合能和二氮烯异构化反应 用例研究方 谷歌 用例提出时间 2020 年
185、 应用问题需求 化学反应是实现分子合成的重要过程,而分子合成是化学材料研发的重要基础。化学反应的过程计算量大、复杂度高,经典的计算方法难以揭示化学反应的真实过程。需要一种效率更高、复杂度更低的方法解决分子合成的模拟问题。实现方案 氮氢反应是较为基础的化学反应,本用例模拟了氢链的结合能和二氮烯的异构化反应。Hartree-Fock 运算方程近似于一个真实化学系统,因此成为了最常用于分子模拟的方法之一。变分量子特征值求解方法(VQE,Variational Quantum Eigensolver)作为一种目前最主要的量子算法之一,能够有效地降低量子线路的深度,减小量子噪声的影响。适合用于量子人工智
186、能技术白皮书 96 在近期含噪中等尺度的量子器件上实现量子计算。研究人员使用了噪声鲁棒的变分量子特征求解算法 VQE 对 Hartree-Fock 模型进行完善,模拟化学反应体系的基态能量。该模拟实验在多达 12 个量子位上执行,涉及 72 个双量子位门。分别求解了氢链的结合能(包括 H6、H8、H10、H12)和二氮烯的异构化机制。研究证明,量子模拟与传统计算机上执行的模拟结果基本吻合,采用VQE和误差降低策略结合的方式能够实现化学模拟所需要的精度,可以确定量子模拟的有效性。应用优势 发挥了量子计算的原貌计算优势。相比于传统的化学反应计算方式,量子计算能够实现更大化学系统的复杂模拟。硬件要求
187、 本用例使用谷歌 Sycamore 量子处理器。技术成熟度 目前,利用量子计算对化学反应机理进行模拟预测的方式仍然停留在中等规模反应的实验验证阶段,实现大规模商用仍有距离,成熟度偏低。技术难点 为准确模拟更大规模的化学分子反应,需要在当前 NISQ 背景下实现更多的量子比特和更加稳定、准确度更高的量子硬件与算法。应用前景 未来可以将量子模拟中等规模化学反应机理的方法扩大应用到更大分子的化学作用中,来预测更加复杂的反应结果。在化学材料研发和制造过程中发挥重要作用。信息来源 https:/www.science.org/doi/full/10.1126/science.abb9811 3.利用量子
188、熵因果推断做新药的活性预测利用量子熵因果推断做新药的活性预测 表 11 利用量子熵因果推断做新药的活性预测 用例名称 利用量子熵因果推断做新药的活性预测 用例研究方 Pennylane、Purdue University 用例提出时间 2022 年 应用问题需求 药物研究与开发是一项周期长、耗资大、风险高、竞争激烈、利润高的系统工程,一个新药从概念产生、实验室先导化合物的确定、优化、临床试验到最终上市,需要花费 10-15 年时间,研发费用高达数亿美元以上。而提高药物分子的活性预测可以减少新药研制的实验次数,缩短周期,节省成本。目前市场迫切需要高效的预测方法。实现方案 通过模拟分子哈密顿量来建
189、立量子和化学分子两个领域之间的联系,并通过因果推断值来判断药物分子的活性。研究人员提出的算法框架可以在将观测因果推理从量子领域引入化学分子领域方面发挥基础作用。首先,研究人员通过 Hartree-Fock 方法模拟分子哈密顿量,然后通过经典和量子条件密度矩阵之间的空白,定义量子因量子人工智能技术白皮书 97 果模型。并使用贪婪算法,开发了一种可扩展的量子熵因果推断算法。最后,利用分子对接软件PyMOl模拟目标靶点与候选药物之间的相互作用,计算两者之间的亲和力大小和因果关系。这可加速并提高药物分子的活性判断,以降低实际筛选化合物数目,同时提高先导化合物发现效率。虚拟筛选可快速从几十至上百万化合物
190、中,遴选出具有潜在成药性的活性化合物,大大降低实验筛选化合物数量,缩短研究周期,降低药物研发的成本。应用优势 因果推断在人工智能和诸多交叉领域产生了卓越的影响,借助量子因果结构方程,将机器学习的鲁棒性、泛化能力、可解释性等特点推广到生物制药的药物研发,这将有助于有效提升预测,快速准确地得到最佳方案。硬件要求 启科量子模拟计算机 技术成熟度 该技术已建立了可扩展的量子熵因果推断算法和药物分子的能量状态与量子哈密顿量的能量损耗关系,但在分子对接目标靶点与候选药物之间的因果推断的准确性方面尚未在实际的大规模数据中进行应用,成熟度较低。技术难点 数据来源于不同的实验室,不同实验室在实验过程中可能会存在
191、误差,导致数据的整合缺乏标准。由于数据本身就会存在系统误差,导致数据精准度不高,从而影响到进一步的预测。应用前景 该算法可进一步应用于计算靶点发现、靶点预测和更为复杂药物优化等方面,将在未来的药物研发领域发挥重要作用。信息来源 https:/arxiv.org/abs/2102.11764 2102.11764 量子熵因果推断(arxiv.org)4.分子对接分子对接 表 12 高斯玻色采样(GBS)的分子对接 用例名称 高斯玻色采样(GBS)的分子对接 用例研究方 Xanadu,ProteinQure 用例提出时间 2022 年 应用问题需求 分子对接是一种用于基于结构的合理药物发现的计算工
192、具。对接算法从药物分子(配体)和目标大分子(受体)的非结合三维结构出发,预测两者之间的非共价相互作用。这种算法的输出是预测配体相对于受体结合位点的三维方向以及每个方向的各自得分。高性能的算法使分子对接可用于针对一个或多个蛋白质目标筛选大型化合物库。然而,评估数十亿的化合物需要准确和计算效率高的算法进行结合姿势预测。目前已有获得分子对接构型的既定算法,但在工业药物设计中出现了一个挑战,即必须针对一个药物目标筛选大量的候量子人工智能技术白皮书 98 选分子。在这种情况下,需要一种快速预测对接配置的方法。实现方案 研究人将接触点建模为配体和结合位点的标记距离图的一对相互作用的顶点。然后用 GBS 生
193、成最大权重的“分子团”。接着用贪婪收缩找到最大的“分子团”。如下图显示:经过实验,GBS 分子对接成功率能达到 70%,而经典随机采样的成功率大约在 35%。应用优势 高斯玻色子采样器等光子设备可以以非常高的速率运行,并有可能在更短的时间内提供解决方案。此外,通过对更好的随机子图进行采样,GBS 可以作为一种技术来提高经典算法的性能,因为它提高了识别大加权“小团体”分子的成功率。这一特性也适用于其他的图论应用。硬件要求 本用例未使用量子硬件进行实现。技术成熟度 底层技术目前已经成熟,但是在算法和应该层面目前处于快速迭代期。技术难点 该方法要求大规模高可靠实时能调用的量子随机采样设备。应用前景
194、该方法将来扩大规模后能够加速小分子搜索,从而加快药物研发。信息来源 arXiv:1902.00462v1(六六)量子人工智能典型应用:交通物流量子人工智能典型应用:交通物流 1.消除空中交通轨道冲突消除空中交通轨道冲突 表 13 消除空中交通管理的最佳轨迹冲突 用例名称 消除空中交通管理的最佳轨迹冲突 量子人工智能技术白皮书 99 用例研究方 德国航空航天中心(DLR)用例提出时间 2020 年 应用问题需求 空中交通管制(ATC)的主要职能之一是确保在共享空域内安全飞行。其中涉及解决航班之间的潜在冲突,“冲突”是指违反在空域中建立的间隔规范。为航班预分配的空中交通网络航线正在变得饱和,必须采
195、用新的方法来满足未来几十年不断增长的空中交通需求。传统的解决方案是沿风的最佳轨迹,实现燃料成本最小化。但由此将造成航线冲突,如何优化航线是长期以来的一个研究课题。实现方案 本研究利用量子退火来解决空中航线最优轨迹的冲突。首先将冲突解决问题表述为二次无约束二元优化(QUBO)问题,鉴于 QUBO 问题的离散性质,必须引入可调离散化。由于航班数量大,风向最优轨迹无法直接映射到 QUBO 模型中。为了克服这个限制,解决航线冲突问题的方案为仅修改部分风的最佳轨迹,从而延迟飞行分配。因此,风的最优轨迹可以在冲突解决问题的 QUBO 公式进行“硬编码”,航班延误是唯一需要优化的变量。研究人员提出了几种不同
196、的 QUBO 映射,包括局部和全局轨迹偏差以及包含和排除策略。再使用 D-Wave 的嵌入算法,将几个较小的问题实例嵌入到 D-Wave 2X 以及 D-Wave 2000Q 上。初步结果表明,在选择合理的建模方式的前提下,在当前传统计算中最具挑战性的问题在退火时间内能够以 99%的概率得到最优解。应用优势 利用量子退火技术可以实现航线冲突等复杂方案问题的优化,化解经典计算所面临的计算实际长、无法解决复杂问题的困境。硬件要求 D-Wave 2X 和 D-Wave 2000Q。技术成熟度 该技术已经在量子计算机实现验证,但规模不大,技术成熟度中等。技术难点 未来如何实现更大规模计算和更高精确度。
197、应用前景 能够高效地解决复杂方案优化问题,具备广阔的应用前景。信息来源 https:/ieeexplore.ieee.org/abstract/document/8643733 2.量子计算流体力学量子计算流体力学 表 14 量子计算流体力学 用例名称 量子计算流体力学 用例研究方 本源量子 量子人工智能技术白皮书 100 用例提出时间 2021 年 应用问题需求 计算流体力学(Computational Fluid Dynamics,CFD)是流体力学、数学和计算机科学多学科相融合的交叉学科,借由计算机的强大计算能力和离散化数学方法,数值求解流场信息,目前在航空航天、海洋工程、能源工程等领域
198、得到了广泛应用,很大程度上降低了试验成本,加快了工业设计流程。然而,传统计算机在面对一些对计算精度要求苛刻、网格量巨大的情况时,也会感到“力不从心”,这严重阻碍了工业设计的效率。实现方案 传统 CFD 的主要离散方法有:有限差分、有限元以及有限体积法等。其中有限体积法由于其良好的守恒性和网格适应性,常用于商业软件及开源软件中。但在上述方法中,往往避免不了由于网格数增加带来的计算资源和计算时间的大幅消耗。为了解决上述问题,本源量子与中科大联合研究团队提出了可支持经典数据输入和输出的量子有限体积法,该方法运用量子线性求解器作为子过程,并结合自主设计的量子随机存储器(QRAM)和量子数据结构,将经典
199、算法的线性复杂度降低到亚线性。CFD 计算软件“本源量禹”使用量子线性求解器代替了传统的求解器,基于量子虚拟机运行(未来可直接对接真实量子计算机),从理论上可以实现对 CFD 仿真计算的亚线性加速。量子线性求解器包括 HHL 和 FOM-HHL 算法,为降低系数矩阵的条件数加速计算速度,提供了包括静态稀疏近似逆等多种预处理器;本源量禹适用于不可压缩流动和可压缩流动的求解,定常和非定常流动的求解。应用优势 可将经典算法的线性复杂度降低到亚线性,极大的提高 CFD 计算的速度和效率。硬件要求 本用例使用本源量子虚拟机。技术成熟度 受限于当前量子计算机的规模,该算法应用还处于前期的演示阶段,规模性商
200、用尚有一段距离,成熟度偏低。技术难点 为了实现真正的商业应用,量子计算机需要更多的量子比特以及纠错能力。应用前景 未来,在航空航天、热能动力、环境工程等领域,可以进行更高效的数值仿真实验。信息来源 本源量子提供案例(七七)量子人工智能典型应用:能源电力量子人工智能典型应用:能源电力 表 15 电力系统故障检测 用例名称 电力系统故障检测 用例研究方 康奈尔大学 量子人工智能技术白皮书 101 用例提出时间 2021 年 应用问题需求 随着能源电网变得越来越复杂和分散,并且太阳能和风能等可再生但间歇性能源的重要性不断增加,能源网络中高效且有效的故障检测需求将继续增长。如果能够及早且准确地检测到错
201、误,就可以减轻停电或电压波动等关键问题的影响,并减少由级联故障引起的大规模问题。实现方案 量子计算在电力系统故障检测方面,所研究的电力系统是IEEE 30 节点测试系统,该系统由 41 条输电线路、5 台发电机和变压器以及 30 个节点(连接多个其他组件的节点)组成。根据在每个节点记录的电压和电流时间序列数据,需要识别出 10 种不同类型的故障。该网络(完全经典)由一个条件限制玻尔兹曼机(CRBM)层进行特征映射,然后由几个下游神经网络层进行分类。量子计算仅用于加速和改进 CRBM 层的训练,作者使用 D-Wave 量子退火器作为设备,从 CRBM 的输出分布中进行采样来辅助训练。应用优势 该
202、方法与经典训练的相同模型以及其他一些纯经典故障检测算法进行了比较。结果发现,与经典算法相比,量子辅助方法在速度和准确性方面表现更好。硬件要求 本用例未使用量子硬件进行实现。技术成熟度 目前,该应用仍停留在试验验证阶段,实现大规模商用仍有距离,成熟度偏低。技术难点 需要更加稳定、准确度更高的量子算法。应用前景 未来可以用量子人工智能替代当前需要处理大规模数据的人工智能建模方案,提升预测效率和准确度,应用前景广阔。信息来源 https:/ 1.淋巴结转移阶段预测淋巴结转移阶段预测 表 16 乳腺癌术前淋巴结转移阶段预测 用例名称 乳腺癌术前淋巴结转移阶段预测 用例研究方 约翰保罗二世癌症研究所 用
203、例提出时间 2021 年 量子人工智能技术白皮书 102 应用问题需求 通过对癌症等复杂疾病的生物医学表征数据进行计算分析,能够对临床决策提供科学的算法支持。特别是对于以乳腺癌为代表的早期肿瘤仍然可以通过治疗和手术方式进行控制。因此需要研发出快速、准确的算法对病人的医疗数据进行分析预测,帮助制定更加科学的诊疗方法。实现方案 案例研究包括乳腺癌患者术前淋巴结转移阶段的预测,导致临床和放射学检查后的阴性诊断。用于建立基线的分类器的特点是输入特征的顺序排列的结果不变性,并且它利用了训练过程中的分层。量子模拟高维特征空间中的支持向量机映射,通过编码成量子比特产生,同时具有复杂性。利用特征选择来研究与少
204、量特征相关的性能,从而在可行的时间内实现。在两种分类系统类型的交叉验证期间,在选定的最佳分类器中观察到灵敏度和特异性的广泛变化,根据两种训练方案之间的选择,更容易检测到负例或正例。即使量子启发分类器电路的灵活结构保证了特征之间规则相互作用的进一步发展,临床实践仍远未实现:这项初步研究仅旨在以简化版本提供特定的树张量网络方案的概述仅采用产品状态,并引入由特征选择和分类器性能评估组成的典型机器学习过程。应用优势 发挥了量子计算的高效计算优势。相比于传统的人工智能建模方式,量子计算能够实现更加准确和快速的大规模数据预测。硬件要求 本用例未使用量子硬件进行实现。技术成熟度 目前,利用量子人工智能实现建
205、模预测的应用仍停留在试验验证阶段,实现大规模商用仍有距离,成熟度偏低。技术难点 为实现大规模数据处理和建模,需要在当前 NISQ 背景下实现更多的量子比特和更加稳定、准确度更高的量子硬件与算法。应用前景 未来可以用量子人工智能替代当前需要处理大规模数据的人工智能建模方案,提升预测效率和准确度,应用前景广阔。信息来源 https:/ 2.量子医疗图像算法量子医疗图像算法 表 17 量子医疗图像算法 用例名称 量子医疗图像算法 用例研究方 麻省理工学院 用例提出时间 2020 年 应用问题需求 核磁共振图像、断层扫描图像等医疗图像需要通过重建算法进行处理优化。传统的图像重建算法通常利用目标图像或函
206、数与其在频域(傅立叶)域中的表示之间的关系。量子人工智能技术白皮书 103 实现方案 医学成像的核心任务是从医疗设备(例如 CT、MRI 和 PET 扫描仪)收集的数据中重建图像或功能。当数据作为量子态输入时,研究人员提供了用于图像重建的量子算法,其速度比经典算法指数加速。由于算法的输出存储在量子态中,重建图像的单个像素可能无法以经典方式有效地访问;研究人员同时提出了使用各种量子后处理算法从输出中提取信息的各种方法。由于量子算法的输入是波函数,因此可以开发新的实验方法以使用更少的资源(例如时间或辐射)收集或构建此输入波函数,并将结果状态直接输入到可以执行量子图像的量子计算机中重建算法。应用优势
207、 量子图像重建算法更加高效,在多数情况下,只需要相对于图像大小(或像素数量)的多对数的时间。其次,用于图像重建的量子算法对量子波函数(与经典采样数据相反)执行操作,证明以量子力学方式收集输入数据的可能性,使用可能更少的时间或更小的辐射剂量。硬件要求 本用例未使用量子硬件进行实现。技术成熟度 目前,医疗图像的量子算法仍主要为理论研究,实现实际应用需要低噪声、强算力的硬件支持。距实现大规模商用仍有距离,成熟度偏低。技术难点 需要在当前 NISQ 背景下实现更多的量子比特和更加稳定、准确度更高的量子硬件。应用前景 未来可以将量子医学算法应用到更多临床试验中,探索更加高效、准确的图象识别方案。为未来医
208、学提供更加精确的图像识别辅助,极大地提高未来的医疗水平。信息来源 https:/arxiv.org/pdf/2004.02036.pdf 3.医疗认知计算医疗认知计算 表 18 医疗认知计算 用例名称 医疗认知计算 用例研究方 伦敦大学学院(UCL)、Siemens Healthineers 用例提出时间 2020 年 应用问题需求 医疗保健行业正在经历数据爆炸式增长,同时医疗保健成本也在上升。需要医疗保健领域的认知计算正在将大数据与先进的机器学习、量子计算等技术结合使用,以帮助医生及早发现疾病、改善治疗效果并最终降低护理成本。实现方案 使用量子预训练和自动编码器进行图像分类在医学图像分析领域
209、得到应用。在短期内量子设备上处理图像的主要挑战是数据大小,需要对大的、多维的且具有多个颜色通道的图像进行分析。为避免进行大量手动预处理,研究人员提出了一量子人工智能技术白皮书 104 个框架解决在小型量子设备上处理大规模数据的问题。该框架不需要特定的数据集信息,适用于大尺寸灰度和 RGB 图像,能够扩展到更大的量子硬件架构。在该方案中,可以训练经典的自动编码器,将图像数据压缩到可以加载到量子设备上的大小。然后使用压缩数据在 D-Wave 设备上训练受限玻尔兹曼机(RBM),并使用 RBM 的权重初始化神经网络以进行图像分类。该方案已经在两个 MNIST 数据集和两个医学成像数据集上得到证明。应
210、用优势 通过对医疗图像进行处理,并加载到量子计算机进行识别计算,能够实现对大规模医疗影像数据的分析,相比经典计算具有更高效率和准确度。硬件要求 D-Wave 量子计算机。技术成熟度 该技术已经在多个数据集上实现验证,尚未在实际的大规模数据中进行应用,且对量子计算机的准确度高度依赖,技术成熟度中等。技术难点 该技术的难点在于如何克服量子计算机的噪声,以及如何实现更大规模数据的准确计算。应用前景 未来在实现数据的高精度运算前提下,该方案将在医疗诊断领域具有广泛应用前景。信息来源 https:/ 1.元材料设计元材料设计 表 19 利用量子退火和因子分解机器的元材料设计 用例名称 利用量子退火和因子
211、分解机器的元材料设计 用例研究方 东京大学和其他日本研究机构 用例提出时间 2020 年 应用问题需求 材料设计自动化近期已经成为一种趋势。但在复杂材料设计中面对的是变量指数型增长组合优化问题挑战,而且往往是经典算法无法有效处理的。现有的经典算法使用的是如局部搜索、树搜索和遗传等算法,而这些算法求得的精度往往是次优。实现方案 为了突破解决这组合优化问题的算力障碍,该方案提出了使用机器学习里的因子分解机器(FM,Factorization Machine)和机器量子退火来有效解决此障碍。实现方案分成三个部分。第一步是对于量子退火所求得的材料组合,使用 FM 做回归,以取得该组合的指标分数(FOM
212、,Figure Of Merit)。使量子人工智能技术白皮书 105 用 FM 能够线下(不做耗时的仿真计算)反馈材料组合的回归 FOM,让量子退火算法能快速迭代寻找最优解。第二步是根据量子退火算法根据 FM 回归所求得的最优组合,通过模拟仿真去计算出更高精度(但更耗时)的FOM。这结果会反馈回到 FM,更新 FM 模型,让 FM 能逐渐提升回归精度,更好地预测材料组合的 FOM。第三步是使用量子退火算法来对材料组合数学建模的二次无约 束 二 元 优 化(QUBO,Quadratic Unconstrained Binary Optimization)或等价的伊辛(Ising)模型求解。目标函
213、数正是第一步 FM 所能回归的函数值。这三步迭代至收敛为止,或执行时间已超出阈值。此方案的实验主要是聚焦在辐射天空冷却(Radiative Sky Cooling)材料上。目标元材料结构包括了 Si02 和 SiC,嵌在聚甲基丙烯酸甲酯(PMMA)里(左图)。组合优化问题在于每一层的 PMMA 是否要由 Si02 或 SiC 取代(中图)。量子退火所求得的解会根据模拟仿真计算出排放功率(Emissivity power),再由此去推算出辐射天空冷却值,也就是目标函数值(右图)。应用优势 巧妙结合了量子退火和机器学习后有效运用到解决材料设计所衍生的组合优化问题。硬件要求 本用例使用 D-Wave
214、 的量子退火求解器。技术成熟度 目前成熟度相对低。此技术在小规模实验中有得到验证,但放大规模后的效果有待观察。技术难点 除了组合优化问题常遇到的局部最优解外,FM 模型的初始化非常关键。如果 FM 模型没法有效初始化,回归出来的目标函数值 FOM 没法正确引导量子退火求解器收敛到最终高精度解。应用前景 预计此技术会继续推进和完善,对于材料设计会有较大影响,能考虑到之前没出现或研究过的材料组合,而且其特性会更贴近应用场景里所需属性。信息来源 https:/link.aps.org/doi/10.1103/PhysRevResearch.2.013319 量子人工智能技术白皮书 106 2.电池材
215、料模拟电池材料模拟 表 20 模拟含锂分子的偶极矩 用例名称 模拟含锂分子的偶极矩 用例研究方 IBM、戴姆勒(Daimler)用例提出时间 2020 年 应用问题需求 目前,电动汽车面临的挑战之一是电池的容量和充电速度,为了提升电池容量和充电速度、延长电池使用寿命、降低制造成本,需要研制更优的锂电池电极材料。为了模拟分析锂电池工作时所产生的复杂化学分子,利用量子计算能够高效地解决复杂的分子模拟问题。实现方案 利用 IBM QValencia 上的 4 个量子位模拟了锂硫电池在运行过程中可能形成的分子的基态能量和偶极矩,这些化学分子包括氢化锂(LiH)、硫化氢(H2S)、硫化氢锂(LiSH)和
216、所需产物硫化锂(Li2S)。从而进一步分析建模各分子在电池中储存和释放电能的性能。首先,利用 Qiskit 破坏分子中的化学键,改变不同原子之间的原子距离。当分子键被拉伸时,分子系统用高度“纠缠”的状态来描述。然后,利用 IBM Q Valencia 设备计算 LiH 的偶极矩,并模拟了其他三个分子的偶极矩,从而得到分子在键断裂时跨不同原子的电子分布。在量子计算不可避免的嘈杂背景下,IBM 还研发了相应的误差缓解技术。将 IBM 量子模拟器在经典计算机上的计算结果与量子计算机的模拟结果相对比,可以发现使用量子计算机已经能够得到足够精确的结果。应用优势 相比传统的材料研发方式,量子计算机能极大的
217、加速材料分子建模和模拟的速度,缩短材料开发时间。硬件要求 利用 5 个量子位的 IBM 量子计算机中的 4 个量子位进行建模仿真。技术成熟度 该技术处于研究试验阶段,尚未开展利用真实量子后端的规模化应用。技术难点 如何减小量子噪声对结果准确度的影响以及更大比特数的规模化括展。应用前景 通过利用量子计算的高效及解决复杂计算的优势能够解决复杂分子反应问题,未来能够广泛应用于快速和准确研发性能更优新型材料。信息来源 https:/arxiv.org/abs/2001.01120 3.新材料和催化剂研发新材料和催化剂研发 表 21 新材料和催化剂研发技术研究 量子人工智能技术白皮书 107 用例名称
218、新材料和催化剂研发技术研究 用例研究方 Covestro、QC Ware 用例提出时间 2021 年 应用问题需求 目前许多复杂的化学模拟问题无法利用经典计算实现突破,通过开放量子计算工具,需要利用量子计算机实现更加高效的方法对工业应用所需的大规模分子进行建模。实现方案 目前的研究成果包括两个,一是一种用于费米子系统 VQE电路结构,二是一种在量子计算机上计算能量梯度的新方法。第一个研究的实现方案为将 VQE 电路结构用于在 Jordan-Wigner 映射下模拟分子和材料的强相关基态和激发态,可以在局部线性实现并保留所有相关的量子数。研发的纠缠器电路已经在低深度和参数计数下具有表现力,并且当
219、参数数量变得足够大并被适当初始化时,无需跨越梯度消失区域即可进行训练。仅通过轨道旋转和对交换门的结构就可以实现这一点。推导出最优的四项参数移位规则,并提供量子数保持门的显式分解,在高达20个量子位上对高度相关的分子进行数值演示。这一技术降低了电路深度和连接要求,可以显著减少设计新材料和化学工艺所需的量子计算资源。第二个研究开发了关于系统参数的基态和激发态能量的分析梯度,包括应用于费米子系统的混合量子/经典多态收缩变分量子本征求解器(MC-VQE)的核坐标。展示了如何通过与获得 VQE 能量类似的量子作用力来评估对梯度的响应贡献,并且通过采用拉格朗日形式来评估总导数。此外,在求解量子响应方程时,
220、与参数移位规则相一致的方向导数的大步长有限差分处理可以显着降低处理量子参数 Hessian 的复杂度。该技术使计算具有数百个原子的系统的解析导数特性成为可能,同时在量子计算机上求解了它们最强烈相关的轨道的活动空间。这一计算能量梯度的新方法,将用于模拟化学反应、催化剂、产物、过渡态和催化特性等关键特性。应用优势 通过利用量子计算进行化学模拟,可以提供复杂计算的解决能力和很高的计算效率,实现更加高效的新材料开发和生产流程,在材料研究方面取得突破并节约计算资源 硬件要求 研究一使用了20个量子位,未来研究的量子位规模将不断扩大。技术成熟度 仍处于研究阶段,距离规模化应用仍需要更多比特位和更低噪声的量
221、子计算机。技术难点 需要克服量子计算机噪声并实现更大规模的模拟。应用前景 量子计算能够为材料研究提供更加快速、准确的化学模拟方法,应用前景广阔。量子人工智能技术白皮书 108 信息来源 https:/arxiv.org/abs/2104.05695 https:/arxiv.org/abs/2110.05040 4.时间晶体模拟时间晶体模拟 表 22 量子计算机模拟时间晶体 用例名称 量子计算机模拟时间晶体 用例研究方 谷歌、墨尔本大学 用例提出时间 2021、2022 年 应用问题需求 时间晶体是由诺贝尔物理学奖获得者 Frank Wilczek 于 2012年提出的一种新的物相。时间晶体结
222、构不满足时间平移对称性,能够在两种状态之间周期循环却不损失能量。时间晶体的运动规律不受热力学第二定律限制。这种奇异的特性及全新的物理行为,有助于突破现有物理学的理解。然而,在实验中观察这种非平衡相难度非常大。之前的实验研究中都存在一些局限。如亚谐波响应,本身并不是非平衡相的独特属性;反而是许多动力学的特征。在囚禁离子或 NV 色心等量子平台中观测到的非平衡相特征,都缺乏稳定的一个或多个必要条件,比如缺乏失序类型或者长程相互作用。这些特征可能是由于缓慢热化、有效的平均场动力学或来自特殊初始状态的热前的特殊初始状态动力学等原因引起的。实现方案 2021 年,谷歌公司及其合作团队利用“悬铃木”超导量
223、子计算机,利用 20 个 transmon 结构的量子比特,实现了时间晶体模拟。首先在一组链式结构的超导量子比特上实现了可调谐控制相位(CPHASE)门,通过实验观察并展示其对通用初始状态的特征时空响应。同时采用时间反转协议来量化外部退相干的影响,并利用量子典型性来规避密集采样特征谱的指数成本。最后通过实验有限尺寸分析定位了相变。2021 年,墨尔本大学物理学院的 Philipp Frey 和 Stephan Rachel 使用 IBM 量子计算机制造出了迄今为止最大的时间晶体。新的时间晶体由 57 个量子比特组成,是谷歌模拟的20 比特时间晶体的两倍多。该系统复杂度已经超过了经典计算机的模拟
224、极限,显示了量子计算机模拟复杂系统的能力。在实验中,对于相互作用的特定设置,57 个量子比特的任何初始设置(如 01101101110)都保持稳定,每两个脉冲就返回到原始状态。这使得系统不受缺陷的影响。应用优势 这类研究达成了理查德费曼在 1981 年提出的使用量子计算机模拟量子物质的设想。研究成功不仅仅意味着创造新的物相,还在于开辟了探索凝聚态物理领域新机制机会,来了解物理学中全新非平衡状态。硬件要求 谷歌公司的实验模拟中使用了20个量子比特。墨尔本大学的实验采用了 IBM 公司提供的 57 个量子比特。量子人工智能技术白皮书 109 技术成熟度 目前,使用量子计算机进行时间晶体模拟的可行性
225、已经得到证明。但由于当前量子计算硬件能够实现的比特数有限、且存在较大噪声,尚未实现大规模的实际应用。技术难点 目前硬件性能和噪声影响了实验性能。比如在57比特时间晶体模拟中,原则上其翻转模式应该无限期地持续,但 IBM 机器中的量子比特保持状态的时间只能模拟大约50个周期。因此仍需进一步研发、优化量子硬件实现技术。应用前景 未来在量子计算软硬件完善后,利用量子计算机进行新的量子物质模拟将大有可为,为物理学理论和实验前沿研究提供绝佳的检验平台。信息来源 Nature 601,531-536(2021)Science Advances 8(9),eabm7652(2022)五、量子人工智能产业发展
226、现状(一一)量子人工智能生态总体介绍量子人工智能生态总体介绍 近年来,伴随着量子计算和量子人工智能领域热度不断提升,各种学术研究和应用探索推动了国内外相关科技巨头和初创公司的发展。目前在全球超过 150 家量子计算硬件和软件企业中,有相当一部分尝试探索量子人工智能算法研究和应用场景探索,并且与传统互联网、人工智能、医疗制药、金融等领域的企事业单位签订合作协议,共同促进量子人工智能产业生态的建立。量子人工智能产业还处于早期探索阶段,按照硬件研发、算法服务和行业用户的维度,可以大致将量子人工智能产业分成如下图所示的上中下游。量子人工智能技术白皮书 110 图 43 量子人工智能产业链示意图 量子人
227、工智能的上游主要包括基础零部件的供应商和量子计算整机的开发商。量子计算处理器涉及多种技术路线,对材料、器件、组件的需求也不相同。其中核心材料器件包括微波测控系统、制冷系统、低温微波组件、真空系统、激光器及光学器件、高纯度同位素、I/O 连接线等,国内外国家企业布局该领域。量子计算处理器整机目前主流路线包括超导、离子阱、光量子、中性原子等。近年来国内外多家科技巨头和初创企业纷纷加大投入,在国家政策和资本市场的推动下取得了诸多突破性成果。比如谷歌公司基于“悬铃木”超导量子处理器首次证明了“量子优越性”;IBM 公司在云平台上推出 433 比特的超导量子处理器,是目前能公开接入的比特数目最多的超导量
228、子处理器;Quantinuum 公司的离子阱量子处理器的量子体积(QV)突破 32768(215),创下量子硬件量子体积的行业记录;XANADU 公司利用光量子处理器在高斯波色采样问题上实现了“量子优越性”;Pasqal 公司实现 324 位量子比特的中性原子大型量子处理器阵列。量子人工智能的中游主要指量子人工智能算法和应用的开发商。以 IBM、Google 为代表的科技巨头不仅在量子计算硬件研发和云平基础硬件供应商量子计算机开发商量子人工智能算法与应用开发商上游中游下游行业用户量子人工智能技术白皮书 111 台建设等方面持续发力,也注重量子计算与人工智能交叉领域的研究探索。此外,ZAPATA
229、、QCware、Qruise 等量子软件初创企业也纷纷布局量子人工智能领域。在国内华为、百度、腾讯、阿里、图灵量子等科技企业也将量子人工智能作为未来量子计算应用落地的主要方向之一,持续开展前沿研究。量子人工智能的下游主要是一些生物医药、金融、交通等领域的研究院所和科技企业。由于量子人工智能本身还处于开放探索的阶段,目前行业用户并未将量子人工智能应用到现实生产生活中,而是与中游企业签署合作协议,基于NISQ硬件共同探索未来应用场景。(二二)量子人工智能国外企业概况量子人工智能国外企业概况 1.量子人工智能主流企业量子人工智能主流企业 1)IBM 以 IBM、谷歌、微软为代表的国际科技巨头在持续开
230、展硬件研发和生态建设的同时,也纷纷开展量子人工智能的算法研究和应用探索。IBM 公司一直致力于量子人工智能的算法研究,并且将量子机器学习相关的算法、函数等集成到 qiskit 包中,供研究人员和行业用户方便调用。Qiskit 提供了不用应用场景中量子机器学习基本功能模块,如量子核和量子神经网络,应用场景包括分类和回归。允许用户在没有深入学习量子机器学习知识的情况下轻松调用和开发。Qiskit 机器学习提供了 FidelityQuantumKernel 类,该类利用了 Qiskit中引入的 BaseStateFidelity 算法,可以很容易地用于直接计算给定数量子人工智能技术白皮书 112 据
231、集的核矩阵,也可以传递给量子支持向量分类器(QSVC)或量子支持向量回归器(QSVR),以快速开始解决分类或回归问题。它还可以与来自已建立的经典框架的许多其他现有的基于内核的机器学习算法一起使用。Qiskit 机器学习定义了一个由不同量子神经网络实现的神经网络通用接口。很容易提供两个核心实现,例如EstimatorQNN 和 SamplerQNN。EstimatorQNN 利用了 Qiskit 的BaseEstimator 原语,并允许用户将参数化量子电路与量子机械可观测相结合。例如,可以使用 Qiskit 电路库中的构建块来构建电路,QNN 的输出由可观测值的预期值给出。SamplerQNN
232、 利用 Qiskit 中引入的另一个基元BaseSampler 基元。该神经网络将基元估计的比特串的准概率转换为期望的输出。此翻译步骤可用于在特定上下文中解释给定的位串,例如将其翻译成一组类。QNN 包括对给定输入进行评估以及计算相应梯度的功能,这对于有效训练很重要。为了训练和使用神经网络,Qiskit 机器学习提供了各种学习算法,如神经网络分类器和神经网络回归器。两者都将 QNN 作为输入,然后在分类或回归上下文中使用它。为了便于启动,提供了两种方便的实现方式变分量子分类器(VQC)和变分量子回归器(VQR)。两者都只需要一个特征图和一个模拟,并自动构建底层 QNN。此外,IBM与美国生物制
233、药公司Moderna合作,研究“量子计算+生成式AI”在 mRNA 研究中的潜力。量子人工智能技术白皮书 113 图 44 IBM 量子人工智能实现功能 2)谷歌谷歌 谷歌基于 TensorFlow 开发了 TensorFlow Quantum(TFQ),这是一个基于 Python 框架的可快速建立量子机器学习模型原型的开源库。TensorFlow Quantum 侧重于量子数据和构建混合量子经典模型。它提供了可将在 Cirq 中设计的量子算法和逻辑与 TensorFlow 相融合的工具。TensorFlow Quantum 实现了将 TensorFlow 与量子计算硬件集成所需的组件。为此,
234、TensorFlow Quantum 引入了两个数据类型基元:量子电路和泡利门集。量子电路是 TensorFlow 中 Cirq 定义的量子电路。创建大小不同的电路批次,类似于不同的实值数据点的批次。泡利门集是 Cirq 中定义的 Pauli 算子张量积的线性组合。像电路一样,创建大小不同的算子批次。利用这些基元来表示量子电量子人工智能技术白皮书 114 路,TensorFlow Quantum 提供以下运算:从电路批次的输出分布中采样;基于电路批次计算 Pauli 和批次的期望值,TFQ 实现了与反向传播兼容的梯度计算;模拟电路和状态批次。虽然在现实世界中直接检查整个量子电路的所有量子态振幅
235、的效率极低,但状态模拟可以帮助研究员了解量子电路如何将状态映射到接近精确的精度水平。TFQ 功能支持量子分类的监督学习、量子控制、模拟噪声量子电路和量子近似优化。此外,TFQ 可以用来处理高级量子学习任务,包括元学习、分层学习、哈密顿学习、采样热状态、变分量子本征解算器、量子相变分类、生成对抗网络和强化学习。TFQ 框架为量子计算和机器学习研究社区提供必要的工具,以探索自然和人工量子系统的模型,并最终发现可能产生量子优势的新量子算法。图 45 为 TFQ 的软件堆栈示意图,显示了它与TensorFlow、Circ 和计算硬件的交互。堆栈的顶部是要处理的数据。经典数据由 TensorFlow 原
236、生处理;TFQ 增加了处理量子数据的能力,包括量子电路和量子算子。堆栈的下一个级别是 TensorFlow 中的Keras API。由于 TFQ 的核心原理是与核心 TensorFlow 的本地集成,特别是与Keras模型和优化器的集成,因此该级别跨越了堆栈的整个宽度。在 Keras 模型抽象的下面是量子层和微分器,当与经典TensorFlow 层连接时,它们可以实现混合量子经典自动微分。在量子层和微分器的下面是 TensorFlow 操作,它实例化了数据流图。定制操作控制量子电路的执行,电路可以通过调用 qsim 或 Cirq 在模拟模式下运行,或者最终将在 QPU 硬件上执行。量子人工智能
237、技术白皮书 115 图 45 TensorFlow Quantum 软件堆栈示意图 3)微软微软 微软在量子人工智能领域的研究和应用非常活跃。微软的 Azure Quantum 平台是一个开放式的量子计算生态系统,科学家和工程师可以使用该平台进行量子应用的研发和部署。该平台结合了高性能计算、人工智能和量子计算的最新突破,以加速科学发现。微软的Copilot 创新模型是一种量子计算模型,旨在支持量子计算的发展和应用。Copilot 模型结合了量子计算和经典计算,可以帮助科学家和企业解决难以解决的问题。此外,微软还推出了一系列创新模型,如 Azure Quantum Elements 和 Quan
238、tum Compute Server,以帮助科学家和工程师更轻松地构建量子应用,并加速科学发现。2.量子人工智能初创企业量子人工智能初创企业 1)QC Ware 美国量子计算公司 QC Ware 致力于面向量子计算的企业软件和量子人工智能技术白皮书 116 服务,并广泛开展与行业用户的交流合作,为其提供解决方案。近年来,与欧洲飞机制造公司 Airbus 合作研究飞行路径优化;与德国汽车制造公司 BMW 合作探索将量子机器学习在自动驾驶和路径规划等领域的领用;与日本汽车零部件制造销售公司 Aisin Group 合作研究基于量子计算的静态代码测试;与瑞士生物科技公司 Roche 合作探索量子卷积
239、神经网络在医学图像识别中的应用;与德国材料公司 Covestro 合作将量子计算应用于材料研发;与美国投资银行Goldman Sachs 合作将量子蒙特卡洛算法用于金融衍生品定价。图 46 QC Ware 产品与服务布局 2)Qubrid 美国 Qubrid 公司是一家量子计算和人工智能(AI)公司,其使命是解决多个行业中的现实世界复杂问题。该公司云平台利用混合量子经典计算的力量,在量子处理单元(QPU)、CPU 和 GPU 计算基础设施上高效开发和运行下一代量子算法。该公司创新解决方案使用户能够利用量子计算和经典计算的计算优势,提供无与伦比的速度和准确性来解决复杂的优化问题,执行模拟和进行数
240、据分析。Qubrid 团队由量子开发人员、研究人员和合作伙伴团队组成,致力于增强这一独特的平台,促进科学应用。该公司正在进行与量子计算和人工智能相关的多个领域的研究,并正在开发可以在平台以及其他领先的量子平台上运行的算法和应用程序。量子人工智能技术白皮书 117 3)NQCG 荷兰量子计算公司 NORDIC QUANTUM COMPUTING GROUP(NQCG)成立于 2000 年,专注于量子信息技术的三个核心领域:光子芯片设计、金融问题的量子算法开发和使用光子平台的量子机器学习。NQCG 正在建造完全可编程和可扩展的光量子计算机,并使它们可用于云中的研究和商业。对于金融服务和工业技术,他
241、们的研发团队主要专注于开发混合量子-经典算法和全量子应用。这个项目的重点是在模拟、优化和人工智能这三个重要领域实现量子优势。此外,该团队正在制造旨在优化量子算法性能的芯片。4)Zapata 美国量子计算软件公司 Zapata 是由 Aln Aspuru-Guzik 领导的一群哈佛大学科学家创立的。Zapata 致力于开发功能强大的软件平台和量子算法,可以应用于多个行业,包括化学、制药、物流、金融和材料。Zapata 的量子化工作流程平台 Orquestra,使用量子化工作流程协调跨经典和量子技术的工作流程,并为机器学习、优化、模拟和量子算法提供一个软件平台。Zapata Computing 的
242、量子工作流平台 Orquestra,结合了强大的软件平台和量子算法库,在最新的量子硬件上为应用程序(尤其是在化学、机器学习和优化)提供计算能力方面的实际进展。Orquestra 引发了“财富 100 强”和“全球 1000 强”企业的大量需求,使用户能够组成量子工作流,并跨经典和量子技术协调其执行。Zapata Computing 正在为广泛的行业开发解决方案,包括化学、物流、金融、石油和天然气、航空、制药和材料。量子人工智能技术白皮书 118 (三三)量子人工智能国内科研量子人工智能国内科研机构及机构及企业企业发展概况发展概况 1.中国移动中国移动 中国移动作为电信运营商企业正不断加强 6G
243、、量子通信、量子人工智能等前沿领域谋划布局。2023 中国算力大会主论坛上,中国移动等联手发布量子计算云平台。该平台属国内首创,且是国内最大规模的量子计算云平台,也是业界首次实现“量子与通用算力统一纳管混合调度”的系统级平台,标志着我国量子计算逐步走向实用化阶段。此外,中国移动“第四届科技周暨战略性新兴产业共创发展大会”论坛上,中国移动挂牌成立央企首个面向行业应用的量子计算实验室“中国移动量子计算应用与评测实验室”,并发布通信网络中量子计算应用研究报告和“五岳”量子云平台等首批量子计算战略性新兴产业成果。当前阶段,中国移动针对 AI 这一技术的应用落地场景非常丰富。自智网络(网络智能化)和 A
244、I 业务(业务智能化)为人工智能提供了巨大的应用空间。自智网络将 AI 技术与通信网络的硬件、软件、系统等深度融合,通过构建网络全生命周期的自动化、智能化运维能力,为网络客户提供“零等待、零故障、零接触”极致业务体验,为网络运维打造“自配置、自修复、自优化”高效手段。未来量子人工智能在通信领域的应用可能面临自智网络同样法律政策困境。不断完善的法律法规对网络数据和用户数据的商用合规性提出挑战,隐私保护计算、多方安全计算亟需跟上。2.北京量子信息科学研究院北京量子信息科学研究院 量子人工智能技术白皮书 119 北京量子信息科学研究院是北京市委市政府积极响应中央战略决策,加强国际科技创新中心建设的重
245、要举措。研究院整合北京现有量子物态科学、量子通信、量子计算、量子材料与器件、量子精密测量等领域骨干力量,建设顶级实验支撑平台,力争在理论、材料、器件、通信与计算及精密测量等基础研究方面取得世界级成果,并推动量子技术走向实用化、规模化、产业化,通过建立完善的知识产权体系,紧密与产业界结合加速成果转化,实现基础研究、应用研究、成果转移转化、产业化等环节的有机衔接,打造国家战略科技力量。2023 年中关村论坛上,北京量子信息科学研究院正式发布了Quafu(夸父)量子计算云平台,取意量子未来(quantum future)”,并被中关村论坛列为十项重大科技成果之一。0uafu 量子计算云平台是以互联网
246、云计算的形式呈现的量子计算综合性能展示,集成了超导量子芯片、测控设备、量子操作系和应用软件等元素,为研究和测试人员提供量子算力,标志着量子计算朝着实用化方向迈出了重要一步。Quafu量子计算云平台不仅在单片量子比特数和芯片数量上具有优势,还具备高精度的测控能力和全局纠缠能力。量子计算机在解决特定问题时展现出超强的并行计算能力,相比经典计算机,其运算速度可大幅提升。平台提供了 136、18 和 10 个量子比特的芯片,以供用户根据问题的难度和计算要求进行选择。Quafu量子计算云平台已经在国内推出测试版,并取得了稳定高效的运行效果,多项科研任务已在该平台上成功完成,未来,该平台将不断发展和迭代,
247、预计将在规模和技术上与国际先进的量子云平台竞争。基于 Quafu 量子云平台,量子院 Quafu 项目组正在积极探索量量子人工智能技术白皮书 120 子人工智能相关课题以及潜在的落地场景。目前取得的重要进展有首次实现了基于 Quafu 云平台真实量子芯片的基于策略梯度优化的量子强化学习。北京量子信息科学研究院推出并开源了基于 Quafu的量子强化学习软件包 Quafu-RL,希望以此推动量子人工智能社区的发展。下一步,北京量子信息科学研究院将继续完善相关算软件,并探索其在实际场景中的应用。3.腾讯量子实验室腾讯量子实验室 腾讯量子实验室作为腾讯集团在硬核科技领域布局的重点实验室之一,在量子计算
248、机体系结构、操作系统和微波控制软硬件系统,及量子程序设计语言及编译器等方面持续输出理论和实践成果,同时积极研究创新量子算法及电路实现,研发分子及材料相关性质预测算法、软件和云服务产品,并与合作伙伴共同探索在物理、化学、材料、能源、生物医药、金融、信科和教育等相关领域的潜在应用价值。腾讯量子实验室在量子人工智能领域也在积极布局和探索,尤其结合 AI 针对材料研究和药物发现的难点问题作了系统性深入研究,主要关注并取得突破的方向包含基于AI方法的蛋白质-小分子相互作用及亲和力预测、基于 AI 方法的分子生成、基于 AI 方法的分子成药性预测、耐药性预测,以及基于量子算法的抗体蛋白质折叠等。面向物理、
249、化学领域的重难点科研问题,腾讯量子实验室亦作了定向研究投入,例如结合 AI+计算化学的化学反应预测、设计和分子合成路径设计等。腾讯量子实验室基于自身在交叉学科领域的积累、腾讯云的海量子人工智能技术白皮书 121 量高性能算力以及未来有望落地的量子计算加速能力,积极布局泛科研应用平台。实验室目前已开源了发布了下一代量子模拟引擎TensorCircuit 和量子计算化学领域软件产品 TenCirChem。未来,腾讯量子实验室的相关平台服务将适时接入业界量子计算真机资源,结合自身在量子软件和量子算法领域的沉淀,为用户提供更前沿的计算研究服务。特别需要指出的是,TensorCircuit 是业界首个完
250、整兼容现代机器学习框架编程范式的可微量子模拟软件,亦是第一款完整的基于张量网络缩并的量子模拟器。自 2022 年 5 月开源发布以来,已累计获得了超过 26 万的下载量,软件的贡献者、使用者和合作者遍布海内外各大知名高校、研究院所和企业。4.国盾量子国盾量子 国盾量子创办于 2009 年,是国家专精特新“小巨人”企业。公司以量子信息技术的全面产业化为己任,主要从事量子保密通信产品、量子计算仪器设备的研发、生产、销售及技术服务。公司技术起源于中国科学技术大学,目前已逐步成长为全球少数具有大规模量子保密通信网络设计、供货和部署全能力的企业之一。在量子计算领域,公司参与“祖冲之号”超导量子计算优越性
251、实验,具备提供超导量子计算整机解决方案能力。国盾量子在第六届世界人工智能大会上推出了新一代量子计算云平台,旨在提供以量子计算机为核心的云服务,通过对全社会开放,共同探索未来量子计算在包括人工智能等相关领域的应用。目前该云平台可将量子计算机的算力开放出去,用户可在线编程或线量子人工智能技术白皮书 122 下 SDK 使用量子计算机,进行量子计算实验和开发。未来该平台量子计算潜在的应用场景可涵盖经济、人工智能、生物医药等多个领域,强大的算力将有助于加速人工智能发展。在人工智能方面,国盾量子新一代量子计算云平台提供的强大算力有助于人工智能识别模式,并帮助人工智能更好地作出决策。大数据和自然语言处理方
252、面,利用并行计算优势,量子系统可以为机器学习带来指数量级的加速。量子计算机未来的潜在应用场景或将涵盖经济、人工智能、生物医药等领域。5.图灵量子图灵量子 上海图灵智算量子科技有限公司(以下简称“图灵量子”)是我国首家光量子计算公司,致力于构建光量子芯片和量子算法双底层核心驱动力,推动光量子芯片、光量子计算机、量子智算云、以及量子加密和算法安全平台等研发和产业化,打造后摩尔时代算力引擎和智算产业集群。图灵量子坚持自主可控发展战略,在“卡脖子”等关键核心技术方面持续开展创新和突破,制备出世界上最大规模三维集成光子芯片,开建我国首条光子芯片中试线,建设国内首个量子人工智能计算中心等。图灵量子研发专用
253、光量子计算机(TuringQ Gen1),集成全栈核心技术,包括量子光源、光量子信息处理芯片、探测系统、专用光量子计算软件、光量子芯片 EDA 软件、光量子计算操作系统等。此外还推出相应的专用光量子芯片模拟软件(FeynmanPAQS)商用光量子计算模拟软件,拥有完全知识产权的云计算模拟平台,专用光量子计算模拟和三维光子芯片设计的 EDA 软件。量子人工智能技术白皮书 123 图灵量子自主研制的量擎量子计算云平台,为用户提供经典-量子混合人工智能开发环境,支持用户通过云端及本地调用底层量子硬件,预装整套量子 AI 工具链软件可使用户便捷进行模型训练和调优工作,配套在线 IDE 满足用户高效研发
254、需求。图 47 量子人工智能平台 此外,图灵量子还拥有量子人工智能计算中心建设规划和实施能力,利用量子计算芯片(QPU)作为加速或协处理器,与 CPUGPUFPGA 等组成异构计算平台,提供量子人工智能、“量子-经典”混合应用所需算力、数据和算法服务的公共算力新型基础设施,加速经典难解问题求解,提供从底层芯片到顶层应用的全栈能力。2023 年 1 月,和上海交大无锡光子芯片研究院联手打造的国内首个量子人工智能计算中心“太湖量子智算中心”在无锡市揭牌。6.本源量子本源量子 本源量子计算科技(合肥)股份有限公司(简称“本源量子”),国内量子计算龙头企业,2017 年成立于合肥市高新区,团队技术起源
255、于中科院量子信息重点实验室。本源量子聚焦量子计算产业生态建设,打造自主可控工程化量子计算机,围绕量子芯片、量子计算测控一体机、量子操作系统、量子软件、量子计算云平台和量子计算科普教育核心业务,全栈研制开发量子计算,积极推动量子计算量子人工智能技术白皮书 124 产业落地,聚焦生物科技、化学材料、金融分析、轮船制造、大数据等多行业领域,探索量子计算产业应用。本源量子将持续发力量子人工智能,助力中国人工智能行业全面发展,并将运用量子计算尝试在不同行业领域解决问题,研制出行业专用量子计算机。本源量子团队先后自主研发量子人工智能应用量子图像识别应用,本源量子图像识别应用提供二分类识别与多分类识别两种功
256、能,可识别手写数字 0 和 1 或多种常见动物。此前,本源量子还曾发布量子手写数字识别应用,并公开在其本源量子云平台上;发布量子人工智能应用 QGAN。该应用展示了量子计算机上的生成对抗网络在人像修复领域拥有相对于经典计算机的速度优势和空间优势,证明了基于超导量子比特技术的量子机器学习可行性;此外本源量子团队基于自主研发的量子机器学习框架 VQNet,设计实现的量子生成对抗网络(QGAN)可用于图像处理领域,比如人像的修复。与经典计算机相比,量子计算处理图像在时间上具有指数级提升,在空间上处理的数据量也将随之呈指数级增加。六、量子人工智能未来产业发展机遇与风险(一一)量子人工智能产业发展机遇量
257、子人工智能产业发展机遇 量子人工智能作为量子计算具有广阔应用前景的应用方向之一,受到产学研用各方的重视。量子人工智能产业发展面临如下机遇:1.各国对量子计算和人工智能技术产业发展高度重视各国对量子计算和人工智能技术产业发展高度重视 近年来,越来越多的国家从政策和资金层面布局量子计算的研发。美、中、欧等国家和地区持续加大资金投入。美国参议院通过量子人工智能技术白皮书 125 了芯片法案,该法案主要支持量子计算等关键技术研发,以增强美国的全球科技竞争力。同时,美国国防部也资助了多个量子计算项目。欧盟也大力支持量子计算的研究和发展。例如,欧盟委员会发布了一项关于量子计算的旗舰计划,计划在 2021
258、年至 2027 年间投入 10 亿欧元(约合 11 亿美元)用于研究和开发量子计算。我国也非常重视量子计算的发展,出台了一系列政策,并投入了大量资金。例如,中国科技部在“十四五”规划中明确提出要发展量子计算,并启动了一系列的量子计算研究项目。而人工智能在过去的数年中,给社会和产业带来翻天覆地的变化。许多国家都认识到了人工智能技术的潜力和重要性,纷纷出台政策来支持其发展。美国在人工智能领域具有明显的优势,政府、企业和科研机构对人工智能的重视程度都在不断增加。自 2015 年以来,美国白宫科技政策办公室连续发布了为人工智能的未来做好准备、国家人工智能研究和发展战略计划和人工智能、自动化与经济报告等
259、 3 份重量级报告。此外,美国硅谷是当今人工智能发展的重要区域,聚集了从人工智能芯片到下游应用产品的全产业链企业。在人工智能融资规模上,美国在全球的比重占 60%以上,科技巨头们早已经布局了人工智能领域。除了美国,其他国家也在积极推进人工智能技术的发展。例如,英国强调综合施治、合力发展,日本、加拿大等多个国家也出台政策支持人工智能发展。2.量子计算与人工智能结合成为前沿探索热点领域量子计算与人工智能结合成为前沿探索热点领域 人工智能技术可以自动化完成许多繁琐、重复的工作,比如数据分析、语音识别、图像识别等,可以减轻人们的负担,提高工作量子人工智能技术白皮书 126 效率。人工智能技术可以迅速处
260、理大量数据,实现很高的处理速度和快速决策,加快了人们的决策过程,缩短了很多时间。量子计算与人工智能相结合,一方面可以加速机器学习算法。量子计算可以加速各种机器学习算法,例如支持向量机(SVM)、人工神经网络(ANN)、深度学习等,通过量子并行性和量子态叠加等优势来处理复杂的计算问题,从而提高机器学习算法的训练速度和准确度;另一方面可以改进优化算法。优化算法是人工智能领域中的重要问题,包括著名的遗传算法、模拟退火算法、粒子群优化算法等,量子计算可以通过量子搜索算法和量子优化算法等方法,提高优化算法的效率和精度,从而加速解决各种优化问题。量子人工智能的前沿探索将会迸发新的火花,形成新的应用模式。3
261、.行业应用需要量子人工智能技术行业应用需要量子人工智能技术 前经典人工智能技术在处理某些复杂问题时遇到了瓶颈,而量子人工智能技术可以提供更快速、更准确的解决方案。在医疗健康领域,量子人工智能可以帮助医生进行更精确的诊断和治疗,例如利用量子机器学习来分析医疗数据,发现潜在的疾病风险和治疗方案,利用量子优化算法来设计新型的药物和疫苗,利用量子神经网络来模拟生物分子的结构和功能。在金融服务领域,量子人工智能可以帮助金融机构进行更高效的风险管理和投资决策,例如利用量子机器学习来预测市场走势和价格波动,利用量子优化算法来优化资产组合和交易策略,利用量子神经网络来模拟复杂的金融模型和场景。此外,量子人工智
262、能技术还可以应用于药物研究、分子化学、蛋白质折叠模拟等研究领域,投资组合优化、量子期权定价、股票量子人工智能技术白皮书 127 时序预估等金融领域,航空动力、交通规划等多领域。总之,行业应用需要量子人工智能技术来处理和解决一些经典计算无法处理的复杂问题,从而实现更快速、更准确、更高效的运行和决策。(二二)量子人工智能产业发展风险分析量子人工智能产业发展风险分析 量子人工智能产业发展迅速,但也存在一些风险和挑战。首先,量子人工智能技术的研发和应用需要大量的资金投入,而且技术门槛较高,需要具备量子计算和人工智能两方面的专业知识和技能。因此,对于大多数企业和组织而言,很难自主开发量子人工智能应用,需
263、要依赖专业的技术团队和研究机构。其次,量子人工智能技术的应用前景尚不明朗,商业模式的建立和发展仍需要探索。虽然量子人工智能技术具有广阔的应用前景,但是在目前的市场上,由于技术的复杂性和应用的局限性,商业应用还比较有限。因此,对于投资者和商业领袖而言,需要谨慎考虑量子人工智能技术的商业价值和市场潜力。此外,量子人工智能技术的发展还面临着技术瓶颈、数据隐私和安全等方面的挑战。虽然量子计算技术已经取得了一些进展,但是其算法和应用仍然存在局限性。同时,量子计算和人工智能技术的应用涉及大量的数据隐私和安全问题,需要采取有效的措施来保护用户的隐私和数据安全。综上所述,量子人工智能产业发展迅速,但也存在一些风险和挑战。需要加强技术研发和应用探索,建立有效的商业模式和市场机制,同时加强数据隐私和安全保护,才能实现量子人工智能技术的广泛应用和产业的发展。