首页> 中国专利> 一种基于生成模型的量子态层析方法

一种基于生成模型的量子态层析方法

摘要

一种基于生成模型的量子态层析方法,特征是,运用矩阵乘积态(Matrix Product State‑MPS)表征量子GHZ态N为量子态位数),通过将大维度张量表示的量子态通过特征值分解(SVD)成小维度张量的乘积的形式,使得随着qubit数量增加,MPS表征的参数量线性增长,适合描述大规模量子系统;生成模型采用受限玻尔兹曼机(Restricted Boltzmann Machine‑RBM),RBM只包括二值可视层(vision layer)和隐藏层(hidden layer),同一层之间没有信息传递,可视层和隐藏层之间有信息传递;针对不同量子态位数的GHZ态,调整网络隐藏层数量和数据批处理样本数量,分析参数对层析效果的影响,提升层析性能表现。本发明对大规模量子计算有较好的应用前景,相对目前主流的极大似然估计层析技术,鲁棒性强、适用范围广、计算快速。

著录项

  • 公开/公告号CN112749807A

    专利类型发明专利

  • 公开/公告日2021-05-04

    原文格式PDF

  • 申请/专利权人 同济大学;

    申请/专利号CN202110033343.8

  • 发明设计人 李莉;汪咏;林国义;

    申请日2021-01-11

  • 分类号G06N10/00(20190101);G06F30/367(20200101);G06F30/27(20200101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构31290 上海科律专利代理事务所(特殊普通合伙);

  • 代理人叶凤

  • 地址 200092 上海市杨浦区四平路1239号

  • 入库时间 2023-06-19 10:51:07

说明书

技术领域

本发明涉及量子态层析研究。

背景技术

量子计算是一种遵循量子力学原理调控量子信息单元进行计算的新型计算模式。由于叠加、纠缠等量子力学属性,理论上量子计算具有经典计算无法比拟的巨大信息携带和超强并行处理能力。在量子计算过程中,量子层析是进行信息处理的必要工具。一般而言,量子层析包括量子态层析和量子过程层析。

量子态层析通过一系列量子测量获得数据后估计出未知系统的密度矩阵,图1显示了量子态层析过程。

经典的量子态层析方法包括线性反演法(linear inversion)、极大似然法(maximum likelihood)、线性回归法(linear regression)、贝叶斯方法(Bayesian)、压缩感知(compressed sensing)等。线性反演假定密度矩阵与测量值线性相关,极大似然方法借助似然函数求解密度矩阵。压缩感知,也被称为压缩采样(Compressive sampling)或稀疏采样(Sparse sampling),是一种寻找欠定线性系统的稀疏解的技术。这个方法利用信号稀疏特性,从较少的测量值还原出原来整个欲得知的信号。贝叶斯方法运用假设概率的方式,将关于未知参数的先验信息与样本信息综合,根据贝叶斯公式,得出后验信息,然后去推断未知参数。线性回归法利用线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模。

经典量子态层析存在诸多限制:线性反演法对于有限的实验统计量,重构态一般不是半正定的密度矩阵,导致非物理结果;线性回归法目标函数隐含地假设残差为高斯分布,这在实际中不一定适用于有限数目的测量;极大似然法是目前最流行的量子态层析方法,重构精度高,但重构收敛速度慢,很难优化大规模目标函数。同时,经典量子态层析所需要的测量数随着量子比特数量的增加而指数增长,无法解决维度灾难问题,导致经典量子态层析无法运用到大规模量子系统。为缓解收敛速度慢和维度灾难问题,研究人员提出了多种高效量子态层析方法。

高效量子态层析方法包括矩阵性质量子态层析、矩阵乘积态层析、自适应量子态层析。高效量子态层析方法利用密度矩阵属性(半正定、厄密性,单位迹),减少层析计算量。量子态的一般表征需要的参数量随着量子比特qubit数的增长而指数增长,随之引起存储空间和计算成本的指数增长,使得一般量子态表征无法对大规模量子系统进行很好地描述,矩阵乘积态表征可以较好地解决这个问题。针对测量数存在维度灾难限制,自适应的量子态层析被用来解决这个问题。

高效量子态层析缓解了经典量子态层析的样本复杂度、矩阵表征的维度灾难问题,但也暴露出其他一些问题:矩阵性质量子态层析只能缓解但无法解决维度灾难问题;矩阵乘积态层析可以解决特定结构的量子态表征维度灾难问题,但对未知态难以求出它的矩阵乘积态形式,也无法解决测量基的维度灾难问题;自适应量子态层析可以缓解测量基的维度灾难问题,但无法解决量子态表征的维度灾难问题。运用高效量子态层析方法的互补,可以提高层析精度和降低层析复杂度。

随着神经网络方法在图像,语音,机器翻译等领域的兴起,其具备的高扩展性和对高维数据的高效表征等能力,被用来解决量子态层析问题。其中主流的基于神经网络的量子态层析包含两类:基于生成模型的量子态层析和基于有监督学习神经网络的量子态层析。

生成模型是一类特殊的神经网络,属于机器学习中的无监督学习,也就是没有特定的输出标签,模型自动学习数据中的潜在模式。生成模型学习的是数据的联合概率分布,并可以据此生成新样本。常见的生成模型包括受限玻尔兹曼机(Restricted BoltzmannMachine-RBM)、循环神经网络(Recurrent neural network-RNN)、变分自编码器(Variational Autoencoder-VA)、自回归神经网络(Autoregressive Neural Network-ANN)、生成性对抗网络(Generative Adversarial Networks-GAN)。生成模型在量子态层析中也得到广泛的应用,通过从少数测量样本中学习和预测样本的总体概率分布,来重构量子态。用于量子态层析的主流生成模型为RBM,近两年,基于其他生成模型的量子态层析也得到了一定的关注。有监督学习神经网络相比生成模型,训练样本需要有明确的标签,在量子态层析中也有广泛的应用。

基于有监督学习神经网络的量子态层析需要提前标定数据标签、重构整个密度矩阵具有高的样本复杂度,难以运用到大规模量子系统的层析任务。基于生成模型的量子态层析无需提前标定数据标签,可以从少数样本高效重构量子态,并对噪声具有一定的抑制能力。但由于神经网络的黑盒效应,难以选择合适的网络架构和超参数,甚至还原的高概率分布无法保证量子态的层析精度;同时,达到高精度(量子保真度)的样本复杂度高也限制了现有基于生成模型的量子态层析的发展。

总体而言,目前的量子态层析方法受到噪声和维度灾难影响,精度不高、重构鲁棒性低、抗噪声能力差、资源消耗高,使得量子实验处理的量子比特数仍低于20,无法满足大中规模(50qubits以上)量子系统的层析需求。基于生成模型的量子态层析增强了层析的鲁棒性,降低对样本复杂度的要求,但神经网络的黑盒效应阻碍选择合适的网络架构和参数,甚至生成模型重构出的高还原概率分布导致低的量子重构精度,而概率分布的影响因素与概率分布如何决定量子保真度,目前在理论和实验上都是未知的,缺乏系统性研究。

发明内容

现有的基于生成模型的量子态层析方法受维度灾难问题和噪声干扰等影响,重构鲁棒性差、资源消耗高,无法满足大中规模量子系统的层析需求。同时,受神经网络黑盒效应,重构出的高还原概率分布导致低的层析精度,而概率分布的影响因素与概率分布如何决定层析精度,仍缺乏系统性研究。此外,算法验证多以设定的数值验证,极少在真实的量子计算机上进行。

鉴于上述问题,本发明所要解决的具体课题主要包括:首先改进现有的网络架构和超参数调整方法,解决基于生成模型的小规模量子态层析方法;其次深入研究基于生成模型重构的概率分布与量子态层析精度之间的内在关系,明确基于生成模型的量子态层析的精度极限的影响因素与极限的关联;指导进一步改进网络架构,裁剪、调整网络超参数和研究重构概率分布处理方法,解决基于生成模型的大中规模量子态层析方法;最后用于真实量子计算机环境下的量子态层析。

为此,本发明给出技术方案为:

一种基于生成模型的量子态层析方法,特征是,运用矩阵乘积态(Matrix ProductState-MPS)表征量子GHZ态(

生成模型采用受限玻尔兹曼机(Restricted Boltzmann Machine-RBM),RBM只包括二值可视层(vision layer)和隐藏层(hidden layer),同一层之间没有信息传递,可视层和隐藏层之间有信息传递;针对不同量子态位数的GHZ态,调整网络隐藏层数量和数据批处理样本数量,分析参数对层析效果的影响,提升层析性能表现。

一种基于生成模型的量子态层析方法,特征是,具体包括以下步骤:

1)设定需要层析的量子态位数,对量子态进行正算子值测量(PositiveOperator-Valued Measure-POVM),获取测量样本数;样本获取方式包括三种:

a)设定样本总数N

b)设定样本总数N

c)利用MPS来采样:先计算P(a

2)

本发明涉及一种基于生成模型的量子态层析方法,对大规模量子计算有较好的应用前景,相对目前主流的极大似然估计层析技术,具有鲁棒性强、适用范围广、计算快速等优势。

有益效果:

1、自适应测量基、矩阵乘积态表征、改进的网络架构和启发式算法优化网络超参数解决或缓解维度灾难问题,有监督神经网络增强抗噪声能力,提高了量子态层析的可扩展性、鲁棒性和精度,降低层析复杂度;

2、理论和数值实验分析生成模型重构的概率分布与量子态层析精度之间的内在关系和生成模型的量子态层析的精度极限的影响因素与极限的关联,为大中规模的量子态层析做出指导;

3、改善神经网络盲目调节现状,通过层析精度极限分析指导,进一步改进网络架构,调整优化网络超参数和改进层析方法,寻找优化的神经网络架构,实现大中规模量子态层析,性能超越现有的量子层析方法;

4、在真实嘈杂中型量子计算机上实现可扩展的大中规模基于生成模型的量子态层析算法,满足真实环境量子系统层析需求。

附图说明

图1量子态层析示意图

图2基于生成模型的量子态层析总体技术路线

图3基于生成模型的小规模量子态层析技术路线

图4基于生成模型的量子态层析精度极限研究技术路线

图5基于生成模型的大中规模量子态层析技术路线

图6真实量子计算机环境下的量子态层析技术路线

图7 MPS采样

图8样本批处理数量和样本总数参数对经典保真度影响的3维曲面图

图9样本批处理数量和样本总数参数对经典保真度影响的伪彩色图

图10样本批处理数量和样本总数参数对经典保真度影响的等高线图

图11样本批处理数量和样本总数参数对量子保真度影响的3维曲面

图12样本批处理数量和样本总数参数对量子保真度影响的伪彩色图

图13样本批处理数量和样本总数参数对量子保真度影响的等高线图

图14隐藏层数量和样本总数参数对经典保真度影响的3维曲面图

图15隐藏层数量和样本总数参数对经典保真度影响的伪彩色图

图16隐藏层数量和样本总数参数对经典保真度影响的等高线图

图17隐藏层数量和样本总数参数对量子保真度影响的3维曲面图

图18隐藏层数量和样本总数参数对量子保真度影响的伪彩色图

图19隐藏层数量和样本总数对量子保真度影响的等高线图

图20经典保真度与量子保真度关系

具体实施方式

本发明研究基于生成模型神经网络的量子态层析方法,

a)研究基于生成模型的小规模量子态层析方法

量子态层析的维度灾难问题涉及测量基、训练样本和量子态的经典表征,这些量都会随着量子比特数量的增加而指数增长,致使后处理的计算量和数据存储量也指数增长,难以运用到大中规模量子系统。针对测量基的维度灾难问题,考察两组不同的基类型(POVM和投影测量)情况,采用不同的自适应的测量基策略,根据上次或上几次的测量结果动态选取下次的测量基,保证每次测量尽可能取得概率相对大的测量结果,得到尽量多的观测信息。选择和改进合适的自适应策略和基类型。针对训练样本的维度灾难问题,选择高效的生成模型,改进生成模型的网络架构和采用启发式算法调整优化网络超参数,降低样本复杂度。针对量子态经典表征的维度灾难问题,改用线性增长的矩阵乘积态来表征量子态;矩阵乘积态通过将大维度张量分解为小维度张量的乘积,可实现随量子比特数量的增加而线性增长。通过这些措施,在一定程度上改善维度灾难问题,增加量子态层析的鲁棒性和扩展性。在一维横向Ising模型基态或贝尔纠缠态数值实验完成验证,实现基于生成模型的小规模(50qubits以下)高效(线性或次线性增长)的量子态层析。

b)研究基于生成模型的量子态层析精度极限

利用小规模高效的量子态层析方法,针对生成模型重构的高还原概率分布(高经典保真度)导致重构精度差(低量子保真度)的问题和神经网络的黑盒效应,理论和数值实验分析层析精度极限影响因素与精度极限的内在联系。层析精度极限分为层析精度上界和层析精度下界。层析精度下界指的是无论层析精度影响因素,如网络参数,取任何范围或部分限定范围,层析精度都会大于该值,考察的是模型的最差表征能力。层析精度上界则相反,不考虑资源消耗或考虑部分资源消耗情况下,层析精度能达到的最大值。层析精度极限的影响因素包括:样本(qubit数量、基选择、表征方式、数量)、生成模型(网络架构、超参数、优化方法、终止条件)、重构概率分布后处理。

运用复杂度理论、信息论和随机矩阵理论分析理想情况下qubit数量、样本数量、测量基、生成模型与层析精度极限关联:将生成模型视为概率分布映射函数,在原始理想概率分布上附加少量高斯分布噪声,忽略网络参数对网络表征的影响;层析精度极限视为与理想层析结果相对误差的极限。根据极限分析,明确达到所需层析精度要求(相对误差小于阈值)的qubit数量、样本数量的最小值和模型所能达到的精度上界,确定模型方法的适用性。

实验考虑多种实际因素,包括网络架构,对层析精度极限的影响。第一步在设定多组不同qubit数量实验,不考虑消耗资源的情况下,获取多种生成模型的层析精度的上界。然后综合比较各生成模型达到精度上界的影响因素,如样本复杂度、超参数数量,选取最高效的生成模型;第二步实验分析各影响因素与层析精度相对误差关系,确定层析精度下界与各影响因素关系的近似表达式;第三步分析达到所需精度的各影响因素随qubit数量增加的扩展关系,确定生成模型的可扩展能力和复杂度。图4显示了基于生成模型的量子态层析精度极限研究技术路线图。

c)研究基于生成模型的大中规模量子态层析方法

针对之前实现的小规模高效的量子态层析,根据层析精度下界与各影响因素关系的近似表达式和随qubit数量增加的扩展关系,明确各因素对层析精度的影响程度,降低影响程度小的因素权重,调整优化影响程度大的因素复杂度,指导进一步改进网络架构,调整优化网络超参数和改进层析方法,寻找优化的神经网络架构。通过一个有监督神经网络,训练还原的概率分布到理想概率分布的映射,提高层析精度和抗噪声能力。在一维横向Ising模型基态或贝尔纠缠态数值实验完成验证,实现基于生成模型的大中规模(50qubits以上)高效的量子态层析技术。

d)研究真实量子计算机环境下的量子态层析

在设定的数值实验验证的基础上,将提出的算法运用到真实大中规模量子计算机(IBM,Qiskit)上。真实量子计算机存在随机的环境和测量噪声,比设定的数值实验更加复杂。改变N次变分量子电路的参数,层析变分量子电路的输出,计算N次经典量子态层析与提出算法的保真度均值,比较两者的大小。改变变分电路的量子位数,重复上述实验。验证提出的量子态层析算法的高效性、鲁棒性和可扩展性。

基于上述理论和技术路线,下面结合图例、表格和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。

实施例1

本发明运用矩阵乘积态(Matrix Product State-MPS)表征量子GHZ态(

本发明提供了一种基于生成模型的量子态层析方法,具体包括以下步骤:

1)

a)设定样本总数N

b)设定样本总数N

c)利用MPS来采样(图7):先计算P(a

2)

3)

重构态的经典保真度均大于0.95,最好的为1,最好的量子保真度为1。大体上,批处理数量减少,经典保真度、量子保真度增大;样本数增大,经典保真度、量子保真度增大。

4)调整隐藏层数量和样本总数,分析这两个参数对量子态重构性能的影响。考虑量子位数为2的情况,图14为参数对经典保真度影响的3维曲面图,图15为参数对经典保真度影响的伪彩色图,图16为参数对经典保真度影响的等高线图,图17为参数对量子保真度影响的3维曲面图,图18为参数对量子保真度影响的伪彩色图,图19为参数对量子保真度影响的等高线图。

经典保真度好量子保真度的最好情况均可以达到1。隐藏层数量增大不一定能增大经典保真度,但一定程度上可以增大量子保真度。大体上,样本数增大,经典保真度、量子保真度增大。

5)分析经典保真度与量子保真度的关系,图20中显示了两者的关系,蓝色线为原始数据曲线,红色线为5次多项式拟合的曲线:

可以看出经典保真度与量子保真度基本保持一致,经典保真度增大的同时,量子保真度也会随之增大。通过量子位数为2的实例可以看出本发明的高效性和可行性,并且本发明适用于任意量子位数的量子态层析,具有比一般方法更好的的鲁棒性、高效性和可行性。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号