
随着量子信息和量子计算的快速发展(经费多了),科研工作者们一边感叹着量子计算机时代即将拥有的强大计算能力,一边又在考虑着如何将现有的高效算法和量子计算机相适配。作为最近几年如此火爆的机器学习,也就自然而然地加入了量子化大军。2018年有Lukin的量子卷积神经网络和Seth Lloyd的量子生成对抗学习。这篇文章里将通过量子生成对抗网络QGAN来简介一下量信工作者们对机器学习算法的量子化。
Rmk. 本来是写了个回答的https://www.zhihu.com/question/268419799/answer/338900541,结果因为是一年之前随手写个一个回答现在重新改的,破乎的推荐功能之类的好像用不了,于是发在文章里了。
量子生成对抗网络
发展
理论上,由2018年仅仅间隔一周时间的两篇论文提出。Seth Lloyd的PRL[1]更侧重思辨,想了很多情况,文章短小精悍没什么公式要靠读者自己脑补,作者也是非一般的牛。PRA[2]侧重于数值实现,公式很多并且写了怎么用量子电路实现差分梯度下降。实验上已经在2019年被中国科大(妮可)和清华做出来了,见参考文献[3]。
GAN的原理
生成对抗网络作为一种重要的生成模型,通过生成器和判别器之间的博弈来学习样本的统计性质。
GAN中的训练样本假设服从概率分布
生成器G为一个非线性映射,将噪声样本z映射到数据样本x的空间,并力求模仿训练样本的统计分布。
那么如何判断两个分布是否接近呢?我们请一位裁判,称为判别器D,我们给他一个样本,让他告诉我们这个样本是来自训练样本(真实)还是生成样本。而在裁判进行判决的过程中,我们也可以对他进行训练,让他判别出错的概率减小。这样,在判别器和生成器之间就产生了博弈。在训练过程中,判别器越来越准确,生成器也只能让生成的样本分布和训练样本的分布更加接近以欺骗判别器。
说到G非线性映射,而D又是一个分类器,那么自然而然的会想到用深度神经网络来作为二者的参数表示,这样一来,就开始了Deep GAN的故事。
量子版本QGAN
受到GAN的启发,量信工作者们提出了量子版本的QGAN。前面提一遍GAN的原理是为了方便在这里通过对比来介绍QGAN。
首先是训练样本,也就是我们想要模仿统计信息的样本,量子力学里的样本由态矢描述(取了相应的坐标基矢后是波函数),而这些样本(态矢)以一定的概率复合起来构成的整体就是量子系综,为混合态,由密度算符
接下来是生成器。对于噪声先验,我们用另一个系综
Rmk.与GAN不同的是,QGAN中的生成器是线性算符,而不是非线性的
对于判别器。上面已经提到,GAN中的判别器相当于一个二分类器,给定一个样本,给出其属于训练样本还是生成样本。对应于量子力学,这一过程由一测量给出,给定态矢,测量结果表明其类别。形式上,可用POVM(正算子值测度)表示,
相应于Deep GAN的神经网络参数化,Deep QGAN可以通过深层的量子电路(quantum circuit)来实现生成器(线性算符G)和判别器(POVM T或F)的参数化。
What's new
- 相对于GAN需要花费极大的计算能力在CPU, GPU上进行训练,QGAN作为量子版本的GAN能够更加好的适应量子计算机
- QGAN的随机性是量子力学内禀的,而不是GAN中的随机数生成器
- 理论上的优雅,量子力学的定义表明,密度算符的全体是凸集,而POVM的测量算符也构成紧凸集,这些使得QGAN的各种性质能够简单而优雅的给出,相对于GAN的复杂证明而言
Pf.(Convergence)
训练的目标函数是成功判别的概率,即给出训练样本时测量分类给出T,给出生成样本时测量分类为F,由条件期望的平滑性
QGAN和GAN的训练目标则是,让生成器能尽可能欺骗判别器,形式化为
先考虑最大化,显然,当T为迹内算符的正部分投影时,目标函数最大,
Rmk.最优测量算符的物理意义也很明显,当
最优化判别器后,损失函数为
显然,最小值对应于
Rmk.可见,迭代训练将收敛到纳什均衡
参考文献
[1] https://arxiv.org/abs/1804.09139
[2] Quantum generative adversarial networks
[3] https://advances.sciencemag.org/content/5/1/eaav2761