Week 33: 量子深度学习入门:参数化量子电路与混合模型构建

文章目录

  • Week 33: 量子深度学习入门:参数化量子电路与混合模型构建
    • 摘要
    • Abstract
    • 1. 理论基础:量子神经元
      • 1.1 从比特到量子比特 (Qubit)
      • 1.2 参数化量子电路
    • 2. 量子梯度下降
      • 2.1 量子电路的训练?
    • 3. 构建经典-量子混合网络
      • 3.1 环境配置与电路定义
      • 3.2 混合模型架构
    • 4. 量子模拟的意义与瓶颈
      • 4.1 GPU模拟的可行性
      • 4.2 表达能力
      • 4.3 贫瘠高原问题
    • 总结

Week 33: 量子深度学习入门:参数化量子电路与混合模型构建

摘要

本周初探了量子机器学习领域。利用GPU对量子电路进行了模拟。本周理解并构建参数化量子电路,通过将其视为一个可微的“量子层”嵌入到经典神经网络中,实现了经典-量子混合模型的端到端训练。

Abstract

This week, I made initial forays into the field of quantum machine learning. Utilising GPUs, I simulated quantum circuits. I gained an understanding of and constructed parameterised quantum circuits, embedding them as differentiable ‘quantum layers’ within classical neural networks to achieve end-to-end training of classical-quantum hybrid models.

1. 理论基础:量子神经元

1.1 从比特到量子比特 (Qubit)

经典深度学习的基础是比特(0 或 1),而量子计算的基础是 Qubit。一个 Qubit 的状态∣ ψ ⟩ |\psi\rangleψ可以表示为基态∣ 0 ⟩ |0\rangle∣0∣ 1 ⟩ |1\rangle∣1的线性叠加:
∣ ψ ⟩ = α ∣ 0 ⟩ + β ∣ 1 ⟩ |\psi\rangle = \alpha |0\rangle + \beta |1\rangleψ=α∣0+β∣1
其中α , β ∈ C \alpha, \beta \in \mathbb{C}α,βC∣ α ∣ 2 + ∣ β ∣ 2 = 1 |\alpha|^2 + |\beta|^2 = 1α2+β2=1。这不仅仅是概率分布,而是复数概率幅,意味着量子态之间可以发生干涉 (Interference)——这是量子计算算力的核心来源。

1.2 参数化量子电路

在深度学习中,我们通过调整权重W WW来拟合函数。在量子计算中,我们通过调整量子门 (Quantum Gates) 的旋转角度θ \thetaθ来演化量子态。

一个典型的 PQC 包含三个阶段:

  1. 编码:将经典数据x xx转化为量子态∣ ψ x ⟩ |\psi_x\rangleψx(例如使用 Rotation Encoding)。
  2. 演化 (Ansatz):应用一系列带参数θ \thetaθ的旋转门(如R x ( θ ) , R y ( θ ) R_x(\theta), R_y(\theta)Rx(θ),Ry(θ))和纠缠门(如 CNOT),将量子态变换为∣ ψ ( θ , x ) ⟩ |\psi(\theta, x)\rangleψ(θ,x)⟩。这等价于经典网络中的前向传播。
  3. 测量:对量子态进行测量,计算期望值⟨ Z ⟩ \langle Z \rangleZ,将量子信息坍缩回经典数值输出。

数学上,这个过程是:
f ( x ; θ ) = ⟨ 0 ∣ U † ( x ) V † ( θ ) O ^ V ( θ ) U ( x ) ∣ 0 ⟩ f(x; \theta) = \langle 0| U^\dagger(x) V^\dagger(\theta) \hat{O} V(\theta) U(x) |0\ranglef(x;θ)=0∣U(x)V(θ)O^V(θ)U(x)∣0
这就构建了一个量子神经元。

2. 量子梯度下降

2.1 量子电路的训练?

要将量子电路嵌入 PyTorch,必须能够计算梯度∂ f / ∂ θ \partial f / \partial \thetaf/θ
对于常用的旋转门(如R x ( θ ) = e − i θ X / 2 R_x(\theta) = e^{-i\theta X/2}Rx(θ)=eiθX/2),我们使用参数平移规则 (Parameter-Shift Rule) 来计算解析梯度:

∂ f ∂ θ = f ( θ + π 2 ) − f ( θ − π 2 ) 2 \frac{\partial f}{\partial \theta} = \frac{f(\theta + \frac{\pi}{2}) - f(\theta - \frac{\pi}{2})}{2}θf=2f(θ+2π)f(θ2π)

这非常神奇:它意味着我们不需要深入量子态的内部(那通常是指数级复杂的),只需要在两个不同的参数点运行电路,就能精确算出梯度。这使得 PQC 可以无缝接入 Backpropagation 算法。

3. 构建经典-量子混合网络

使用了PennyLane库并配合 PyTorch 接口可以利用 GPU 加速模拟(模拟量子门本质上是矩阵乘法。

3.1 环境配置与电路定义

importpennylaneasqmlimporttorchimporttorch.nnasnn# 定义量子设备 (使用 default.qubit 模拟器)n_qubits=4dev=qml.device("default.qubit",wires=n_qubits)@qml.qnode(dev,interface="torch")defquantum_circuit(inputs,weights):""" inputs: 经典输入数据 (Batch, n_qubits) weights: 可训练参数 """# 1. 编码层: 将经典数据映射到量子态 (Angle Encoding)# 类似于 input layerqml.AngleEmbedding(inputs,wires=range(n_qubits))# 2. 变分层 (Ansatz): 类似于 hidden layers# BasicEntanglerLayers 包含了一层旋转门和一层纠缠门qml.BasicEntanglerLayers(weights,wires=range(n_qubits))# 3. 测量层: 输出每个 qubit 的 Pauli-Z 期望值return[qml.expval(qml.PauliZ(wires=i))foriinrange(n_qubits)]

3.2 混合模型架构

我们将上述量子电路包装成一个QuantumLayer,夹在两个经典 Linear 层之间,构建一个用于 MNIST 分类的混合模型。

classHybridModel(nn.Module):def__init__(self):super().__init__()# 经典预处理层: 将 28x28 图片降维到 4 (对应 Qubit 数)self.clayer_1=nn.Linear(28*28,n_qubits)# 量子层参数初始化# 2层结构,每层每个qubit有一个旋转参数weight_shapes={"weights":(2,n_qubits)}self.qlayer=qml.qnn.TorchLayer(quantum_circuit,weight_shapes)# 经典后处理层: 将量子输出映射到 10 类self.clayer_2=nn.Linear(n_qubits,10)defforward(self,x):# x shape: (batch, 1, 28, 28)x=x.view(-1,28*28)x=self.clayer_1(x)x=torch.tanh(x)# 将数据压缩到 [-1, 1] 或 [0, pi] 供量子编码# 进入量子层# 输入是经典的,内部演化是量子的,输出又是经典的x=self.qlayer(x)x=self.clayer_2(x)returnx# 之后可以像训练普通 CNN 一样使用 CrossEntropyLoss 和 SGD 训练此模型

4. 量子模拟的意义与瓶颈

4.1 GPU模拟的可行性

真正的量子计算机(QPU)目前噪音很大(NISQ 时代),且访问昂贵。
但在 GPU 上模拟量子电路,本质上是在进行大规模的复数矩阵乘法。

  • N NN个 Qubits 的状态向量大小是2 N 2^N2N
  • 对于N < 30 N < 30N<30,现代 GPU (如 A100) 可以极快地进行全状态向量模拟。
    这让我们可以在没有量子计算机的情况下,验证量子算法的逻辑和梯度下降的可行性。

4.2 表达能力

研究表明,PQC 的表达能力与量子纠缠(Entanglement)密切相关。纠缠门(如 CNOT)让 Qubit 之间产生关联,这在数学上类似于经典网络中的非线性激活函数。没有纠缠的量子电路,仅仅是线性变换,表达能力有限。

4.3 贫瘠高原问题

这是 QML 领域的“梯度消失”问题。当量子电路过深或 Quibit 过多时,损失函数的梯度方差会指数级衰减至 0。这使得训练深层量子网络极其困难。这也解释了为什么目前的 QML 架构多采用 “浅层量子 + 深层经典” 的三明治结构。

总结

本周对参数化量子神经网络进行了初步的了解,这周的学习让我明白,QML 不是要取代经典深度学习,而是作为一种高性能的Kernel或特征提取器,与经典网络协同工作。接下来的学习将进一步了解如何设计更好的 Ansatz,以捕捉数据中经典方法难以察觉的相关性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1179046.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

YOLO26创新改进 | 独家创新首发、Neck改进篇 | 来自CVPR 2025 暗光增强 | 引入LCA交叉注意力机制和IEL特征增强模块,助力YOLO26低光,暗光检测高效涨点!

一、本文介绍 🔥本文给大家介绍LCA和IEL两个创新点改进YOLO26模型!LCA(Lighten Cross-Attention)和IEL(Intensity Enhance Layer)两种创新点在低光图像增强中发挥着重要作用,旨在解决传统方法中常见的色彩偏差和亮度噪声问题,助力YOLO26低光,暗光检测高效涨点!具体…

YOLO26创新改进 | 全网独家创新、涨点改进篇 | ACM 2025 顶会 | 引入AAFM自适应对齐频率模块, 实现跨范式特征的深层对齐与融合, 在八个基准数据集上取得SOTA性能!

一、本文介绍 本文给大家介绍一种AAFM自适应对齐频率模块改进YOLO26模型!AAFM 提出了一种两阶段渐进融合策略(解决基于卷积的局部特征与基于自注意力的全局特征之间,以及空间和通道维度特征之间,存在的特征不对齐问题),助力YOLO26高效涨点!具体怎么使用请看全文。 🔥…

YOLOv13新思路:SFHF + 傅里叶频域特征融合,mAP提升7.66%的完整方案

绿色线条为添加SFHF模块后的效果,map提升7.66,准确率提升9.11 通过SFHF_FourierUnit对输入进行傅里叶变换,提取频域特征,再利用TokenMixer_For_Local和TokenMixer_For_Gloal分别处理局部和全局特征,进行特征融合。通过卷积操作与残差连接增强信息流。SFHF_Block包含标准化…

YOLO26创新改进 | 全网独家,注意力创新改进篇 | AAAI 2025 | 引入DTAB和GCSA创新点,通过重新设计通道和空间自注意力机制,助力YOLO26有效涨点

一、本文介绍 本文给大家介绍使用DTAB和GCSA创新点改进YOLO26模型!TBSN通过重新设计通道自注意力(分组通道注意力 G-CSA)来防止多尺度架构中的盲点信息泄露,并利用带掩膜的窗口自注意力 (M-WSA) 模仿扩张卷积以保持盲点特性,助力YOLO26有效涨点。 🔥欢迎订阅我的专栏、…

YOLOv8精度不够?这一套IoU改进方案,让目标检测框直接“贴边”,毕设效果拉满

文章目录一、为什么IoU家族升级是毕设的“精度密钥”&#xff1f;二、IoU家族的“精度逻辑”&#xff1a;让检测框学会“精准对齐”1. WIoU&#xff1a;动态分配注意力2. SIoU&#xff1a;形状与位置双优化3. EIoU&#xff1a;拆分维度精准优化三、实战&#xff1a;IoU家族升级…

程序员必看:从零开始如何进入大模型产品岗(附真实案例与面试经验)

文章揭示大模型产品岗位高度内卷&#xff0c;对专业背景和真实AI项目经验要求极高&#xff0c;不同于传统PM。强调需从0到1设计产品、模型选型评估等实战经验&#xff0c;非简单API调用。提供四阶段成长路径及多专业背景成功案例&#xff0c;建议求职者明确定位&#xff0c;先上…

6个论文平台AI分析:智能改写提升学术专业性

开头总结工具对比&#xff08;技能4&#xff09; &#xfffd;&#xfffd; 为帮助学生们快速选出最适合的AI论文工具&#xff0c;我从处理速度、降重效果和核心优势三个维度&#xff0c;对比了6款热门网站&#xff0c;数据基于实际使用案例&#xff1a; 工具名称 处理速度 降…

浙大权威团队《大模型基础》教材,小白入门必看!

浙江大学DAILY实验室团队编写的《大模型基础》教材是大语言模型入门优质资源&#xff0c;涵盖从传统语言模型到大模型架构、提示工程等核心技术。特色是将技术内容融入动物背景&#xff0c;降低理解门槛。读者可通过扫码添加微信免费获取教材、600篇LLM论文及大模型系列课程。此…

YOLO26涨点改进 | 全网独家复现,注意力创新改进篇 | ICCV 2025 | 引入MSA多尺度注意力,多尺度特征有助于全局感知和增强局部细节、助力小目标检测、遥感小目标检测、图像分割有效涨点

一、本文介绍 本文给大家介绍Multi-Scale Attention(MSA)多尺度注意力模块改进YOLO26。MSA 模块为 YOLO26 提供了更强的多尺度建模能力和显著的判别特征增强,提升了目标检测与异常检测的鲁棒性和精度,同时保持高效、轻量、可即插即用。具体怎么使用请看全文! 🔥欢迎订…

AI论文助手功能对比:8款工具写作与降重测评,学术效率提升方案

基于核心功能、处理速度和适用性的综合评估&#xff0c;结合用户反馈和实际案例数据&#xff0c;以下8个AI论文工具在学术写作辅助领域表现突出&#xff1a; ChatGPT凭借强大的语言生成能力位居前列&#xff0c;紧随其后的是专注于文献综述的Elicit和高效润色工具QuillBot&…

YOLO26创新改进 | 全网独家,Neck特征融合改进篇 | TGRS 2025顶刊 | 引入DSAM双流注意力融合模块,适合提升小目标检测任务精度,含3种创新改进点

一、本文介绍 本文给大家介绍DSAM双流注意力融合模块优化YOLO26模型!DSAM双流注意力融合模块通过显式建模前景与背景注意力,引导特征融合过程,从而提升小目标在复杂背景中的辨识能力,助力YOLO26各种小目标检测任务有效涨点 。具体怎么使用请看全文! 🔥欢迎订阅我的专栏…

零基础入门到实战:AI大模型全栈课程,手把手教你掌握Prompt技巧与模型微调

这是一门面向零基础学员的AI大模型课程&#xff0c;包含八大主题、六大项目实战和四大行业应用。课程从神经网络底层逻辑到DeepSeek等前沿技术剖析&#xff0c;涵盖Prompt技巧、模型训练微调、专家系统打造等内容&#xff0c;结合复杂性科学理论解读AI爆发逻辑。主讲专家为国内…

大模型如何破解就业难题?从学生到企业的全场景应用指南

本文介绍大模型技术在就业服务领域的创新应用&#xff0c;通过"校园职航&AI艾就业"平台&#xff0c;将30年HR经验与大模型结合&#xff0c;打造AI就业智能体。该平台提供职业测评、简历优化、面试模拟等全流程服务&#xff0c;帮助学生精准匹配职业方向&#xff…

YOLO26涨点改进 | 全网独家创新首发、特征融合Neck改进篇 | SCI 一区 2025 | 通道拼接融合已过时!用 DPCF 给 YOLO26加了“放大镜”,助力小目标检测高效涨点!

一、本文介绍 🔥提升小目标检测精度?用 DPCF 重新定义 YOLO26 的 Neck! 本文介绍将 DPCF 模块用于 YOLO26 的 Neck特征融合改进,可以显著提升多尺度特征融合质量,尤其是在小目标、低对比度、红外等场景中,增强检测精度和鲁棒性,同时保持较低计算开销,是一种高效且实…

YOLO26创新改进 | 全网独家创新篇、小目标检测专属 | AAAI 2025 | 引入HS-FPN中的HFP和SDP创新点,从频域增强小目标特征,淘汰FPN进行升级,助力YOLO26有效涨点

一、本文介绍 🔥本文给大家介绍HFP和SDP创新点优化YOLO26模型!HS-FPN通过高频感知模块(HFP)从频域增强小目标特征,并利用空间依赖感知模块(SDP)捕获相邻像素间的空间依赖。实验表明,HS-FPN在AI-TOD和DOT Amini10等小目标检测数据集上,相较于FPN显著提升了检测性能,…

RAG做出来容易,做好难?一文教你优化表格数据检索,建议收藏学习

文章指出RAG技术实现简单但优化困难&#xff0c;特别是在处理文档表格数据时。针对表格数据&#xff0c;作者建议将其作为结构化数据处理&#xff1a;一方面可以将表格数据提取为markdown格式进行语义召回&#xff0c;另一方面可以保存到关系数据库中使用SQL查询。通过结合SQL查…

多智能体协作模式:让AI智能体“组队干活“,突破单一能力边界(附完整代码)

文章介绍了多智能体协作模式&#xff0c;通过多个专业智能体分工合作&#xff0c;突破单一智能体的能力边界&#xff0c;解决复杂任务。详细阐述了多智能体协作的定义、6种典型协作形式、6种通信结构、4个实现要点&#xff0c;并通过实际案例对比展示了多智能体协作在效率和效果…

一个期望小问题

求 \(n\) 阶排列的置换环数量和。 GF,Stirling 数可以算,但是可以用期望的眼光看待。 一个点 \(i\) 所在环长度是 \(k\) 的概率是 \(1/n\),其是环上最小值的概率是 \(1/k\),环的数量可以看成 \(\sum [i 为环上最小…

AI产品经理学习路线非常详细,想成为AI产品经理?面试20+人后,我建议你照着这份指南准备

文章从AI产品总监视角&#xff0c;解析AI产品经理的分类&#xff08;模型层与应用型&#xff09;及必备能力&#xff1a;AI原生思维&#xff08;接受不确定性、提示即交互、数据飞轮&#xff09;、技术边界理解、交互设计、数据评估闭环&#xff0c;以及场景解构能力。强调AI产…

智能体持久性记忆实战:从0到1构建双路记忆堆栈

本文介绍如何为智能体构建持久性记忆系统&#xff0c;通过双路记忆堆栈&#xff08;情节记忆语义记忆&#xff09;解决智能体健忘问题。情节记忆使用向量数据库存储对话历史&#xff0c;语义记忆使用图数据库存储结构化事实。文章详细展示了实现方法、代码构建及实际应用&#…