文章目录
- Week 34: 量子深度学习入门:从 Neural ODE 到哈密顿量子演化
- 摘要
- Abstract
- 1. ResNet的连续极限
- 1.1 从离散层到连续流
- 1.2 伴随敏感度法
- 2. 非均匀时序建模
- 2.1 场景
- 2.2 ODE-RNN
- 3. 跨越边界:哈密顿量与量子可能性
- 3.1 物理守恒与哈密顿网络 (HNN)
- 3.2 薛定谔方程
- 总结
Week 34: 量子深度学习入门:从 Neural ODE 到哈密顿量子演化
摘要
本周的研究聚焦于深度学习与动力系统的交叉领域。本周学习了连续时间场景下的问题,深入探究了神经常微分方程 Neural ODE及其物理本质哈密顿量演化,为量子计算的创新做一定的基础工作。
Abstract
This week’s research has centred on the interdisciplinary field of deep learning and dynamical systems. We examined problems within continuous-time settings, delving deeply into Neural Ordinary Differential Equations (Neural ODEs) and their physical essence—the evolution of the Hamiltonian. This work lays foundational groundwork for innovations in quantum computing.
1. ResNet的连续极限
1.1 从离散层到连续流
经典的残差网络 (ResNet) 的更新公式为:
h t + 1 = h t + f ( h t , θ t ) h_{t+1} = h_t + f(h_t, \theta_t)ht+1=ht+f(ht,θt)
这可以看作是微分方程 $ \frac{dh(t)}{dt} = f(h(t), t, \theta) $ 的欧拉离散化(步长Δ t = 1 \Delta t = 1Δt=1)。
Neural ODE 提出直接对微分方程进行建模:
h ( T ) = h ( 0 ) + ∫ 0 T f ( h ( t ) , t , θ ) d t h(T) = h(0) + \int_{0}^{T} f(h(t), t, \theta) dth(T)=h(0)+∫0Tf(h(t),t,θ)dt
其中f ff是一个神经网络。求解h ( T ) h(T)h(T)不再依赖固定的层数,而是通过黑盒的 ODE Solver(如 Runge-Kutta 方法)进行积分。
1.2 伴随敏感度法
为了训练 Neural ODE,反向传播必须穿过 ODE Solver。直接反向传播内存开销巨大。而伴随法通过求解另一个逆向的 ODE 来计算梯度,使得显存占用为O ( 1 ) O(1)O(1),与积分步数无关。这对于长序列环境数据模拟至关重要。
2. 非均匀时序建模
2.1 场景
在环境科学(如空气质量监测、水文模拟)中,传感器数据往往是非均匀采样 (Irregularly Sampled) 的——传感器可能因故障断连,或采样频率随电量变化。
- 传统 RNN/LSTM:只能按固定步长t = 1 , 2 , 3 t=1, 2, 3t=1,2,3处理,必须进行插值填补,这会引入人为偏差。
- Neural ODE:天然处理连续时间t ∈ R t \in \mathbb{R}t∈R。给定任意观测时刻t i t_iti,Solver 都能积分到该时刻给出预测。
2.2 ODE-RNN
基于torchdiffeq的 ODE-RNN 模型,用于模拟简单的空气污染物扩散过程。
importtorchimporttorch.nnasnnfromtorchdiffeqimportodeintclassODEFunc(nn.Module):"""定义动力学方程 dh/dt = f(h, t)"""def__init__(self,hidden_dim):super().__init__()self.net=nn.Sequential(nn.Linear(hidden_dim,50),nn.Tanh(),nn.Linear(50,hidden_dim),)defforward(self,t,h):returnself.net(h)classODERNN(nn.Module):def__init__(self,input_dim,hidden_dim):super().__init__()self.ode_func=ODEFunc(hidden_dim)self.gru_cell=nn.GRUCell(input_dim,hidden_dim)self.hidden_dim=hidden_dimdefforward(self,x,times):""" x: 观测数据 [Batch, Seq, Dim] times: 观测时间戳 [Seq] (可是非均匀的) """batch_size=x.size(0)h=torch.zeros(batch_size,self.hidden_dim).to(x.device)outputs=[]foriinrange(len(times)):ifi>0:# 1. 演化 (Evolution): 从 t_{i-1} 积分到 t_i# 这填补了观测间隙的动力学变化t_span=times[i-1:i+1]h=odeint(self.ode_func,h,t_span)[1]# 取终点状态# 2. 更新 (Update): 融合当前观测 x_i# 类似于卡尔曼滤波的"校正"步h=self.gru_cell(x[:,i],h)outputs.append(h)returntorch.stack(outputs,dim=1)在随机丢弃 50% 数据点的模拟数据集上,ODE-RNN 的预测误差显著低于标准 GRU,证明了显式建模物理演化过程的有效性。
3. 跨越边界:哈密顿量与量子可能性
3.1 物理守恒与哈密顿网络 (HNN)
在物理模拟中,Neural ODE 可能违背能量守恒定律。
Hamiltonian Neural Networks (HNN) 引入了哈密顿力学的先验。它不直接学习向量场f ff,而是学习标量场哈密顿量 (Hamiltonian)H ( q , p ) H(q, p)H(q,p)(代表系统总能量)。
系统的演化遵循辛结构 (Symplectic Structure):
d q d t = ∂ H ∂ p , d p d t = − ∂ H ∂ q \frac{dq}{dt} = \frac{\partial H}{\partial p}, \quad \frac{dp}{dt} = -\frac{\partial H}{\partial q}dtdq=∂p∂H,dtdp=−∂q∂H
这保证了在长时间预测中能量不发散。
3.2 薛定谔方程
量子力学的核心方程是薛定谔方程。
i ℏ d ∣ ψ ( t ) ⟩ d t = H ^ ∣ ψ ( t ) ⟩ i\hbar \frac{d|\psi(t)\rangle}{dt} = \hat{H} |\psi(t)\rangleiℏdtd∣ψ(t)⟩=H^∣ψ(t)⟩
这就是一个线性的、复数域的 Neural ODE,其中H ^ \hat{H}H^是哈密顿算符。
量子深度学习的可能性:
- 量子模拟器:我们可以用 Neural ODE (处理复数) 来学习未知的量子哈密顿量H ^ \hat{H}H^,从而预测量子系统的演化。这在量子化学(预测分子能级)中有巨大潜力。
- 量子算法设计: PQC (参数化量子电路) 本质上是离散化的酉演化U ( θ ) = e − i θ H U(\theta) = e^{-i\theta H}U(θ)=e−iθH。如果我们把 Neural ODE 部署在真实的量子计算机上,我们就实现了一个连续时间的模拟量子计算 (Analog Quantum Computing) 模型。
- HNN-Quantum 混合:利用 HNN 在经典 GPU 上学习系统的能量曲面,然后将其编码进量子计算机的哈密顿量中进行快速模拟。
总结
本周的进行了必要的物理原理的了解,学习了 Neural ODE 在处理非均匀采样时序数据(如环境监测)中的优势,尝试理解其与量子力学薛定谔方程的同构性,探讨了其作为连接经典物理模拟与量子深度学习桥梁的潜力。Neural ODE 完美解决了环境科学中“非均匀采样”和“连续物理过程”的建模难题,比纯黑盒 RNN 更具可解释性和鲁棒性。而Neural ODE与薛定谔方程的数学同构性,为我们提供了一种理解量子演化的视角,未来可能根据这点做进一步学习和创新。