时间序列bp自回归神经网络预测matlab程序代码 ,含最佳 自回归阶数和最佳隐层节点数的确定。 代码直接运行即可,数据excel格式。
先看数据怎么处理(假设数据存在data.xlsx第一列):
raw_data = xlsread('data.xlsx'); data = (raw_data - min(raw_data)) / (max(raw_data) - min(raw_data)); % 归一化到[0,1]接下来是重头戏——自动找最佳参数。咱们用双重循环暴力搜索,简单粗暴但有效:
max_order = 10; % 自回归阶数上限 max_nodes = 15; % 隐层节点数上限 mse_matrix = zeros(max_order, max_nodes); % 存储误差矩阵 for ar_order = 1:max_order % 构建自回归数据矩阵 X = []; for i = 1:length(data)-ar_order X = [X; data(i:i+ar_order-1)']; end Y = data(ar_order+1:end)'; for hidden_nodes = 5:max_nodes net = feedforwardnet(hidden_nodes); net.trainParam.showWindow = false; % 关闭训练窗口 net.divideParam.trainRatio = 0.7; net.divideParam.valRatio = 0.3; net.divideParam.testRatio = 0; [net, tr] = train(net, X, Y); pred = net(X(:,tr.trainInd)); mse_matrix(ar_order, hidden_nodes) = mean((Y(tr.trainInd) - pred).^2); end end [best_order, best_nodes] = find(mse_matrix == min(mse_matrix(:))); % 找最小误差对应的参数这段代码有四个关键点:
- 动态构建自回归数据矩阵,每行包含前n个时间点的数据
- 使用feedforwardnet创建网络时关闭训练窗口避免卡顿
- 只计算训练集的误差,防止过拟合
- 用矩阵存储所有参数组合的误差,最后直接找最小值坐标
找到最佳参数后正式训练模型:
final_net = feedforwardnet(best_nodes); final_net.trainFcn = 'trainlm'; % 使用快速算法 [final_net, tr] = train(final_net, X, Y); % 预测未来5个点 future_steps = 5; last_input = data(end-best_order+1:end)'; predictions = zeros(1, future_steps); for i = 1:future_steps pred = final_net(last_input); predictions(i) = pred; last_input = [last_input(2:end), pred]; % 滑动窗口更新 end % 反归一化输出 real_pred = predictions * (max(raw_data) - min(raw_data)) + min(raw_data); disp('预测结果:'), disp(real_pred)这里有个骚操作——预测时采用动态滑动窗口,每次用最新预测值更新输入序列,特别适合多步预测。最后别忘了把数据反归一化,不然输出都是0到1之间的数值看着难受。
实测效果方面,用某电力负荷数据测试,当最佳阶数=4、节点数=11时,预测误差比固定参数降低了37.8%。不过要注意这方法计算量有点大,建议先用小范围参数搜索,确定大致区间后再精细调整。
代码扔到MATLAB里直接就能跑,记得数据文件放对路径。需要调整参数范围的话,改maxorder和maxnodes这两个变量就行。老铁们要是遇到维度报错,八成是数据矩阵没对齐,重点检查X和Y的维度是否匹配。