网站建设需要摊销吗做网站用语言

news/2025/9/29 22:18:02/文章来源:
网站建设需要摊销吗,做网站用语言,郴州网站定制,在手机上怎么做微电影网站吗一、说明 本篇介绍模型模型的参数#xff0c;模型推理和使用#xff0c;保存加载。 二、训练参数和模型 在本单元中#xff0c;我们将了解如何加载模型及其持久参数状态和推理模型预测。为了加载模型#xff0c;我们将定义模型类#xff0c;其中包含用于训练模型的神经网… 一、说明 本篇介绍模型模型的参数模型推理和使用保存加载。 二、训练参数和模型 在本单元中我们将了解如何加载模型及其持久参数状态和推理模型预测。为了加载模型我们将定义模型类其中包含用于训练模型的神经网络的状态和参数。 %matplotlib inline import torch import onnxruntime from torch import nn import torch.onnx as onnx import torchvision.models as models from torchvision import datasets from torchvision.transforms import ToTensor class NeuralNetwork(nn.Module):def __init__(self):super(NeuralNetwork, self).__init__()self.flatten nn.Flatten()self.linear_relu_stack nn.Sequential(nn.Linear(28*28, 512),nn.ReLU(),nn.Linear(512, 512),nn.ReLU(),nn.Linear(512, 10),nn.ReLU())def forward(self, x):x self.flatten(x)logits self.line 加载模型权重时我们需要首先实例化模型类因为该类定义了网络的结构。接下来我们使用 load_state_dict 方法加载参数。 model NeuralNetwork() model.load_state_dict(torch.load(data/model.pth)) model.eval() 注意请务必在推理之前调用 model.eval 方法以将 dropout 和批量归一化层设置为评估模式。如果不这样做将产生不一致的推理结果。 三、模型推理 优化模型以在各种平台和编程语言上运行是很困难的。在所有不同的框架和硬件组合中最大限度地提高性能是非常耗时的。开放式神经网络交换 ONNX 运行时为您提供了一种解决方案只需训练一次即可在任何硬件、云或边缘设备上加速推理。 ONNX 是许多供应商支持的一种通用格式用于共享神经网络和其他机器学习模型。您可以使用 ONNX 格式在其他编程语言和框架如 Java、JavaScript、C# 和 ML.NET上对模型进行推理。 input_image torch.zeros((1,28,28)) onnx_model data/model.onnx onnx.export(model, input_image, onnx_model) 我们将使用测试数据集作为示例数据以便从 ONNX 模型进行推理以进行预测。 test_data datasets.FashionMNIST(rootdata,trainFalse,downloadTrue,transformToTensor() )classes [T-shirt/top,Trouser,Pullover,Dress,Coat,Sandal,Shirt,Sneaker,Bag,Ankle boot, ] x, y test_data[0][0], test_data[0][1] 我们需要使用 onnxruntime 创建一个推理会话。推理会话。为了推断 onnx 模型我们使用 run 和 pass 输入要返回的输出列表如果需要所有输出请留空和输入值映射。结果是一个输出列表 session onnxruntime.InferenceSession(onnx_model, None) input_name session.get_inputs()[0].name output_name session.get_outputs()[0].nameresult session.run([output_name], {input_name: x.numpy()}) predicted, actual classes[result[0][0].argmax(0)], classes[y] print(fPredicted: {predicted}, Actual: {actual}) 四、torch.utils.data.DataLoader和torch.utils.data.Dataset PyTorch有两个基元来处理数据torch.utils.data.DataLoader和torch.utils.data.Dataset。数据集存储样本及其相应的标签DataLoader 围绕数据集包装一个可迭代对象。 %matplotlib inline import torch from torch import nn from torch.utils.data import DataLoader from torchvision import datasets from torchvision.transforms import ToTensor, Lambda, Compose import matplotlib.pyplot as plt PyTorch提供特定于领域的库如TorchTextTorchVision和TorchAudio所有这些都包括数据集。在本教程中我们将使用TorchVision数据集。 torchvision.datasets 模块包含许多真实世界视觉数据如 CIFAR 和 COCO的数据集对象。在本教程中我们将使用 FashionMNIST 数据集。每个TorchVision数据集都包含两个参数转换和target_transform分别修改样本和标签。 # Download training data from open datasets. training_data datasets.FashionMNIST(rootdata,trainTrue,downloadTrue,transformToTensor(), )# Download test data from open datasets. test_data datasets.FashionMNIST(rootdata,trainFalse,downloadTrue,transformToTensor(), ) 我们将数据集作为参数传递给 DataLoader。这将在我们的数据集上包装一个可迭代对象并支持自动批处理、采样、随机排序和多进程数据加载。这里我们定义一个 64 的批量大小即 dataloader 迭代中的每个元素将返回一批 64 个特征和标签。 batch_size 64# Create data loaders. train_dataloader DataLoader(training_data, batch_sizebatch_size) test_dataloader DataLoader(test_data, batch_sizebatch_size)for X, y in test_dataloader:print(Shape of X [N, C, H, W]: , X.shape)print(Shape of y: , y.shape, y.dtype)break# Display sample data figure plt.figure(figsize(10, 8)) cols, rows 5, 5 for i in range(1, cols * rows 1):idx torch.randint(len(test_data), size(1,)).item()img, label test_data[idx]figure.add_subplot(rows, cols, i)plt.title(label)plt.axis(off)plt.imshow(img.squeeze(), cmapgray) plt.show() Shape of X [N, C, H, W]: torch.Size([64, 1, 28, 28]) Shape of y: torch.Size([64]) torch.int64 五、创建模型 为了在 PyTorch 中定义神经网络我们创建一个继承自 nn.Module 的类。我们在 __init__ 函数中定义网络层并在转发函数中指定数据如何通过网络。为了加速神经网络的运算我们将其转移到 GPU如果可用。 # Get cpu or gpu device for training. device cuda if torch.cuda.is_available() else cpu print(Using {} device.format(device))# Define model class NeuralNetwork(nn.Module):def __init__(self):super(NeuralNetwork, self).__init__()self.flatten nn.Flatten()self.linear_relu_stack nn.Sequential(nn.Linear(28*28, 512),nn.ReLU(),nn.Linear(512, 512),nn.ReLU(),nn.Linear(512, 10),nn.ReLU())def forward(self, x):x self.flatten(x)logits self.linear_relu_stack(x)return logitsmodel NeuralNetwork().to(device) print(model) Using cuda device NeuralNetwork((flatten): Flatten()(linear_relu_stack): Sequential((0): Linear(in_features784, out_features512, biasTrue)(1): ReLU()(2): Linear(in_features512, out_features512, biasTrue)(3): ReLU()(4): Linear(in_features512, out_features10, biasTrue)(5): ReLU()) ) 六、优化模型参数 为了训练模型我们需要一个损失函数和一个优化器。我们将使用 nn。交叉熵损失用于损失随机梯度下降用于优化。 loss_fn nn.CrossEntropyLoss() learning_rate 1e-3 optimizer torch.optim.SGD(model.parameters(), lrlearning_rate) 在单个训练循环中模型对训练数据集进行预测批量馈送到它并向后传播预测误差以调整模型的参数。 def train(dataloader, model, loss_fn, optimizer):size len(dataloader.dataset)for batch, (X, y) in enumerate(dataloader):X, y X.to(device), y.to(device)# Compute prediction errorpred model(X)loss loss_fn(pred, y)# Backpropagationoptimizer.zero_grad()loss.backward()optimizer.step()if batch % 100 0:loss, current loss.item(), batch * len(X) 我们还可以对照测试数据集检查模型的性能以确保它正在学习。 def test(dataloader, model):size len(dataloader.dataset)model.eval()test_loss, correct 0, 0with torch.no_grad():for X, y in dataloader:X, y X.to(device), y.to(device)pred model(X)test_loss loss_fn(pred, y).item()correct (pred.argmax(1) y).type(torch.float).sum().item()test_loss / sizecorrect / sizeprint(fTest Error: \n Accuracy: {(100*correct):0.1f}%, Avg loss: {test_loss:8f} \n) 训练过程通过多次迭代纪元进行。在每个时期模型学习参数以做出更好的预测。我们打印模型在每个时期的准确性和损失;我们希望看到精度随着每个时期的增加和损失的减少而减少。 epochs 15 for t in range(epochs):print(fEpoch {t1}\n-------------------------------)train(train_dataloader, model, loss_fn, optimizer)test(test_dataloader, model) print(Done!) Epoch 1 ------------------------------- loss: 2.295450 [ 0/60000] loss: 2.293073 [ 6400/60000] loss: 2.278504 [12800/60000] loss: 2.282501 [19200/60000] loss: 2.273211 [25600/60000] loss: 2.258452 [32000/60000] loss: 2.248237 [38400/60000] loss: 2.228594 [44800/60000] loss: 2.240276 [51200/60000] loss: 2.221318 [57600/60000] Test Error: Accuracy: 51.8%, Avg loss: 0.034745 Epoch 2 ------------------------------- loss: 2.212354 [ 0/60000] loss: 2.207739 [ 6400/60000] loss: 2.160400 [12800/60000] loss: 2.176181 [19200/60000] loss: 2.168270 [25600/60000] loss: 2.146453 [32000/60000] loss: 2.119934 [38400/60000] loss: 2.083791 [44800/60000] loss: 2.126453 [51200/60000] loss: 2.077550 [57600/60000] Test Error: Accuracy: 53.2%, Avg loss: 0.032452 Epoch 3 ------------------------------- loss: 2.082280 [ 0/60000] loss: 2.068733 [ 6400/60000] loss: 1.965958 [12800/60000] loss: 1.997126 [19200/60000] loss: 2.002057 [25600/60000] loss: 1.967370 [32000/60000] loss: 1.910595 [38400/60000] loss: 1.849006 [44800/60000] loss: 1.944741 [51200/60000] loss: 1.861265 [57600/60000] Test Error: Accuracy: 51.6%, Avg loss: 0.028937 Epoch 4 ------------------------------- loss: 1.872628 [ 0/60000] loss: 1.844543 [ 6400/60000] loss: 1.710179 [12800/60000] loss: 1.779804 [19200/60000] loss: 1.737971 [25600/60000] loss: 1.746953 [32000/60000] loss: 1.624768 [38400/60000] loss: 1.575720 [44800/60000] loss: 1.742827 [51200/60000] loss: 1.653375 [57600/60000] Test Error: Accuracy: 58.4%, Avg loss: 0.025570 Epoch 5 ------------------------------- loss: 1.662315 [ 0/60000] loss: 1.636235 [ 6400/60000] loss: 1.508407 [12800/60000] loss: 1.606842 [19200/60000] loss: 1.560728 [25600/60000] loss: 1.606024 [32000/60000] loss: 1.426900 [38400/60000] loss: 1.406240 [44800/60000] loss: 1.619918 [51200/60000] loss: 1.521326 [57600/60000] Test Error: Accuracy: 61.2%, Avg loss: 0.023459 Epoch 6 ------------------------------- loss: 1.527535 [ 0/60000] loss: 1.511209 [ 6400/60000] loss: 1.377129 [12800/60000] loss: 1.494889 [19200/60000] loss: 1.457990 [25600/60000] loss: 1.502333 [32000/60000] loss: 1.291539 [38400/60000] loss: 1.285098 [44800/60000] loss: 1.484891 [51200/60000] loss: 1.414015 [57600/60000] Test Error: Accuracy: 62.2%, Avg loss: 0.021480 Epoch 7 ------------------------------- loss: 1.376779 [ 0/60000] loss: 1.384830 [ 6400/60000] loss: 1.230116 [12800/60000] loss: 1.382574 [19200/60000] loss: 1.255630 [25600/60000] loss: 1.396211 [32000/60000] loss: 1.157718 [38400/60000] loss: 1.186382 [44800/60000] loss: 1.340606 [51200/60000] loss: 1.321607 [57600/60000] Test Error: Accuracy: 62.8%, Avg loss: 0.019737 Epoch 8 ------------------------------- loss: 1.243344 [ 0/60000] loss: 1.279124 [ 6400/60000] loss: 1.121769 [12800/60000] loss: 1.293069 [19200/60000] loss: 1.128232 [25600/60000] loss: 1.315465 [32000/60000] loss: 1.069528 [38400/60000] loss: 1.123324 [44800/60000] loss: 1.243827 [51200/60000] loss: 1.255190 [57600/60000] Test Error: Accuracy: 63.4%, Avg loss: 0.018518 Epoch 9 ------------------------------- loss: 1.154148 [ 0/60000] loss: 1.205280 [ 6400/60000] loss: 1.046463 [12800/60000] loss: 1.229866 [19200/60000] loss: 1.048813 [25600/60000] loss: 1.254785 [32000/60000] loss: 1.010614 [38400/60000] loss: 1.077114 [44800/60000] loss: 1.176766 [51200/60000] loss: 1.206567 [57600/60000] Test Error: Accuracy: 64.3%, Avg loss: 0.017640 Epoch 10 ------------------------------- loss: 1.090360 [ 0/60000] loss: 1.149150 [ 6400/60000] loss: 0.990786 [12800/60000] loss: 1.183704 [19200/60000] loss: 0.997114 [25600/60000] loss: 1.207199 [32000/60000] loss: 0.967512 [38400/60000] loss: 1.043431 [44800/60000] loss: 1.127000 [51200/60000] loss: 1.169639 [57600/60000] Test Error: Accuracy: 65.3%, Avg loss: 0.016974 Epoch 11 ------------------------------- loss: 1.041194 [ 0/60000] loss: 1.104409 [ 6400/60000] loss: 0.947670 [12800/60000] loss: 1.149421 [19200/60000] loss: 0.960403 [25600/60000] loss: 1.169899 [32000/60000] loss: 0.935149 [38400/60000] loss: 1.018250 [44800/60000] loss: 1.088222 [51200/60000] loss: 1.139813 [57600/60000] Test Error: Accuracy: 66.2%, Avg loss: 0.016446 Epoch 12 ------------------------------- loss: 1.000646 [ 0/60000] loss: 1.067356 [ 6400/60000] loss: 0.912046 [12800/60000] loss: 1.122742 [19200/60000] loss: 0.932827 [25600/60000] loss: 1.138785 [32000/60000] loss: 0.910242 [38400/60000] loss: 0.999010 [44800/60000] loss: 1.056596 [51200/60000] loss: 1.114582 [57600/60000] Test Error: Accuracy: 67.5%, Avg loss: 0.016011 Epoch 13 ------------------------------- loss: 0.966393 [ 0/60000] loss: 1.035691 [ 6400/60000] loss: 0.881672 [12800/60000] loss: 1.100845 [19200/60000] loss: 0.910265 [25600/60000] loss: 1.112597 [32000/60000] loss: 0.889558 [38400/60000] loss: 0.982751 [44800/60000] loss: 1.029199 [51200/60000] loss: 1.092738 [57600/60000] Test Error: Accuracy: 68.5%, Avg loss: 0.015636 Epoch 14 ------------------------------- loss: 0.936334 [ 0/60000] loss: 1.007734 [ 6400/60000] loss: 0.854663 [12800/60000] loss: 1.081601 [19200/60000] loss: 0.890581 [25600/60000] loss: 1.089641 [32000/60000] loss: 0.872057 [38400/60000] loss: 0.969192 [44800/60000] loss: 1.005193 [51200/60000] loss: 1.073098 [57600/60000] Test Error: Accuracy: 69.4%, Avg loss: 0.015304 Epoch 15 ------------------------------- loss: 0.908971 [ 0/60000] loss: 0.982067 [ 6400/60000] loss: 0.830095 [12800/60000] loss: 1.064921 [19200/60000] loss: 0.874204 [25600/60000] loss: 1.069008 [32000/60000] loss: 0.856447 [38400/60000] loss: 0.957340 [44800/60000] loss: 0.983547 [51200/60000] loss: 1.055251 [57600/60000] Test Error: Accuracy: 70.3%, Avg loss: 0.015001 Done! 准确性最初不会很好没关系尝试运行循环以获取更多纪元或将learning_rate调整为更大的数字。也可能是我们选择的模型配置可能不是此类问题的最佳配置。 七、保存模型 保存模型的常用方法是序列化内部状态字典包含模型参数。 torch.save(model.state_dict(), data/model.pth) print(Saved PyTorch Model State to model.pth) 八、负载模型 加载模型的过程包括重新创建模型结构并将状态字典加载到其中。 model NeuralNetwork() model.load_state_dict(torch.load(data/model.pth)) 此模型现在可用于进行预测。 classes [T-shirt/top,Trouser,Pullover,Dress,Coat,Sandal,Shirt,Sneaker,Bag,Ankle boot, ]model.eval() x, y test_data[0][0], test_data[0][1] with torch.no_grad():pred model(x)predicted, actual classes[pred[0].argmax(0)], classes[y]print(fPredicted: {predicted}, Actual: {actual}) Predicted: Ankle boot, Actual: Ankle boot 祝贺您已经完成了 PyTorch 初学者教程我们希望本教程能帮助您在 PyTorch 上开始深度学习。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/922297.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

厦门同安区建设局网站拿网站的文章做外链

参照《经济研究》中毛其淋等(2023)的做法,团队对上市公司员工、工资数据测算。用上市公司i在t年的员工人数的对数衡量企业的就业水平,采用企业应付职工薪酬与员工人数的比值衡量企业工资水平 一、数据介绍 …

详细介绍:网络安全隔离技术解析:从网闸到光闸的进化之路

详细介绍:网络安全隔离技术解析:从网闸到光闸的进化之路2025-09-29 22:00 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important…

常州创新优典网站建设吕梁网站制作

配置WLAN AC和AP之间VPN穿越示例 组网图形 图1 配置WLAN AC和AP之间VPN穿越示例组网图 业务需求组网需求数据规划配置思路配置注意事项操作步骤配置文件 业务需求 企业用户接入WLAN网络,以满足移动办公的最基本需求。且在覆盖区域内移动发生漫游时,不影响…

一、驱动基础知识速览(迅为RK3568)

一、基础知识编译代码的三个环境变量,ARCH、CROSS_COMPILE、PATH分别表示架构、工具链、路径 驱动模块传参,module_param,module_param_array、module_param_string传递基本数据类型、数组和字符串 内核模块导出EXP…

网站建设人员要与客户谈什么北京工地网站建设

说到天龙八部的附体宝宝,相信许多爱美的玩家基本上都人手一只。附体后的增益多不多无所谓,首先附体后身上有龙、凤凰、蝴蝶等之类的特效,让许多玩家觉得游戏中角色颜值增添不少,当然一只属性不错的附体珍兽,也能够给游…

基于KingbaseES集群管理实战:从部署运维到高可用架构深度解析 - 实践

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

小型企业网站建站wordpress 底部模板

富格林认为,由于现货黄金具有独特的交易模式,因此让操作起来相当灵活,并且还可以拥有更强的盈利能力。实现盈利出金是投资者的投资目标,但是现货黄金市场复杂其中隐含着不少虚假暗箱陷阱,因此投资者要增强防范意识。下…

嘉定西安网站建设wordpress2

1.初始化npm包 npm init 输入npm init后,一路默认即可初始化成功,如下: 初始化成功后会生成一个package.json文件 n(以我的文件夹demo-npm-dir为例) package.json配置如下: {"name": "n…

java代码审计-Shiro认证授权

java代码审计 Shiro认证授权部分 前言: 这两天发现自己读shiro权限这块有点忘了,于是再好好学一遍shiro,然后结合实战代码审计记录练下1.Shiro 核心组件 shiro中的权限定义:用户,角色,权限 ,如图所示1、Usernam…

天津网站设计网站编辑器哪个好用

模板是一个让C支持范型编程的重要功能,它本质上是一个万能变量适配器;vector,pair等都是使用模板实现的 模板是C的一个强大特性,它允许您编写通用的代码来处理不同的数据类型。您可以有函数模板和类模板。 函数模板: 函数模板允许您创建一…

wordpress二次元主体seo推广方式

在有些时候我们的网友不清楚电脑显示器如何设置成满屏,那么下面就由学习啦小编来给你们说说电脑显示器设置成满屏的方法吧,希望可以帮到你们哦!电脑显示器设置成满屏的方法:右击桌面,选择弹出对话框中的【屏幕分辨率】如下图。弹出…

公司建网站多少钱没有网站怎么做百度竞价

在网页中,辛辛苦苦写的文章,被别人复制粘贴给盗用去另很多站长感到非常无奈,通常大家复制都会使用选取右键复制,或CTRLC等方式,下面介绍几种禁止鼠标右键代码,可减少网页上文章被抄袭的几率,当然…

建设官方网站的费用账务处理机构网站源码

1.下面是这款AP的全裸图,AP的无线网卡采用了AR9223,PHY采用了博通的BCM5461,主控CPU位octeon 500,射频功放采用的是RF5602方案。由于这款CPU并不常见,我至今未在网上找到它的datasheet,导致我们在玩这款AP的…

CF868F题解

先考虑朴素的暴力,设 \(f_{k,i}\) 表示前 \(i\) 个数划分为 \(k\) 段的最小代价,有 \(f_{k,i}=\min_j\{f_{k-1,j-1}+w(j,i)\}\) ,其中, \(w(x,y)\) 表示 \([x,y]\) 中相同元素的对数。 可以先在外层枚举 \(k\) ,考…

ThinkPHP反序列化分析

ThinkPHPv5.0.x反序列化利用链 前言 漏洞测试环境: php 7.3 + Windows + ThinkPHPv5.0.23 漏洞测试代码: index/controller/Index.php <?php namespace app\index\controller;class Index {public function index(…

建设京东物流网站的目标是什么广州网站排名专业乐云seo

VScode 国内下载源 进入官网 https://code.visualstudio.com/ 点击下载 复制下载链接到新的浏览器标签 将地址中的/stable前的az764295.vo.msecnd.net换成vscode.cdn.azure.cn&#xff0c;再回车就会直接在下载列表啦。 参考大神博客 2.使用nvm 对 node 和npm进行版本控制…

AT_iroha2019_day4_l 题解

题意:有一个数轴, \(Q\) 次操作,三种操作类型:1.在位置为 \(x\) 处插入权值为 \(w\) 的数,不会在有数的位置重复插入。 2.删除位置 \(x\) 处的数,保证删前 \(x\) 处有数。 3.给定位置 \(x\) ,对于一个数轴上有数…

怎么在工商网站做实名认证推广效果好的有哪些

想要在前端项目中压缩图片&#xff0c;然后再上传到后端保存&#xff0c;就需要一个压缩工具的帮助&#xff0c;暂时有两个依赖库可以选择&#xff1a;image-conversion和yireen/squoosh-browser&#xff0c;看了官方仓库地址和更新时间等详情&#xff0c;发现还是yireen/squoo…

兰州建设局网站公告wordpress Cute

1.你先作个自我介绍吧 面试官您好&#xff0c;我叫张睿超&#xff0c;来自湖南长沙&#xff0c;大学毕业于湖南农业大学&#xff0c;是一名智能科学与技术专业的统招一本本科生。今天主要过来面试贵公司的Java后端开发工程师岗位。 大学里面主修的课程是Java、Python、数字图…