中国城乡建中国城乡建设部网站sem和seo是什么
web/
2025/10/2 1:56:42/
文章来源:
中国城乡建中国城乡建设部网站,sem和seo是什么,辽宁网站推广,如何做别人的网站文章目录 #x1f680;#x1f680;#x1f680;前言一、1️⃣ Orange Pi AIpro开发板相关介绍1.1 #x1f393; 核心配置1.2 ✨开发板接口详情图1.3 ⭐️开箱展示 二、2️⃣配置开发板详细教程2.1 #x1f393; 烧录镜像系统2.2 ✨配置网络2.3 ⭐️使用SSH连接主板 三、… 文章目录 前言一、1️⃣ Orange Pi AIpro开发板相关介绍1.1 核心配置1.2 ✨开发板接口详情图1.3 ⭐️开箱展示 二、2️⃣配置开发板详细教程2.1 烧录镜像系统2.2 ✨配置网络2.3 ⭐️使用SSH连接主板 三、3️⃣部署yolov8深度学习纤维分割检测模型3.1 yolov8模型介绍3.1.1 概述3.1.2 核心改进 3.2 创建虚拟环境并安装相关库3.3 ✨下载yolov8源码3.4 ⭐️train与detect代码撰写3.4.1 train.py代码3.4.2 detect.py 3.5 纤维分割模型训练3.6 纤维分割模型检测推理3.7 调用摄像头检测 四、4️⃣相关模型测试4.1 如何使用官方案例4.2 ✨官方案例运行结果 五、5️⃣开发板使用感受☀️优点⚡️缺点 前言 近期在做纤维定性定量项目的工程化部署需要运用嵌入式技术将我们的深度学习模型还有软件进行部署通过调研发现深圳市迅龙软件有限公司旗下开源产品品牌Orange Pi非常符合需求经过多项测试之后选择Orange Pi AIpro作为项目开发板非常喜欢它的一句标语“为AI而生” 深圳市迅龙软件有限公司成立于2005年是全球领先的开源硬件、开源软件及智能产品品牌商致力于让全世界每个极客、创客、电子爱好者享用来自中国的优质、低价的开源产品及智能产品拓展无限可能通过大规模的社会化协作去创建一个更加美好的信息化人类文明。目前迅龙业务遍及美国、英国、意大利、俄罗斯、日本、南非、东南亚等100多个国家和地区。更多详细信息可以参考公司链接网址http://www.xunlong.tv/html/aboutUs/index.html 一、1️⃣ Orange Pi AIpro开发板相关介绍
香橙派的Orange Pi AIpro是一款专为人工智能AI应用开发设计的高性能开发板。它集成了先进的处理器、内存、存储以及丰富的接口旨在满足AI边缘计算、深度学习、机器视觉、自然语言处理等多个领域的需求。 Orange Pi AIpro官方网址http://www.orangepi.cn/index.html 1.1 核心配置
Orange Pi AIpro搭载了高性能的AI处理器支持高达数十TOPS每秒万亿次操作的AI算力能够高效运行复杂的AI模型和算法除了AI处理器外还配备了多核CPU提供强大的通用计算能力支持多任务并行处理。配备高容量的LPDDR4X内存和eMMC或SSD存储确保数据的高速读写和模型的高效加载提供HDMI、USB、GPIO、SATA/NVMe M.2插槽、TF卡插槽等多种接口支持多种外设连接和扩展满足不同场景下的需求支持双HDMI输出能够同时驱动两个高清显示屏适用于需要视觉反馈的应用场景支持Ubuntu、openEuler等主流操作系统提供丰富的开发工具和文档帮助开发者快速上手并进行项目开发进一步拓宽了应用场景可以应用到如下场景
AI边缘计算在物联网设备中实现AI算法的本地化处理减少数据传输延迟和带宽消耗。深度学习与机器视觉支持图像识别、视频分析、物体检测等任务适用于安防监控、智能制造等领域。自然语言处理支持语音识别、语义理解等任务适用于智能家居、智能客服等领域。智能机器人为智能小车、机械臂等机器人提供强大的计算能力和AI支持。云计算与大数据作为云计算节点的一部分处理大规模数据并运行复杂的AI算法。
我这边收到的板子是8GB内存8TOPS INT8算力详细配置表格如下
CPU4核64位处理器 AI处理器GPU集成图形处理器AI算力8-12TOPS算力内存LPDDR4X8GB/16GB可选速率3200Mbps存储 • SPI FLASH32MB • SATA/NVME SSDM.2接口2280 • eMMC插槽32GB/64GB/128GB/256GB可选eMMC5.1 HS400 • TF插槽WIFI蓝牙Wi-Fi 5双频2.4G和5G BT4.2/BLE以太网收发器10/100/1000Mbps以太网显示• 2xHDMI2.0 Type-A TX 4K60FPS • 1x2 lane MIPI DSI via FPC connector摄像头2x2-lane MIPI CSI camera interface兼容树莓派摄像头USB• USB 3.0 HOST x2 • USB Type-C 3.0 HOST x1 • Micro USB x1 串口打印功能音频3.5mm耳机孔音频输入/输出按键1x关机键、1xRESET键、2x启动方式拨动键、1x烧录按键40PIN40PIN 功能扩展接口支持以下接口类型 GPIO、UART、I2C、SPI、 I2S、PWM风扇风扇接口x1预留接口2PIN电池接口电源Type-C PD 20V IN 标准65W支持的操作系统Ubuntu、openEuler产品尺寸107*68mm重量82g
1.2 ✨开发板接口详情图
从使用文档中的开发板正反面照片也能看出该板子的集成度非常高主板上集成了多种功能和接口如处理器标明为“4核64位处理器AI处理器”、内存模块支持8GB/16GB LPDDR4X、以及电源管理系统包括“3.3V PWR”、“5V PWR”、“DDR PWR”、“AI PWR”、“CORE PWR”等多种供电模式显示了它在处理复杂任务、提供强大性能和灵活配置方面的能力搭载4核64位处理器并且额外配备了AI处理器这样的组合不仅保证了基础计算的高效性还增加了对AI应用的支持使得开发板在机器学习、图像处理等AI领域的应用成为可能(后面将进行AI模型部署测评)。而且支持WiFi5蓝牙4.2这款开发板在无线连接方面具备较高的标准和良好的兼容性方便与各种外设和传感器进行无线通信并且该开发板预留多个扩展接口也能方便用户根据需要进行功能扩展和硬件升级。
1.3 ⭐️开箱展示
我第一眼看到包装盒给我的感觉是非常小巧可爱的大概也就巴掌大一点配备了一个快充充电器一个开发板还有一个32g的SD卡该卡用来烧录镜像使用(注意没有读卡器后面烧录需要自己准备TF读卡器) 打开包装盒之后最吸引我的就是散热器散热片设计具有精致的金属感不仅美观而且有助于设备的散热保证长时间运行的稳定性总体来说Orange Pi AIpro的做工精细整体给人一种高品质的感觉虽然具体材质信息未详细提及但从外观的质感和散热片的设计可以推测开发板采用了适合散热和耐用的材质从整体的布局来看该板接口布局集中在一侧便于开发者在日常使用中插拔外设这种设计提高了使用的便捷性减少了线缆杂乱的问题。我这边做测试的并没有外壳包装通过官网可以看到Orange Pi AIpro的专属定制外壳非常精致并且便于携带。
二、2️⃣配置开发板详细教程
在开始下面工作之前可以先去Orange Pi 官网下载相关文件找到下载与服务选项选择对应的开发板我用的是Orange Pi AIpro下面也都是用该板子做测试与部署。
点进去之后一定要下载官方工具官方镜像以及用户手册一定要认真阅读用户手册在实际操作中用户手册解决了我很多问题。用户手册一共写了165页基本上把每一个部件的调试都写上了非常的详细而且很有逻辑即使是新手小白也能照着文档操作。
2.1 烧录镜像系统
这一步只需要准备Orange Pi AIpro送的32g的SD卡、带有TF卡槽的读卡器、烧录软件balenEther(在官方工具中)这里我在使用balenEther烧录软件的时候一直有问题最后一步一直提示烧录失败建议以管理员权限打开如果还不行可以更换昇腾的Ascend烧录软件我在使用Ascend烧录软件是一次成功的
2.2 ✨配置网络 烧录成功后其实就已经基本上差不多了但是为了后续能够方便文件上传等操作我们需要配置网络进行SSH连接连接到我们的主机/笔记本电脑上去。 将烧录好的SD卡重新插回开发板中将开发板用充电器连接电源再准备一条网线连接到你的主机或者笔记本电脑上面最后再准备一个显示器或者屏幕用HDMI线将开发板与显示器连接(为了方便后续操作我这里在USB3.0接口插了一个无线键盘鼠标接收器)稍等一会就能看见系统显示界面了。 然后输入密码进入系统默认的就是root和HwHiAiUser用户这两个用户的密码都是Mind123 进入系统之后就可以连接无线网了这里有一点需要注意你的主机和你的开发板连接的网络必须是同一个局域网不然后面互联的时候会显示连接超时一直连接不上。 连接无线网之后就可以鼠标右键在电脑桌面打开终端输入ifconfig查看ip地址我这里IP地址是192.168.11.93子网掩码是255.255.255.0。
查看开发板的IP地址之后我们需要修改主机的ip在以太网连接中找到Internet协议版本4修改属性默认的是自动获取ip我们需要手动修改将ip地址的前三位与开发板的ip保持一致最后一位设置为100(或者其他)子网掩码与开发板保持一致然后保存。
调出windows的命令行窗口输入ipconfig查看IP地址是否修改成功为了保证主机/笔记本与开发板能连通可以使用ping命令ping开发板查看能否发送字节。
2.3 ⭐️使用SSH连接主板
这里我们使用官方提供的工具进行远程连接开发板在官方工具中我们找到MobaXterm软件打开之后选择Session然后在 Session Setting 中选择 SSH在 Remote host 中输入开发板的 IP 地址在 Specify username 中输入 Linux 系统的用户名 root 或 HwHiAiUser。连接之后需要输入登录密码也就是默认的Mind123当出现如下界面时就表示连接成功了就可以对开发板进行命令操作了。
三、3️⃣部署yolov8深度学习纤维分割检测模型
3.1 yolov8模型介绍
3.1.1 概述 官方代码地址https://github.com/ultralytics/ultralytics YOLOv8是Ultralytics公司最新推出的YOLO系列目标检测算法它在继承YOLO系列算法优点的基础上引入了新的功能和改进点以进一步提升性能和灵活性YOLOYou Only Look Once系列模型自2015年推出以来因其高效的目标检测能力在计算机视觉领域广受欢迎。YOLOv8作为该系列的最新版本于2023年1月10日由Ultralytics公司开源进一步优化了检测精度和速度使其在多个应用场景中表现出色。具体创新包括一个新的骨干网络、一个新的 Ancher-Free 检测头和一个新的损失函数可以在从 CPU 到 GPU 的各种硬件平台上运行。yolov8最大的优点就是将当前最先进的SOTA模型融合在一起变成最先进的 (SOTA) 模型。在相同的参数量会发现yolov8的模型要优于之前的yolo版本。
YOLOv8 旨在快速、准确且易于使用使其成为各种对象检测和跟踪、实例分割、图像分类和姿势估计任务的绝佳选择
3.1.2 核心改进
关于yolov8的核心改进如下
提供了一个全新的 SOTA 模型包括 P5 640 和 P6 1280 分辨率 的目标检测网络和基于 YOLACT 的实例分割模型。和 YOLOv5 一样基于缩放系数也提供了 N/S/M/L/X 尺度的不同大小模型用于满足不同场景需求骨干网络和 Neck 部分可能参考了 YOLOv7 ELAN 设计思想将 YOLOv5 的 C3 结构换成了梯度流更丰富的 C2f 结构并对不同尺度模型调整了不同的通道数属于对模型结构精心微调不再是无脑一套参数应用所有模型大幅提升了模型性能。Head 部分相比 YOLOv5 改动较大换成了目前主流的解耦头结构将分类和检测头分离同时也从 Anchor-Based 换成了 Anchor-Free。Loss 计算方面采用了 TaskAlignedAssigner 正样本分配策略并引入了 Distribution Focal Loss。训练的数据增强部分引入了 YOLOX 中的最后 10 epoch 关闭 Mosiac 增强的操作可以有效地提升精度。 官方给的yolov8图比较详细整体架构由三部分组成分别是backbone主干特征提取网络(CSPDarknet)、Neck特征融合网络PANet、head解耦检测头 骨干部分YOLOv8引入了一个新的骨干网络可能参考了YOLOv7 ELAN设计思想将YOLOv5的C3结构换成了梯度流更丰富的C2f结构并对不同尺度模型调整了不同的通道数。这种改进提高了模型的特征提取能力增强了模型对复杂场景的处理能力。采用了CSPNetCross Stage Partial Network技术有效减少了计算成本同时提升了模型的特征表达能力。 检测头YOLOv8的Head部分相比YOLOv5发生了较大变化从原先的耦合头变成了解耦头并且从Anchor-Based转变为Anchor-Free。这种变化简化了检测流程提高了检测精度。 损失函数YOLOv8在Loss计算方面采用了TaskAlignedAssigner正样本分配策略并引入了Distribution Focal Loss。这些改进有助于更准确地评估模型性能促进模型收敛。
3.2 创建虚拟环境并安装相关库
我们烧录的系统是自带的有anaconda环境的首先我们可以查看python版本默认的是3.9.2我比较习惯用3.11的版本做项目为了不影响基础配置环境我重新创建了一个python3.11的yolov8虚拟环境创建命令如下
conda create -n yolov8 python3.11创建好虚拟环境之后使用conda activate yolov8命令激活虚拟环境这里可以看到虚拟环境当中的python版本是3.11.9的
接下来就需要安装yolov8运行所需要的相关库了官方给的安装库只需要安装ultralytics使用命令pip install ultralytics这个是官方给的命令但是我在实际使用过程中发现只按照这个库代码是无法运行的会继续提示你按照其他库所以还需要使用如下命令pip install timm0.9.8 thop efficientnet_pytorch0.7.1 einops grad-cam1.4.8 dill0.3.6 albumentations1.3.1 pytorch_wavelets1.3.0一次性将所有依赖库都安装完毕
3.3 ✨下载yolov8源码
从https://github.com/ultralytics/ultralytics下载官方源码之后通过MobaXterm软件ssh连接将源码拷贝到主板系统当中可以拖拽直接拷贝到主板系统的downloads文件夹下面建议将yolov8n.pt也给下载下来后面半精度训练的时候需要用到yolov8n.pt权重。
3.4 ⭐️train与detect代码撰写
yolov8的yolov5在使用的时候不太一样yolov8主要靠命令行去执行训练与检测命令为了方便设置参数和操作我参考v5的模式将yolov8的train与detect的代码写出来了。
3.4.1 train.py代码
import warningswarnings.filterwarnings(ignore)
from ultralytics import YOLOif __name__ __main__:model YOLO(ultralytics/cfg/models/v8/yolov8-seg.yaml)model.load(weights/yolov8n-seg.pt) # loading pretrain weightsmodel.train(dataultralytics/cfg/dataset/fiber-seg.yaml,# cacheFalse, # 设置为True会占用很多内存 如何设置为True无法进行重复性实验imgsz640,epochs300,batch4,close_mosaic10,workers2,device0,optimizerSGD, # using SGD# lr00.001,# resumeruns/train/exp7/weights/last.pt, # last.pt path# ampFalse, # close amp# fraction0.2,projectruns/train,nameexp,patience0,)
3.4.2 detect.py
import warningswarnings.filterwarnings(ignore)
from ultralytics import YOLOif __name__ __main__:model YOLO(weights/best.pt) # select your model.pt pathmodel.predict(sourceimages/fiber/1.jpg, #source设置为0表示调用摄像头imgsz640,projectruns/detect,nameexp,saveTrue,line_width5,show_confFalse,# conf0.2,# visualizeTrue # 生成模型特征图)
3.5 纤维分割模型训练
将train.py代码写好之后直接在终端运行python train.py就能进行模型训练参数设置的batch_size4线程worker2一共训练300epoch我这边准备的是项目需要的纤维分割数据集训练速度虽然比不上我自己主机的4090显卡但是要比一般的笔记本电脑快很多。而且训练之后的结果效果和我在4090上的结果基本上保持一致分割与检测的map和精确度都在99%左右。
3.6 纤维分割模型检测推理
关于图片还有视频的推理用的都是python detect.py命令图片推理成功后去到对应的文件夹可以看到基本上没有识别误差并且分割效果很好。
关于视频检测只需要将要检查的文件换成视频文件就能进行推理这里发现推理的速度挺快的基本上几秒钟就能给出视频推理结果。 3.7 调用摄像头检测
我这边是接了一个USB3.0的1080p的工业相机摄像头大概200万像素。只需要将detect.py中的source设置为0就能调用摄像头。
需要注意的是yolov8和yolov5检测不太一样我这边摄像头可以显示检测的结果数据(如下图)但是没有检测界面期初我以为是摄像头问题调试了一下摄像头发现可以正常拍摄后来看了一下yolov8的源代码发现并没有可以显示界面的工具所以我用OpenCV写了一个视频实时检测界面。 OpenCV实时监测代码timedetect.py
import cv2
from ultralytics import YOLO# 加载 YOLOv8 模型
model YOLO(weights/yolov8n.pt)# 获取摄像头内容参数 0 表示使用默认的摄像头
cap cv2.VideoCapture(0)while cap.isOpened():success, frame cap.read() # 读取摄像头的一帧图像if success:model.predict(sourceframe, showTrue) # 对当前帧进行目标检测并显示结果# 通过按下 q 键退出循环if cv2.waitKey(1) 0xFF ord(q):breakcap.release() # 释放摄像头资源
cv2.destroyAllWindows() # 关闭OpenCV窗口
调用训练好的模型执行python timedetect.py就能显示实时检测的结果了。
四、4️⃣相关模型测试
其实安装好开发板系统之后系统当中是给了一些AI算法测试案例的例如检测模型SSD、文本识别CNNCTC、图像分类ResNet50、图像曝光算法-HDR、图像分割算法FCN等这些模型我都测试了一下除了SSD目标检测算法报了一个错误其他的都没有任何问题
4.1 如何使用官方案例
首先登录 Linux 系统桌面然后打开终端使用cd ~返回上一级目录然后进入cd samples文件夹当中。在当前目录下有 8 个文件夹和 1 个 shell 文件分别对应 8 个 AI 应用样例和Jupyter Lab 启动脚本 start_notebook.sh。
然后执行start_notebook.sh 脚本启动 Jupyter Lab在执行该脚本后终端会出现如下打印信息在打印信息中会有登录 Jupyter Lab 的网址链接将链接复制到浏览器打开即可。
4.2 ✨官方案例运行结果
我这里就放一部分运行结果感兴趣的话可以全部跑一遍。
五、5️⃣开发板使用感受 个人也是使用Orange Pi AIpro开发部署了自己的深度学习项目下面也将给出客观的评价。 ☀️优点
先说优点Orange Pi AI Pro 搭载的处理器和AI加速器能够高效运行复杂的YOLO模型同时保持相对较低的功耗这对于需要长时间运行的边缘设备尤为重要它也支持多种编程语言如Python、C和深度学习框架如TensorFlow, PyTorch, Darknet等便于开发者快速上手并且官方提供的操作系统非常好用我在安装各种依赖包的时候速度非常快而且相较于windows操作系统没有那么多的报错基本上配置环境都是一步过并且提供了多个USB接口、HDMI接口等方便连接各种外设和传感器满足多样化的应用场景需求此外还支持通过TF卡扩展存储空间满足大数据量存储的需求。同时开发文档和官方工具给的非常全面虽然在烧录过程中出了一点小插曲在实际项目使用的过程中检测的速度很快并且系统很刘畅而且相关配置也没有那么复杂给我的整体感受是非常好的
⚡️缺点
官方文档和针对特定模型如YOLO、transformers的详细部署教程可能不够详尽初学者可能会遇到一些障碍在一些极端使用场景下如高温、高湿环境硬件的稳定性可能会受到影响需要额外的散热措施和防护措施我在训练模型的时候明显感觉到温度上升的比较快
总体来说Orange Pi AI Pro 是一款性价比较高的边缘计算开发板适合用于部署YOLO等实时目标检测模型尽管存在一些缺点和挑战但通过不断的学习和实践我相信可以充分发挥其优势为各种应用场景提供强大的支持。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/85363.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!