基于深度学习YOLOv10的玉米幼苗杂草检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

一、项目介绍

项目背景: 在农业生产中,杂草是影响作物生长的重要因素之一。杂草与作物竞争养分、水分和阳光,导致作物减产。传统的杂草识别和清除方法依赖于人工操作,效率低且成本高。随着计算机视觉和深度学习技术的发展,基于目标检测的自动化杂草识别系统逐渐成为农业领域的研究热点。本项目旨在利用YOLOv10模型构建一个高效的玉米幼苗杂草检测系统,帮助农民快速识别田间杂草,为精准农业提供技术支持。

项目目标:

  • 开发一个基于YOLOv10的玉米幼苗杂草检测系统,能够自动识别和定位杂草。

  • 提高杂草检测的准确性和效率,减少人工干预。

  • 为精准除草提供数据支持,降低农业生产成本。

技术栈:

  • 深度学习框架: PyTorch

  • 目标检测模型: YOLOv10

  • 数据处理: OpenCV, NumPy

  • 可视化: Matplotlib, OpenCV

基于深度学习YOLOv10的玉米幼苗杂草检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)_哔哩哔哩_bilibili

基于深度学习YOLOv10的玉米幼苗杂草检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

二、项目功能展示

图片检测:可对图片进行检测,返回检测框及类别信息。

视频检测:支持视频文件输入,检测视频中每一帧的情况。

摄像头实时检测:连接USB 摄像头,实现实时监测。

参数实时调节(置信度和IoU阈值)

  • 图片检测

该功能允许用户通过单张图片进行目标检测。输入一张图片后,YOLO模型会实时分析图像,识别出其中的目标,并在图像中框出检测到的目标,输出带有目标框的图像。

  • 视频检测

视频检测功能允许用户将视频文件作为输入。YOLO模型将逐帧分析视频,并在每一帧中标记出检测到的目标。最终结果可以是带有目标框的视频文件或实时展示,适用于视频监控和分析等场景。

  • 摄像头实时检测

该功能支持通过连接摄像头进行实时目标检测。YOLO模型能够在摄像头拍摄的实时视频流中进行目标检测,实时识别并显示检测结果。此功能非常适用于安防监控、无人驾驶、智能交通等应用,提供即时反馈。

核心特点:

  • 高精度:基于YOLO模型,提供精确的目标检测能力,适用于不同类型的图像和视频。
  • 实时性:特别优化的算法使得实时目标检测成为可能,无论是在视频还是摄像头实时检测中,响应速度都非常快。
  • 批量处理:支持高效的批量图像和视频处理,适合大规模数据分析。

三、数据集介绍

数据集名称: 玉米幼苗杂草检测数据集

数据集描述: 该数据集包含玉米田间的图像,用于训练和验证YOLOv10玉米幼苗杂草检测模型。数据集中的图像已经过预处理和标注,标注信息包括杂草和玉米幼苗的位置和类别。

类别信息 (nc: 2类):

  • 类别名称: ["weed", "cron"]

    • "weed": 表示杂草

    • "cron": 表示玉米幼苗

数据集划分:

  • 训练集: 2661张图像

  • 验证集: 254张图像

  • 测试集: 127张图像

数据集特点:

  • 图像分辨率: 数据集中的图像分辨率适中,适合用于深度学习模型的训练。

  • 标注格式: 采用YOLO格式的标注文件,每个图像对应一个.txt文件,文件中包含目标的类别编号和边界框的归一化坐标。

  • 数据多样性: 数据集涵盖了不同光照条件、不同生长阶段的玉米幼苗和杂草,具有较强的泛化能力。

  • 数据增强: 在训练过程中,可能会应用数据增强技术(如旋转、翻转、缩放等)以提高模型的鲁棒性。

数据集来源: 数据集来源于农业领域的公开数据集,并经过人工标注和审核,确保数据的准确性和可靠性。

数据集配置文件data.yaml

train: .\datasets\images\train val: .\datasets\images\val test: .\datasets\images\test nc: 2 # Classes names: ["weed", "cron"]

数据集制作流程

  • 标注数据:使用标注工具(如LabelImg、CVAT等)对图像中的目标进行标注。每个目标需要标出边界框,并且标注类别。

  • 转换格式:将标注的数据转换为YOLO格式。YOLO标注格式为每行:<object-class> <x_center> <y_center> <width> <height>,这些坐标是相对于图像尺寸的比例。

  • 分割数据集:将数据集分为训练集、验证集和测试集,通常的比例是80%训练集、10%验证集和10%测试集。

  • 准备标签文件:为每张图片生成一个对应的标签文件,确保标签文件与图片的命名一致。

  • 调整图像尺寸:根据YOLO网络要求,统一调整所有图像的尺寸(如416x416或608x608)。

四、项目环境配置

创建虚拟环境

首先新建一个Anaconda环境,每个项目用不同的环境,这样项目中所用的依赖包互不干扰。

终端输入

conda create -n yolov10 python==3.9

激活虚拟环境

conda activate yolov10

安装cpu版本pytorch

pip install torch torchvision torchaudio

pycharm中配置anaconda

安装所需要库

pip install -r requirements.txt

五、模型训练

训练代码

from ultralytics import YOLOv10 model_path = 'yolov10s.pt' data_path = 'datasets/data.yaml' if __name__ == '__main__': model = YOLOv10(model_path) results = model.train(data=data_path, epochs=500, batch=64, device='0', workers=0, project='runs/detect', name='exp', )
根据实际情况更换模型 yolov10n.yaml (nano):轻量化模型,适合嵌入式设备,速度快但精度略低。 yolov10s.yaml (small):小模型,适合实时任务。 yolov10m.yaml (medium):中等大小模型,兼顾速度和精度。 yolov10b.yaml (base):基本版模型,适合大部分应用场景。 yolov10l.yaml (large):大型模型,适合对精度要求高的任务。
  • --batch 64:每批次64张图像。
  • --epochs 500:训练500轮。
  • --datasets/data.yaml:数据集配置文件。
  • --weights yolov10s.pt:初始化模型权重,yolov10s.pt是预训练的轻量级YOLO模型。

训练结果

六、核心代码

import sys import cv2 import numpy as np from PyQt5.QtWidgets import QApplication, QMessageBox, QFileDialog from PyQt5.QtCore import QThread, pyqtSignal from ultralytics import YOLOv10 from UiMain import UiMainWindow import time import os class DetectionThread(QThread): frame_received = pyqtSignal(np.ndarray, np.ndarray, list) # 原始帧, 检测帧, 检测结果 finished_signal = pyqtSignal() # 线程完成信号 def __init__(self, model, source, conf, iou, parent=None): super().__init__(parent) self.model = model self.source = source self.conf = conf self.iou = iou self.running = True def run(self): try: if isinstance(self.source, int) or self.source.endswith(('.mp4', '.avi', '.mov')): # 视频或摄像头 cap = cv2.VideoCapture(self.source) while self.running and cap.isOpened(): ret, frame = cap.read() if not ret: break # 保存原始帧 original_frame = frame.copy() # 检测 results = self.model(frame, conf=self.conf, iou=self.iou) annotated_frame = results[0].plot() # 提取检测结果 detections = [] for result in results: for box in result.boxes: class_id = int(box.cls) class_name = self.model.names[class_id] confidence = float(box.conf) x, y, w, h = box.xywh[0].tolist() detections.append((class_name, confidence, x, y)) # 发送信号 self.frame_received.emit( cv2.cvtColor(original_frame, cv2.COLOR_BGR2RGB), cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB), detections ) # 控制帧率 time.sleep(0.03) # 约30fps cap.release() else: # 图片 frame = cv2.imread(self.source) if frame is not None: original_frame = frame.copy() results = self.model(frame, conf=self.conf, iou=self.iou) annotated_frame = results[0].plot() # 提取检测结果 detections = [] for result in results: for box in result.boxes: class_id = int(box.cls) class_name = self.model.names[class_id] confidence = float(box.conf) x, y, w, h = box.xywh[0].tolist() detections.append((class_name, confidence, x, y)) self.frame_received.emit( cv2.cvtColor(original_frame, cv2.COLOR_BGR2RGB), cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB), detections ) except Exception as e: print(f"Detection error: {e}") finally: self.finished_signal.emit() def stop(self): self.running = False class MainWindow(UiMainWindow): def __init__(self): super().__init__() # 初始化模型 self.model = None self.detection_thread = None self.current_image = None self.current_result = None self.video_writer = None self.is_camera_running = False self.is_video_running = False self.last_detection_result = None # 新增:保存最后一次检测结果 # 连接按钮信号 self.image_btn.clicked.connect(self.detect_image) self.video_btn.clicked.connect(self.detect_video) self.camera_btn.clicked.connect(self.detect_camera) self.stop_btn.clicked.connect(self.stop_detection) self.save_btn.clicked.connect(self.save_result) # 初始化模型 self.load_model() def load_model(self): try: model_name = self.model_combo.currentText() self.model = YOLOv10(f"{model_name}.pt") # 自动下载或加载本地模型 self.update_status(f"模型 {model_name} 加载成功") except Exception as e: QMessageBox.critical(self, "错误", f"模型加载失败: {str(e)}") self.update_status("模型加载失败") def detect_image(self): if self.detection_thread and self.detection_thread.isRunning(): QMessageBox.warning(self, "警告", "请先停止当前检测任务") return file_path, _ = QFileDialog.getOpenFileName( self, "选择图片", "", "图片文件 (*.jpg *.jpeg *.png *.bmp)") if file_path: self.clear_results() self.current_image = cv2.imread(file_path) self.current_image = cv2.cvtColor(self.current_image, cv2.COLOR_BGR2RGB) self.display_image(self.original_image_label, self.current_image) # 创建检测线程 conf = self.confidence_spinbox.value() iou = self.iou_spinbox.value() self.detection_thread = DetectionThread(self.model, file_path, conf, iou) self.detection_thread.frame_received.connect(self.on_frame_received) self.detection_thread.finished_signal.connect(self.on_detection_finished) self.detection_thread.start() self.update_status(f"正在检测图片: {os.path.basename(file_path)}") def detect_video(self): if self.detection_thread and self.detection_thread.isRunning(): QMessageBox.warning(self, "警告", "请先停止当前检测任务") return file_path, _ = QFileDialog.getOpenFileName( self, "选择视频", "", "视频文件 (*.mp4 *.avi *.mov)") if file_path: self.clear_results() self.is_video_running = True # 初始化视频写入器 cap = cv2.VideoCapture(file_path) frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) fps = cap.get(cv2.CAP_PROP_FPS) cap.release() # 创建保存路径 save_dir = "results" os.makedirs(save_dir, exist_ok=True) timestamp = time.strftime("%Y%m%d_%H%M%S") save_path = os.path.join(save_dir, f"result_{timestamp}.mp4") fourcc = cv2.VideoWriter_fourcc(*'mp4v') self.video_writer = cv2.VideoWriter(save_path, fourcc, fps, (frame_width, frame_height)) # 创建检测线程 conf = self.confidence_spinbox.value() iou = self.iou_spinbox.value() self.detection_thread = DetectionThread(self.model, file_path, conf, iou) self.detection_thread.frame_received.connect(self.on_frame_received) self.detection_thread.finished_signal.connect(self.on_detection_finished) self.detection_thread.start() self.update_status(f"正在检测视频: {os.path.basename(file_path)}") def detect_camera(self): if self.detection_thread and self.detection_thread.isRunning(): QMessageBox.warning(self, "警告", "请先停止当前检测任务") return self.clear_results() self.is_camera_running = True # 创建检测线程 (默认使用摄像头0) conf = self.confidence_spinbox.value() iou = self.iou_spinbox.value() self.detection_thread = DetectionThread(self.model, 0, conf, iou) self.detection_thread.frame_received.connect(self.on_frame_received) self.detection_thread.finished_signal.connect(self.on_detection_finished) self.detection_thread.start() self.update_status("正在从摄像头检测...") def stop_detection(self): if self.detection_thread and self.detection_thread.isRunning(): self.detection_thread.stop() self.detection_thread.quit() self.detection_thread.wait() if self.video_writer: self.video_writer.release() self.video_writer = None self.is_camera_running = False self.is_video_running = False self.update_status("检测已停止") def on_frame_received(self, original_frame, result_frame, detections): # 更新原始图像和结果图像 self.display_image(self.original_image_label, original_frame) self.display_image(self.result_image_label, result_frame) # 保存当前结果帧用于后续保存 self.last_detection_result = result_frame # 新增:保存检测结果 # 更新表格 self.clear_results() for class_name, confidence, x, y in detections: self.add_detection_result(class_name, confidence, x, y) # 保存视频帧 if self.video_writer: self.video_writer.write(cv2.cvtColor(result_frame, cv2.COLOR_RGB2BGR)) def on_detection_finished(self): if self.video_writer: self.video_writer.release() self.video_writer = None self.update_status("视频检测完成,结果已保存") elif self.is_camera_running: self.update_status("摄像头检测已停止") else: self.update_status("图片检测完成") def save_result(self): if not hasattr(self, 'last_detection_result') or self.last_detection_result is None: QMessageBox.warning(self, "警告", "没有可保存的检测结果") return save_dir = "results" os.makedirs(save_dir, exist_ok=True) timestamp = time.strftime("%Y%m%d_%H%M%S") if self.is_camera_running or self.is_video_running: # 保存当前帧为图片 save_path = os.path.join(save_dir, f"snapshot_{timestamp}.jpg") cv2.imwrite(save_path, cv2.cvtColor(self.last_detection_result, cv2.COLOR_RGB2BGR)) self.update_status(f"截图已保存: {save_path}") else: # 保存图片检测结果 save_path = os.path.join(save_dir, f"result_{timestamp}.jpg") cv2.imwrite(save_path, cv2.cvtColor(self.last_detection_result, cv2.COLOR_RGB2BGR)) self.update_status(f"检测结果已保存: {save_path}") def closeEvent(self, event): self.stop_detection() event.accept() if __name__ == "__main__": app = QApplication(sys.argv) # 设置应用程序样式 app.setStyle("Fusion") # 创建并显示主窗口 window = MainWindow() window.show() sys.exit(app.exec_())

七、项目源码

基于深度学习YOLOv10的玉米幼苗杂草检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)_哔哩哔哩_bilibili

基于深度学习YOLOv10的玉米幼苗杂草检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1182970.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

从“思考-行动-观察“到“无限迭代“:AI Agent两大范式详解,收藏级学习资料

本文详细介绍AI Agent两大范式&#xff1a;ReAct的"思考-行动-观察"经典闭环和Ralph Loop的"无限自主迭代"新范式。ReAct适合短任务和动态规划&#xff0c;但存在上下文爆炸和过早停止问题&#xff1b;Ralph Loop通过强制持续迭代&#xff0c;解决长任务和…

腾讯HunyuanPortrait:单图生成超自然人像动画!

腾讯HunyuanPortrait&#xff1a;单图生成超自然人像动画&#xff01; 【免费下载链接】HunyuanPortrait 腾讯HunyuanPortrait是基于扩散模型的人像动画框架&#xff0c;通过预训练编码器分离身份与动作&#xff0c;将驱动视频的表情/姿态编码为控制信号&#xff0c;经注意力适…

腾讯Hunyuan-A13B开源:130亿参数引爆高效AI革命

腾讯Hunyuan-A13B开源&#xff1a;130亿参数引爆高效AI革命 【免费下载链接】Hunyuan-A13B-Pretrain 腾讯开源Hunyuan-A13B大语言模型&#xff0c;采用细粒度MoE架构&#xff0c;800亿总参数仅激活130亿&#xff0c;高效平衡性能与资源消耗。支持256K超长上下文、混合推理模式及…

说说高性价比的装修设计专业公司,欢乐佳园装饰排名如何? - 工业品牌热点

随着家居消费升级,越来越多业主在装修时不再满足于能住,而是追求好住+好看的双重体验,这也让如何选实力强的装修设计公司推荐一下装修设计公司高性价比的装修设计专业公司成为业主群里的高频提问。本文围绕这三大核…

探索开源三国杀:无名杀网页版如何重新定义卡牌游戏体验

探索开源三国杀&#xff1a;无名杀网页版如何重新定义卡牌游戏体验 【免费下载链接】noname 项目地址: https://gitcode.com/GitHub_Trending/no/noname 还在为传统桌游的繁琐准备而烦恼吗&#xff1f;想象一下&#xff0c;无需下载安装&#xff0c;打开浏览器就能立即…

详细介绍:Linux 调度类(sched_class)

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

LightVAE:视频生成提速省内存的AI优化神器

LightVAE&#xff1a;视频生成提速省内存的AI优化神器 【免费下载链接】Autoencoders 项目地址: https://ai.gitcode.com/hf_mirrors/lightx2v/Autoencoders 导语 LightVAE系列通过架构优化与蒸馏技术&#xff0c;在保持视频生成质量接近官方模型的同时&#xff0c;实…

论文怎么降低AI率?知网算法大更新!学长亲测aigc免费降重,汇总5款降ai率工具红黑榜 - 殷念写论文

这里是刚从答辩战场出来,顺利拿到双证的25届学长。 如果最近你打开知网或者维普的查重报告,看到红彤彤的AIGC疑似度,请先深呼吸——你绝对不是一个人。 很多学弟学妹可能还不知道,就在2025年12月28日,知网后台算法…

3D模型格式转换终极指南:突破跨平台兼容性瓶颈

3D模型格式转换终极指南&#xff1a;突破跨平台兼容性瓶颈 【免费下载链接】awesome-blender &#x1fa90; A curated list of awesome Blender addons, tools, tutorials; and 3D resources for everyone. 项目地址: https://gitcode.com/GitHub_Trending/aw/awesome-blend…

XMedia Recode v3.6.1.2:全能视频格式转换工具

XMedia Recode v3.6.1.2 是一款口碑出众的全能视频格式转换工具&#xff0c;解压缩即可直接使用&#xff0c;无需复杂安装流程&#xff0c;适配 Windows 64 位运行环境&#xff0c;经私房摄影师、视频创作者等专业用户实际场景验证&#xff0c;稳定性与实用性拉满&#xff0c;轻…

收藏!2026年大模型学习指南:普通人也能抓住的AI红利

坦白说&#xff0c;2025年的AI圈&#xff0c;完全是一场“颠覆式狂欢”。以DeepSeek为代表的国产大模型密集亮相&#xff0c;直接打破了行业原有格局&#xff0c;让整个AI赛道彻底沸腾。 我身边不少朋友&#xff0c;去年还在纠结AI是否值得入局&#xff0c;今年就成功转型拿到o…

【收藏必备】多模态大模型入门指南:从NLP到多模态的完整技术解析

本文全面介绍多模态大模型(MLLM)的核心知识&#xff0c;包括模型概念与使用场景&#xff0c;详细解析两种主流架构&#xff1a;统一Embedding解码器和跨模态Attention架构。深入探讨MLLM的三阶段训练方法&#xff08;预训练、指令调优、对齐调优&#xff09;及评估方法。同时分…

LG EXAONE 4.0:12亿参数双模式AI新标杆

LG EXAONE 4.0&#xff1a;12亿参数双模式AI新标杆 【免费下载链接】EXAONE-4.0-1.2B 项目地址: https://ai.gitcode.com/hf_mirrors/LGAI-EXAONE/EXAONE-4.0-1.2B LG电子旗下AI研究机构LG AI Research正式发布EXAONE 4.0系列大语言模型&#xff0c;其中12亿参数的轻量…

新加坡硕士留学中介口碑排名揭晓,录取案例多,助力留学申请 - 留学机构评审官

新加坡硕士留学中介口碑排名揭晓,录取案例多,助力留学申请一、新加坡硕士留学中介如何选择以内。?资深规划师为您解析作为一名从事12年新加坡留学申请规划导师,我经常被学生和家长问及:“新加坡硕士留学中介哪家口…

华为OD机试真题精讲:智能成绩表(Python/Java/C++多语言实现)

华为OD机试真题精讲:智能成绩表(Python/Java/C++多语言实现) 一、题目描述(2025B卷高频100分题) 题目核心 学校需要根据学生的学号、语文、数学、英语三科成绩生成智能成绩表,按照指定的规则完成数据排序与筛选,并输出格式化结果,是OD机试中基础数据处理+排序+多条件…

2026年上海GEO优化公司推荐:专业服务行业深度评测,解决可见性与转化率核心痛点 - 品牌推荐

当生成式AI成为信息获取的主流入口,品牌在智能对话中的“默认答案”地位,直接决定了其在下一个商业周期的竞争起点。生成式引擎优化(GEO)已从前沿概念演进为企业必须掌握的核心增长技能。2026年,上海作为中国AI技…

华为OD机试真题精讲:AI处理器组合(Python/Java/C++多语言实现)

华为OD机试真题精讲:AI处理器组合(Python/Java/C++多语言实现) 一、题目描述(2025B卷高频100分题) 题目核心 某AI服务器需搭载组合型处理器,处理器分为 算力型(A) 和 能效型(B) 两种,给定两类处理器的性能参数与约束规则,计算出能最大化服务器总算力的最优处理器…

原神抽卡数据永久保存全攻略:告别6个月记录丢失困扰

原神抽卡数据永久保存全攻略&#xff1a;告别6个月记录丢失困扰 【免费下载链接】genshin-wish-export biuuu/genshin-wish-export - 一个使用Electron制作的原神祈愿记录导出工具&#xff0c;它可以通过读取游戏日志或代理模式获取访问游戏祈愿记录API所需的authKey。 项目地…

c语言之mbedtls ssl client代码示例

效果: 使用: mbedtls_sslclient_test("172.16.1.11", "6415",R"(C:\projects\python\ssl测试工具\pci证书\ca.crt)",R"(C:\projects\python\ssl测试工具\pci证书\client.crt)",R"(C:\projects\python\ssl测试工具\pci证书\clie…

10.4 模型服务化部署:从实验室到生产环境

10.4 模型服务化部署:从实验室到生产环境 在完成模型训练和优化后,如何将模型成功部署到生产环境中并提供稳定可靠的服务,是AI项目落地的关键环节。本章将详细介绍模型服务化部署的完整流程,包括部署架构设计、性能优化、监控告警、容错处理等关键技术,帮助我们将实验室中…