基于深度学习的香蕉成熟度识别检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

一、项目介绍

本文介绍了基于YOLOv10的香蕉成熟度检测系统,旨在通过计算机视觉技术自动识别和分类香蕉的成熟度。该系统能够准确区分六种不同的成熟度类别:新鲜成熟(freshripe)、新鲜未成熟(freshunripe)、过熟(overripe)、成熟(ripe)、腐烂(rotten)和未成熟(unripe)。通过使用YOLOv10模型,我们实现了高效的实时检测,并在包含18,074张图像的数据集上进行了训练、验证和测试。实验结果表明,该系统在香蕉成熟度检测任务中表现出色,具有较高的准确率和鲁棒性。


基于深度学习的香蕉成熟度识别检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)_哔哩哔哩_bilibili

基于深度学习的香蕉成熟度识别检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

二、项目功能展示

系统功能

图片检测:可对图片进行检测,返回检测框及类别信息。

视频检测:支持视频文件输入,检测视频中每一帧的情况。

摄像头实时检测:连接USB 摄像头,实现实时监测。

参数实时调节(置信度和IoU阈值)

  • 图片检测

该功能允许用户通过单张图片进行目标检测。输入一张图片后,YOLO模型会实时分析图像,识别出其中的目标,并在图像中框出检测到的目标,输出带有目标框的图像。

  • 批量图片检测

用户可以一次性上传多个图片进行批量处理。该功能支持对多个图像文件进行并行处理,并返回每张图像的目标检测结果,适用于需要大规模处理图像数据的应用场景。

  • 视频检测

视频检测功能允许用户将视频文件作为输入。YOLO模型将逐帧分析视频,并在每一帧中标记出检测到的目标。最终结果可以是带有目标框的视频文件或实时展示,适用于视频监控和分析等场景。

  • 摄像头实时检测

该功能支持通过连接摄像头进行实时目标检测。YOLO模型能够在摄像头拍摄的实时视频流中进行目标检测,实时识别并显示检测结果。此功能非常适用于安防监控、无人驾驶、智能交通等应用,提供即时反馈。

核心特点:

  • 高精度:基于YOLO模型,提供精确的目标检测能力,适用于不同类型的图像和视频。
  • 实时性:特别优化的算法使得实时目标检测成为可能,无论是在视频还是摄像头实时检测中,响应速度都非常快。
  • 批量处理:支持高效的批量图像和视频处理,适合大规模数据分析。

三、数据集介绍

数据集概述

本研究所使用的数据集包含18,074张香蕉图像,涵盖了六种不同的成熟度类别。数据集分为训练集、验证集和测试集,具体分布如下:

  • 训练集:15,792张图像

  • 验证集:1,525张图像

  • 测试集:757张图像

类别分布

数据集中包含六种成熟度类别,具体如下:

  1. 新鲜成熟(freshripe):香蕉完全成熟,外观呈现鲜黄色,无明显瑕疵。

  2. 新鲜未成熟(freshunripe):香蕉未完全成熟,外观呈现绿色,质地较硬。

  3. 过熟(overripe):香蕉过度成熟,外观呈现深黄色或带有褐色斑点,质地较软。

  4. 成熟(ripe):香蕉成熟,外观呈现黄色,质地适中。

  5. 腐烂(rotten):香蕉已经腐烂,外观呈现深褐色或黑色,质地非常软,可能有明显的腐烂痕迹。

  6. 未成熟(unripe):香蕉未成熟,外观呈现绿色,质地非常硬。

数据预处理

在训练YOLOv10模型之前,我们对数据集进行了以下预处理步骤:

  1. 图像增强:通过随机旋转、缩放、翻转等操作增加数据的多样性,提高模型的泛化能力。

  2. 标注文件:每张图像都配有相应的标注文件,标注文件中包含香蕉的边界框信息和类别标签。

  3. 数据划分:将数据集按照一定比例划分为训练集、验证集和测试集,确保模型训练和评估的独立性。

数据集特点
  • 多样性:数据集中的香蕉图像涵盖了不同的光照条件、背景环境和拍摄角度,确保了模型的鲁棒性。

  • 平衡性:各类别的样本数量相对均衡,避免了类别不平衡问题对模型性能的影响。

  • 高质量标注:所有图像都经过精确标注,确保了训练数据的质量。

训练集

测试集

验证集

数据集配置文件data.yaml

train: \datasets\images\train val: \datasets\images\val test: \datasets\images\test nc: 10 names: ['army worm', 'legume blister beetle', 'red spider', 'rice gall midge', 'rice leaf roller', 'rice leafhopper', 'rice water weevil', 'wheat phloeothrips', 'white backed plant hopper', 'yellow rice borer'],

数据集制作流程

  • 标注数据:使用标注工具(如LabelImg、CVAT等)对图像中的目标进行标注。每个目标需要标出边界框,并且标注类别。

  • 转换格式:将标注的数据转换为YOLO格式。YOLO标注格式为每行:<object-class> <x_center> <y_center> <width> <height>,这些坐标是相对于图像尺寸的比例。

  • 分割数据集:将数据集分为训练集、验证集和测试集,通常的比例是80%训练集、10%验证集和10%测试集。

  • 准备标签文件:为每张图片生成一个对应的标签文件,确保标签文件与图片的命名一致。

  • 调整图像尺寸:根据YOLO网络要求,统一调整所有图像的尺寸(如416x416或608x608)。

四、项目环境配置

创建虚拟环境

首先新建一个Anaconda环境,每个项目用不同的环境,这样项目中所用的依赖包互不干扰。

终端输入

conda create -n yolov10 python==3.9

激活虚拟环境

conda activate yolov10

安装cpu版本pytorch

pip install torch torchvision torchaudio

pycharm中配置anaconda

安装所需要库

pip install -r requirements.txt

五、模型训练

训练代码

from ultralytics import YOLOv10 model_path = 'yolov10s.pt' data_path = 'datasets/data.yaml' if __name__ == '__main__': model = YOLOv10(model_path) results = model.train(data=data_path, epochs=500, batch=64, device='0', workers=0, project='runs/detect', name='exp', )
根据实际情况更换模型 yolov10n.yaml (nano):轻量化模型,适合嵌入式设备,速度快但精度略低。 yolov10s.yaml (small):小模型,适合实时任务。 yolov10m.yaml (medium):中等大小模型,兼顾速度和精度。 yolov10b.yaml (base):基本版模型,适合大部分应用场景。 yolov10l.yaml (large):大型模型,适合对精度要求高的任务。
  • --batch 64:每批次64张图像。
  • --epochs 500:训练500轮。
  • --datasets/data.yaml:数据集配置文件。
  • --weights yolov10s.pt:初始化模型权重,yolov10s.pt是预训练的轻量级YOLO模型。

训练结果

六、核心代码

import sys import cv2 import numpy as np from PyQt5.QtWidgets import QApplication, QMessageBox, QFileDialog from PyQt5.QtCore import QThread, pyqtSignal from ultralytics import YOLOv10 from UiMain import UiMainWindow import time import os class DetectionThread(QThread): frame_received = pyqtSignal(np.ndarray, np.ndarray, list) # 原始帧, 检测帧, 检测结果 finished_signal = pyqtSignal() # 线程完成信号 def __init__(self, model, source, conf, iou, parent=None): super().__init__(parent) self.model = model self.source = source self.conf = conf self.iou = iou self.running = True def run(self): try: if isinstance(self.source, int) or self.source.endswith(('.mp4', '.avi', '.mov')): # 视频或摄像头 cap = cv2.VideoCapture(self.source) while self.running and cap.isOpened(): ret, frame = cap.read() if not ret: break # 保存原始帧 original_frame = frame.copy() # 检测 results = self.model(frame, conf=self.conf, iou=self.iou) annotated_frame = results[0].plot() # 提取检测结果 detections = [] for result in results: for box in result.boxes: class_id = int(box.cls) class_name = self.model.names[class_id] confidence = float(box.conf) x, y, w, h = box.xywh[0].tolist() detections.append((class_name, confidence, x, y)) # 发送信号 self.frame_received.emit( cv2.cvtColor(original_frame, cv2.COLOR_BGR2RGB), cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB), detections ) # 控制帧率 time.sleep(0.03) # 约30fps cap.release() else: # 图片 frame = cv2.imread(self.source) if frame is not None: original_frame = frame.copy() results = self.model(frame, conf=self.conf, iou=self.iou) annotated_frame = results[0].plot() # 提取检测结果 detections = [] for result in results: for box in result.boxes: class_id = int(box.cls) class_name = self.model.names[class_id] confidence = float(box.conf) x, y, w, h = box.xywh[0].tolist() detections.append((class_name, confidence, x, y)) self.frame_received.emit( cv2.cvtColor(original_frame, cv2.COLOR_BGR2RGB), cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB), detections ) except Exception as e: print(f"Detection error: {e}") finally: self.finished_signal.emit() def stop(self): self.running = False class MainWindow(UiMainWindow): def __init__(self): super().__init__() # 初始化模型 self.model = None self.detection_thread = None self.current_image = None self.current_result = None self.video_writer = None self.is_camera_running = False self.is_video_running = False self.last_detection_result = None # 新增:保存最后一次检测结果 # 连接按钮信号 self.image_btn.clicked.connect(self.detect_image) self.video_btn.clicked.connect(self.detect_video) self.camera_btn.clicked.connect(self.detect_camera) self.stop_btn.clicked.connect(self.stop_detection) self.save_btn.clicked.connect(self.save_result) # 初始化模型 self.load_model() def load_model(self): try: model_name = self.model_combo.currentText() self.model = YOLOv10(f"{model_name}.pt") # 自动下载或加载本地模型 self.update_status(f"模型 {model_name} 加载成功") except Exception as e: QMessageBox.critical(self, "错误", f"模型加载失败: {str(e)}") self.update_status("模型加载失败") def detect_image(self): if self.detection_thread and self.detection_thread.isRunning(): QMessageBox.warning(self, "警告", "请先停止当前检测任务") return file_path, _ = QFileDialog.getOpenFileName( self, "选择图片", "", "图片文件 (*.jpg *.jpeg *.png *.bmp)") if file_path: self.clear_results() self.current_image = cv2.imread(file_path) self.current_image = cv2.cvtColor(self.current_image, cv2.COLOR_BGR2RGB) self.display_image(self.original_image_label, self.current_image) # 创建检测线程 conf = self.confidence_spinbox.value() iou = self.iou_spinbox.value() self.detection_thread = DetectionThread(self.model, file_path, conf, iou) self.detection_thread.frame_received.connect(self.on_frame_received) self.detection_thread.finished_signal.connect(self.on_detection_finished) self.detection_thread.start() self.update_status(f"正在检测图片: {os.path.basename(file_path)}") def detect_video(self): if self.detection_thread and self.detection_thread.isRunning(): QMessageBox.warning(self, "警告", "请先停止当前检测任务") return file_path, _ = QFileDialog.getOpenFileName( self, "选择视频", "", "视频文件 (*.mp4 *.avi *.mov)") if file_path: self.clear_results() self.is_video_running = True # 初始化视频写入器 cap = cv2.VideoCapture(file_path) frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) fps = cap.get(cv2.CAP_PROP_FPS) cap.release() # 创建保存路径 save_dir = "results" os.makedirs(save_dir, exist_ok=True) timestamp = time.strftime("%Y%m%d_%H%M%S") save_path = os.path.join(save_dir, f"result_{timestamp}.mp4") fourcc = cv2.VideoWriter_fourcc(*'mp4v') self.video_writer = cv2.VideoWriter(save_path, fourcc, fps, (frame_width, frame_height)) # 创建检测线程 conf = self.confidence_spinbox.value() iou = self.iou_spinbox.value() self.detection_thread = DetectionThread(self.model, file_path, conf, iou) self.detection_thread.frame_received.connect(self.on_frame_received) self.detection_thread.finished_signal.connect(self.on_detection_finished) self.detection_thread.start() self.update_status(f"正在检测视频: {os.path.basename(file_path)}") def detect_camera(self): if self.detection_thread and self.detection_thread.isRunning(): QMessageBox.warning(self, "警告", "请先停止当前检测任务") return self.clear_results() self.is_camera_running = True # 创建检测线程 (默认使用摄像头0) conf = self.confidence_spinbox.value() iou = self.iou_spinbox.value() self.detection_thread = DetectionThread(self.model, 0, conf, iou) self.detection_thread.frame_received.connect(self.on_frame_received) self.detection_thread.finished_signal.connect(self.on_detection_finished) self.detection_thread.start() self.update_status("正在从摄像头检测...") def stop_detection(self): if self.detection_thread and self.detection_thread.isRunning(): self.detection_thread.stop() self.detection_thread.quit() self.detection_thread.wait() if self.video_writer: self.video_writer.release() self.video_writer = None self.is_camera_running = False self.is_video_running = False self.update_status("检测已停止") def on_frame_received(self, original_frame, result_frame, detections): # 更新原始图像和结果图像 self.display_image(self.original_image_label, original_frame) self.display_image(self.result_image_label, result_frame) # 保存当前结果帧用于后续保存 self.last_detection_result = result_frame # 新增:保存检测结果 # 更新表格 self.clear_results() for class_name, confidence, x, y in detections: self.add_detection_result(class_name, confidence, x, y) # 保存视频帧 if self.video_writer: self.video_writer.write(cv2.cvtColor(result_frame, cv2.COLOR_RGB2BGR)) def on_detection_finished(self): if self.video_writer: self.video_writer.release() self.video_writer = None self.update_status("视频检测完成,结果已保存") elif self.is_camera_running: self.update_status("摄像头检测已停止") else: self.update_status("图片检测完成") def save_result(self): if not hasattr(self, 'last_detection_result') or self.last_detection_result is None: QMessageBox.warning(self, "警告", "没有可保存的检测结果") return save_dir = "results" os.makedirs(save_dir, exist_ok=True) timestamp = time.strftime("%Y%m%d_%H%M%S") if self.is_camera_running or self.is_video_running: # 保存当前帧为图片 save_path = os.path.join(save_dir, f"snapshot_{timestamp}.jpg") cv2.imwrite(save_path, cv2.cvtColor(self.last_detection_result, cv2.COLOR_RGB2BGR)) self.update_status(f"截图已保存: {save_path}") else: # 保存图片检测结果 save_path = os.path.join(save_dir, f"result_{timestamp}.jpg") cv2.imwrite(save_path, cv2.cvtColor(self.last_detection_result, cv2.COLOR_RGB2BGR)) self.update_status(f"检测结果已保存: {save_path}") def closeEvent(self, event): self.stop_detection() event.accept() if __name__ == "__main__": app = QApplication(sys.argv) # 设置应用程序样式 app.setStyle("Fusion") # 创建并显示主窗口 window = MainWindow() window.show() sys.exit(app.exec_())

七、项目

演示与介绍视频:

基于深度学习的香蕉成熟度识别检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)_哔哩哔哩_bilibili

基于深度学习的香蕉成熟度识别检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1174491.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

基于深度学习的疲劳驾驶检测系统(YOLOv10+YOLO数据集+UI界面+Python项目+模型)

一、项目介绍 本项目旨在开发一个基于YOLOv10的疲劳检测系统&#xff0c;用于实时检测驾驶员的疲劳状态。系统通过分析驾驶员的面部表情&#xff0c;特别是眼睛和嘴巴的状态&#xff0c;来判断其是否处于疲劳状态。模型共分为四类&#xff1a;打哈欠&#xff08;Yawn&#xff0…

强烈安利!自考必看TOP8一键生成论文工具测评

强烈安利&#xff01;自考必看TOP8一键生成论文工具测评 2026年自考论文工具测评&#xff1a;为何需要一份权威榜单&#xff1f; 随着自考人数逐年增加&#xff0c;论文写作成为众多考生必须面对的难题。从选题构思到文献整理&#xff0c;再到格式规范和内容润色&#xff0c;每…

基于深度学习的生菜周期检测系统(YOLOv10+YOLO数据集+UI界面+Python+模型)

一、项目介绍 YOLOv10生菜生长周期检测系统 是一个基于YOLOv10&#xff08;You Only Look Once version 10&#xff09;目标检测算法的智能系统&#xff0c;专门用于检测和分类生菜在不同生长阶段的生长状态。该系统能够自动识别生菜的生长周期&#xff0c;并将其分类为五个不…

西门子200Smart加Smart 1000 IE水处理程序画面案例。 采用成熟、可靠、先进、...

西门子200Smart加Smart 1000 IE水处理程序画面案例。 采用成熟、可靠、先进、自动化程度高的反渗透精混床除盐水处理工艺&#xff0c;确保处理后的超纯水水质确保处理后出水电阻率达到18.2MΩ.cm, 高纯水制取设备关键设备及耗材采用国际主流先进可靠产品&#xff0c;采用PLC触摸…

震惊!这家浙江头部AI科技公司,竟然藏着这样的秘密!

震惊&#xff01;这家浙江头部AI科技公司&#xff0c;竟然藏着这样的秘密&#xff01;当前行业内对AI技术的认知多聚焦于技术迭代&#xff0c;却鲜少关注落地环节的“适配成本”问题。尤其在中小微企业中&#xff0c;这一痛点尤为突出。许多企业在推进AI转型时&#xff0c;常常…

计算机毕业设计 java 疫苗预约系统 基于 Java 的智能疫苗接种预约管理平台 Java 疫苗接种全流程管理系统

计算机毕业设计 java 疫苗预约系统 9&#xff08;配套有源码 程序 mysql 数据库 论文&#xff09;本套源码可以先看具体功能演示视频领取&#xff0c;文末有联 xi 可分享随着网络科技的飞速发展和人们健康意识的提升&#xff0c;疫苗预约需求日益增长&#xff0c;传统线下预约模…

PERFORMANCE TEST - WebPerf Test

PERFORMANCE TEST - WebPerf TestNo web browser Organize your test early on -could be base on user stories Small granularity so you know what is slowAdding Validatation Rule All have LEVEL to indicate im…

震惊!浙江这家头部AI公司光景泽创,究竟藏着啥秘密?

震惊&#xff01;浙江这家头部AI公司光景泽创&#xff0c;究竟藏着啥秘密&#xff1f;当多数AI企业还在卷技术参数时&#xff0c;浙江光景泽创科技公司&#xff08;以下简称“光景泽创”&#xff09;却用一组数据刺痛了行业神经&#xff1a;服务企业超500家&#xff0c;帮助广州…

震惊!浙江这家AI科技头部公司光景泽创,究竟有何过人之处?

跨境生意的“效率革命”&#xff1a;解码光景泽创的AI破局之道当前跨境电商行业正陷入一场“效率焦虑”——多语言素材人工翻译成本高、海外直播时区适配难、客户咨询响应慢导致流失率超30%&#xff0c;这些隐性痛点正在吞噬企业的利润空间。浙江光景泽创科技有限公司&#xff…

Dev Mentor - RabbitMq

Dev Mentor - RabbitMqBus is to be used to inform or broadcast the mutated state and command that need to be processed by multiple servicesScenario 1 ProductService received rest post message to persist…

PyTorch 自动微分:超越 `backward()` 的动态图深度探索

PyTorch 自动微分&#xff1a;超越 backward() 的动态图深度探索 引言&#xff1a;自动微分的范式之争 在深度学习的工程实践中&#xff0c;自动微分&#xff08;Automatic Differentiation, AD&#xff09;已成为模型训练的基石。与符号微分和数值微分不同&#xff0c;自动微分…

计算机毕业设计 java 疫情物资管理系统 Java 疫情物资智能管理与调配平台 基于 Spring Boot 的疫情物资申请捐赠系统

计算机毕业设计 java 疫情物资管理系统 v5rne9&#xff08;配套有源码 程序 mysql 数据库 论文&#xff09;本套源码可以先看具体功能演示视频领取&#xff0c;文末有联 xi 可分享在疫情防控常态化背景下&#xff0c;疫情物资的高效管理、精准调配与供需对接成为关键需求&#…

震惊!浙江这家AI科技公司,竟是光景泽创!

浙江光景泽创科技&#xff1a;AI 企服领域的创新引领者在当今数字化浪潮汹涌的时代&#xff0c;AI 技术在企业服务领域的应用正成为行业发展的关键驱动力。然而&#xff0c;企业在引入 AI 服务时&#xff0c;往往面临着诸多挑战。从行业实操反馈来看&#xff0c;许多企业在 AI …

Dev Mentor - Seq Serilog

Dev Mentor - Seq Serilog {"app": {"name": "order-service"},"elk": {"enabled": false,"url": "http://10.89.24.148:9200","indexFo…

基于深度学习的棉花分类检测系统(YOLOv8+YOLO数据集+UI界面+Python项目+模型)

一、项目介绍 摘要 本项目基于YOLOv8深度学习目标检测算法&#xff0c;开发了一套高效、精准的棉花品种智能分类检测系统。该系统能够自动识别并分类四种主要棉花品种&#xff1a;亚洲棉&#xff08;G. arboreum&#xff09;、海岛棉&#xff08;G. barbadense&#xff09;、…

基于深度学习的手势识别检测系统(YOLOv8+YOLO数据集+UI界面+Python项目+模型)

一、项目介绍 摘要 本项目基于先进的YOLOv8深度学习算法&#xff0c;开发了一套高效精准的实时手势识别检测系统。系统能够准确识别10种常见手势&#xff0c;包括字母手势&#xff08;A、D、I、L、V、W、Y&#xff09;、数字手势&#xff08;5、7&#xff09;以及特殊手势&am…

Dev Mentor - Distributed tracing

Dev Mentor - Distributed tracingOpenTrace take a tracer instance (e.g. Jaeger) to post the metrics via UDP to the remote Jaeger instance for display OpenTrace then can be acquired in DI manner and get …

基于深度学习的火焰烟雾检测系统(YOLOv10+YOLO数据集+UI界面+Python项目+模型)

一、项目介绍 项目背景 火焰与烟雾的检测在很多领域中都至关重要&#xff0c;特别是在火灾监控、工业安全、环境保护等领域。准确、实时地识别火焰和烟雾的存在&#xff0c;不仅可以有效减少灾害发生的损失&#xff0c;还能够为相关部门提供及时的预警信息。因此&#xff0c;…

VIRTUALIZATION - Dev Mentor - Kubernates (Continue)

VIRTUALIZATION - Dev Mentor - Kubernates (Continue) kubectl apply -f /home/Asdf1234/pod.ymlkubectl get podskubectl port-forward nanoservice-pod 5000:5000kubectl describe pod nanoservice-pod kubectl de…

VIRTUALIZATION - Dev Mentor - Docker

VIRTUALIZATION - Dev Mentor - Docker Remove all inactive dockers : docker container prune -f Copy files in inactive docker to host server: docker container cp 5f9c2f1893c4:/app/migrator/ ./ VS.NET doc…