人力资源公司网站模板下载wordpress 默认字体

diannao/2026/1/22 12:58:34/文章来源:
人力资源公司网站模板下载,wordpress 默认字体,国内域名有哪些,外贸新三样YOLOv10: 实时端到端的目标检测。 性能 YOLOv10比最先进的YOLOv9延迟时间更低#xff0c;测试结果可以与YOLOv9媲美#xff0c;可能会成为YOLO系列模型部署的“新选择”。 目录 1 数据准备 2 配置文件 3 训练 4 验证 5 预测 6 导出模型 7 ONNX模型的使用 官方论文地址…YOLOv10: 实时端到端的目标检测。 性能 YOLOv10比最先进的YOLOv9延迟时间更低测试结果可以与YOLOv9媲美可能会成为YOLO系列模型部署的“新选择”。 目录 1 数据准备 2 配置文件 3 训练 4 验证 5 预测 6 导出模型 7 ONNX模型的使用 官方论文地址https://arxiv.org/pdf/2405.14458 官方代码地址https://github.com/THU-MIG/yolov10 安装 建议使用Conda虚拟环境。 ① 克隆YOLOv10项目 ​git clone https://github.com/THU-MIG/yolov10.git ② 安装 conda create -n yolov10 python3.9conda activate yolov10cd yolov10项目所在路径pip install -r requirements.txtpip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple 1 数据准备 可以使用开源的数据集也可以自己准备数据集。 ①标注工具 ⒈labelme 安装方法pip install labelme 使用方法终端输入labelme 标注后生成的标记文件是json文件。 ⒉labelimg 安装方法: pip install labelimg 使用方法 cd到labelImg所在路径 python3 labelImg.py 标注后生成的标记文件是xml文件。 ②数据集整理 原始数据集格式如下图所示 Annotations里面存放标签xml文件。 JPEGImage 里面存放原始图片。 labels文件夹里面存放的是标签txt文件。这个文件夹里的文件是通过脚本XmlToTxt.py生成的。 XmlToTxt.py的代码如下 import xml.etree.ElementTree as ET import os import os import random # TODO 这里按照类别去修改 classes [fire] # TODO 这里按照实际XML文件夹路径去修改 xml_filepath dataset_fire/Annotations/ # TODO 这里按照实际想要保存结果txt文件夹的路径去修改 labels_savepath dataset_fire/labels/ abs_path os.getcwd()def convert(size, box):dw 1. / (size[0])dh 1. / (size[1])x (box[0] box[1]) / 2.0 - 1y (box[2] box[3]) / 2.0 - 1w box[1] - box[0]h box[3] - box[2]x x * dww w * dwy y * dhh h * dhreturn x, y, w, hdef convert_annotation(image_id):in_file open(xml_filepath %s.xml % (image_id), encodingUTF-8)out_file open(labels_savepath %s.txt % (image_id), w)tree ET.parse(in_file)root tree.getroot()size root.find(size)w int(size.find(width).text)h int(size.find(height).text)for obj in root.iter(object):difficult obj.find(difficult).textcls obj.find(name).textif cls not in classes or int(difficult) 1:continuecls_id classes.index(cls)xmlbox obj.find(bndbox)b (float(xmlbox.find(xmin).text), float(xmlbox.find(xmax).text), float(xmlbox.find(ymin).text),float(xmlbox.find(ymax).text))b1, b2, b3, b4 b# 标注越界修正if b2 w:b2 wif b4 h:b4 hb (b1, b2, b3, b4)bb convert((w, h), b)out_file.write(str(cls_id) .join([str(a) for a in bb]) \n)def run():total_xml os.listdir(xml_filepath)num len(total_xml)names []for xml in total_xml:names.append(xml[:-4])for name in names:convert_annotation(name)passif __name__ __main__:run()pass 然后根据JPEGImage 文件夹和labels文件夹通过脚本deal_dataset.py将数据集划分为如下结构。 deal_dataset.py的代码如下 import os import random import shutil# 原数据集目录 root_dir dataset_fire/ # 划分比例 train_ratio 0.8 valid_ratio 0.1 test_ratio 0.1# 设置随机种子 random.seed(42)# TODo 这里按照实际数据集路径去修改 split_dir dataset_fire_split/ os.makedirs(os.path.join(split_dir, train/images), exist_okTrue) os.makedirs(os.path.join(split_dir, train/labels), exist_okTrue) os.makedirs(os.path.join(split_dir, val/images), exist_okTrue) os.makedirs(os.path.join(split_dir, val/labels), exist_okTrue) os.makedirs(os.path.join(split_dir, test/images), exist_okTrue) os.makedirs(os.path.join(split_dir, test/labels), exist_okTrue)# TODo 这里按照实际数据集路径去修改 imgpath JPEGImages labelpath labels image_files os.listdir(os.path.join(root_dir, imgpath)) label_files os.listdir(os.path.join(root_dir, labelpath))# 随机打乱文件列表 combined_files list(zip(image_files, label_files)) random.shuffle(combined_files) image_files_shuffled, label_files_shuffled zip(*combined_files)# 根据比例计算划分的边界索引 train_bound int(train_ratio * len(image_files_shuffled)) valid_bound int((train_ratio valid_ratio) * len(image_files_shuffled))# 将图片和标签文件移动到相应的目录 for i, (image_file, label_file) in enumerate(zip(image_files_shuffled, label_files_shuffled)):if i train_bound:shutil.move(os.path.join(root_dir, imgpath, image_file), os.path.join(split_dir, train/images, image_file))shutil.move(os.path.join(root_dir, labelpath, label_file), os.path.join(split_dir, train/labels, label_file))elif i valid_bound:shutil.move(os.path.join(root_dir, imgpath, image_file), os.path.join(split_dir, valid/images, image_file))shutil.move(os.path.join(root_dir, labelpath, label_file), os.path.join(split_dir, valid/labels, label_file))else:shutil.move(os.path.join(root_dir, imgpath, image_file), os.path.join(split_dir, test/images, image_file))shutil.move(os.path.join(root_dir, labelpath, label_file), os.path.join(split_dir, test/labels, label_file)) 至此数据集准备好啦 ❤️ ❤️ ❤️ ❤️ 2 配置文件 在YOLOv10的项目下新建fire.yaml文件内容如下 train: dataset_fire_split/train val: dataset_fire_split/val test: dataset_fire_split/test nc: 1 # classes names:0: fire 修改ultralytics/cfg/models/v10/yolov10s.yaml文件内容 3 训练 imgsz图像放缩大小resize默认是640。 device设备id可以是cpu,如果只有一张显卡则device0如果有两张则device0,1依次类推。 训练示例如下 方式一 从yaml构建全新的模型 yolo detect train datafire.yaml modelyolov10s.yaml epochs200 batch8 imgsz640 devicecpu projectyolov10 方式二 配置好ultralytics/cfg/default.yaml这个文件之后可以直接执行这个文件进行训练这样就不需要在命令行输入其它的参数。 yolo cfgultralytics/cfg/default.yaml 官方原版的default.yaml的内容如下 # Ultralytics YOLO , AGPL-3.0 license # Default training settings and hyperparameters for medium-augmentation COCO trainingtask: detect # (str) YOLO task, i.e. detect, segment, classify, pose mode: train # (str) YOLO mode, i.e. train, val, predict, export, track, benchmark# Train settings ------------------------------------------------------------------------------------------------------- model: # (str, optional) path to model file, i.e. yolov8n.pt, yolov8n.yaml data: # (str, optional) path to data file, i.e. coco128.yaml epochs: 100 # (int) number of epochs to train for time: # (float, optional) number of hours to train for, overrides epochs if supplied patience: 100 # (int) epochs to wait for no observable improvement for early stopping of training batch: 16 # (int) number of images per batch (-1 for AutoBatch) imgsz: 640 # (int | list) input images size as int for train and val modes, or list[w,h] for predict and export modes save: True # (bool) save train checkpoints and predict results save_period: -1 # (int) Save checkpoint every x epochs (disabled if 1) val_period: 1 # (int) Validation every x epochs cache: False # (bool) True/ram, disk or False. Use cache for data loading device: # (int | str | list, optional) device to run on, i.e. cuda device0 or device0,1,2,3 or devicecpu workers: 8 # (int) number of worker threads for data loading (per RANK if DDP) project: # (str, optional) project name name: # (str, optional) experiment name, results saved to project/name directory exist_ok: False # (bool) whether to overwrite existing experiment pretrained: True # (bool | str) whether to use a pretrained model (bool) or a model to load weights from (str) optimizer: auto # (str) optimizer to use, choices[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto] verbose: True # (bool) whether to print verbose output seed: 0 # (int) random seed for reproducibility deterministic: True # (bool) whether to enable deterministic mode single_cls: False # (bool) train multi-class data as single-class rect: False # (bool) rectangular training if modetrain or rectangular validation if modeval cos_lr: False # (bool) use cosine learning rate scheduler close_mosaic: 10 # (int) disable mosaic augmentation for final epochs (0 to disable) resume: False # (bool) resume training from last checkpoint amp: True # (bool) Automatic Mixed Precision (AMP) training, choices[True, False], True runs AMP check fraction: 1.0 # (float) dataset fraction to train on (default is 1.0, all images in train set) profile: False # (bool) profile ONNX and TensorRT speeds during training for loggers freeze: None # (int | list, optional) freeze first n layers, or freeze list of layer indices during training multi_scale: False # (bool) Whether to use multiscale during training # Segmentation overlap_mask: True # (bool) masks should overlap during training (segment train only) mask_ratio: 4 # (int) mask downsample ratio (segment train only) # Classification dropout: 0.0 # (float) use dropout regularization (classify train only)# Val/Test settings ---------------------------------------------------------------------------------------------------- val: True # (bool) validate/test during training split: val # (str) dataset split to use for validation, i.e. val, test or train save_json: False # (bool) save results to JSON file save_hybrid: False # (bool) save hybrid version of labels (labels additional predictions) conf: # (float, optional) object confidence threshold for detection (default 0.25 predict, 0.001 val) iou: 0.7 # (float) intersection over union (IoU) threshold for NMS max_det: 300 # (int) maximum number of detections per image half: False # (bool) use half precision (FP16) dnn: False # (bool) use OpenCV DNN for ONNX inference plots: True # (bool) save plots and images during train/val# Predict settings ----------------------------------------------------------------------------------------------------- source: # (str, optional) source directory for images or videos vid_stride: 1 # (int) video frame-rate stride stream_buffer: False # (bool) buffer all streaming frames (True) or return the most recent frame (False) visualize: False # (bool) visualize model features augment: False # (bool) apply image augmentation to prediction sources agnostic_nms: False # (bool) class-agnostic NMS classes: # (int | list[int], optional) filter results by class, i.e. classes0, or classes[0,2,3] retina_masks: False # (bool) use high-resolution segmentation masks embed: # (list[int], optional) return feature vectors/embeddings from given layers# Visualize settings --------------------------------------------------------------------------------------------------- show: False # (bool) show predicted images and videos if environment allows save_frames: False # (bool) save predicted individual video frames save_txt: False # (bool) save results as .txt file save_conf: False # (bool) save results with confidence scores save_crop: False # (bool) save cropped images with results show_labels: True # (bool) show prediction labels, i.e. person show_conf: True # (bool) show prediction confidence, i.e. 0.99 show_boxes: True # (bool) show prediction boxes line_width: # (int, optional) line width of the bounding boxes. Scaled to image size if None.# Export settings ------------------------------------------------------------------------------------------------------ format: torchscript # (str) format to export to, choices at https://docs.ultralytics.com/modes/export/#export-formats keras: False # (bool) use Keras optimize: False # (bool) TorchScript: optimize for mobile int8: False # (bool) CoreML/TF INT8 quantization dynamic: False # (bool) ONNX/TF/TensorRT: dynamic axes simplify: False # (bool) ONNX: simplify model opset: # (int, optional) ONNX: opset version workspace: 4 # (int) TensorRT: workspace size (GB) nms: False # (bool) CoreML: add NMS# Hyperparameters ------------------------------------------------------------------------------------------------------ lr0: 0.01 # (float) initial learning rate (i.e. SGD1E-2, Adam1E-3) lrf: 0.01 # (float) final learning rate (lr0 * lrf) momentum: 0.937 # (float) SGD momentum/Adam beta1 weight_decay: 0.0005 # (float) optimizer weight decay 5e-4 warmup_epochs: 3.0 # (float) warmup epochs (fractions ok) warmup_momentum: 0.8 # (float) warmup initial momentum warmup_bias_lr: 0.1 # (float) warmup initial bias lr box: 7.5 # (float) box loss gain cls: 0.5 # (float) cls loss gain (scale with pixels) dfl: 1.5 # (float) dfl loss gain pose: 12.0 # (float) pose loss gain kobj: 1.0 # (float) keypoint obj loss gain label_smoothing: 0.0 # (float) label smoothing (fraction) nbs: 64 # (int) nominal batch size hsv_h: 0.015 # (float) image HSV-Hue augmentation (fraction) hsv_s: 0.7 # (float) image HSV-Saturation augmentation (fraction) hsv_v: 0.4 # (float) image HSV-Value augmentation (fraction) degrees: 0.0 # (float) image rotation (/- deg) translate: 0.1 # (float) image translation (/- fraction) scale: 0.5 # (float) image scale (/- gain) shear: 0.0 # (float) image shear (/- deg) perspective: 0.0 # (float) image perspective (/- fraction), range 0-0.001 flipud: 0.0 # (float) image flip up-down (probability) fliplr: 0.5 # (float) image flip left-right (probability) bgr: 0.0 # (float) image channel BGR (probability) mosaic: 1.0 # (float) image mosaic (probability) mixup: 0.0 # (float) image mixup (probability) copy_paste: 0.0 # (float) segment copy-paste (probability) auto_augment: randaugment # (str) auto augmentation policy for classification (randaugment, autoaugment, augmix) erasing: 0.4 # (float) probability of random erasing during classification training (0-1) crop_fraction: 1.0 # (float) image crop fraction for classification evaluation/inference (0-1)# Custom config.yaml --------------------------------------------------------------------------------------------------- cfg: # (str, optional) for overriding defaults.yaml# Tracker settings ------------------------------------------------------------------------------------------------------ tracker: botsort.yaml # (str) tracker type, choices[botsort.yaml, bytetrack.yaml] 方式三推荐 首先需要下载模型模型下载链接如下 yolov10n.pt yolov10s.pt yolov10m.pt yolov10b.pt yolov10l.pt yolov10x.pt 下载后的模型放在YOLOv10的工程目录下即可。 从yaml构建全新的模型将预训练权重转移到这个模型并开始训练。 # 数据配置文件最好用绝对路径哈yolo detect train datafire.yaml modelultralytics/cfg/models/v10/yolov10s.yaml pretrainedyolov10s.pt epochs50 batch8 imgsz640 devicecpu projectyolov10 训练过程的产物 训练结束后模型保存在路径yolov10/train5/weights下如下图 4 验证 验证示例如下 注意数据配置文件尽量用绝对路径。 cd yolov10项目所在的路径yolo taskdetect modeval splitval modelyolov10/train5/weights/best.pt datafire.yaml batch2 devicecpu 验证过程的产物 5 预测 预测示例如下 cd yolov10项目所在的路径yolo taskdetect modepredict modelyolov10/train5/weights/best.pt sourcetest.jpg devicecpu 预测效果如下图 说明本次训练过程只是说明过程训练轮数不够因此检测结果置信度一般。 6 导出模型 导出ONNX模型示例 # export custom trained modelyolo taskdetect modeexport modelyolov10/train5/weights/best.pt formatonnx 7 ONNX模型的使用 命令行方式 yolo detect predict modelyolov10/train5/weights/best.onnx sourcetest.jpg 检测结果如下图 到此本文分享的内容就结束啦遇见便是缘感恩遇见点个赞 关注吧哈哈哈哈 ❤️ ❤️ ❤️ ❤️ ❤️ ❤️ ❤️

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/89306.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

广州正规网站制作维护wordpress淘宝联盟模板

比赛传送门 C,D,E,F题 《打水赛爱好者》 由于题目过水,所以A,B没有 C题 NK 题目描述 给定两个正整数 N , K N, K N,K,请你统计符合以下条件的正整数 x x x 的数量: 1 ≤ x ≤ N N 1 \leq x \leq N …

如何屏蔽网站ip网站建设培训 苏州

一、概念 数据存到内存中,程序退出、掉电数据就丢失了 数据存到硬盘中,就是存储在文件中,数据就不会因为掉电、程序退出就丢失。想要数据持久化,就要使用文件。 二、分类 什么是文件? 硬盘(磁盘&#…

杭州宣传片制作公司长沙seo计费管理

1.这个是因为有相关的lib包没有被引用进去 解决办法: 1. 2. 转载于:https://www.cnblogs.com/hcfan/p/6638980.html

怎么做自己的彩票网站怎么做充值网站

常用的几种大数据架构剖析 随着大数据技术的发展,数据挖掘、数据探索等专有名词曝光度越来越高,但是在类似于Hadoop系列的大数据分析系统大行其道之前,数据分析工作已经经历了长足的发展,尤其是以BI系统为主的数据分析&#xff0…

网站建设的面试要求浏阳网站开发建设

基本概念 1 计算机软件著作权是指自然人、法人或者其他组织对计算机软件作品享有的财产权利和精神权利的总称。通常语境下,计算机软件著作权又被简称为软件著作权、计算机软著或者软著。 图片 Part.02 权利主体 2 权利的主体即软件著作权人的概念,…

做网站设计收入男女直接做的视频网站

文章目录 引言Python列表常用内置方法count()功能介绍语法示例注意事项 index()功能介绍语法示例注意事项: insert()功能介绍语法示例注意事项总结 结束语 引言 亲爱的读者,你好!Python的列表在数据结构中占据着核心地位,对于学习…

做建筑机械网站那个网站好图片设计软件app

摘录自:http://blog.csdn.net/u012318074/article/details/71310553 第一步:安装完成后不要运行MyEclipse 第二步:下载对应的破解文件 第三步:解压并打开破解文件 第四步:打开文件夹patch,将里面的文件全部…

做网站的皮包公司无极官方网

简述: 当今互联网行业对于AI提示工程的需求日益增长,而《AI提示工程指南》是一本旨在满足这种需求的宝贵指南。本指南由一位对AI提示工程充满热情并自学而来的互联网从业者撰写,旨在为行业人员提供一个全面、易懂的参考手册。 这本指南将引领您踏上AI提示工程的旅程,深入探…

级a做爰片免费视网站设计logo免费生成器

最近马上要开始一个新项目的研发,作为第一次mvvm应用的尝试,我决定使用knockoutjs框架。作为学习的开始就从官网的Document翻译开始吧,这样会增加印象并加入自己的思考,说是翻译也并不是纯粹的翻译,会加入自己对知识点的思考以及自…

网站排版用什么软件wordpress 界面优化

文章目录 1、偏向锁出现的背景2、从共享对象的内存结构看偏向锁3、偏向锁的持有4、启动偏向锁5、sleep暂停来启动偏向锁6、偏向锁的撤销7、总体流程8、SinceJava15 偏向锁的废除 1、偏向锁出现的背景 如果一个线程连续几次抢到锁,仍然重复加锁解锁,就会…

营销型网站建设策划书营销方案包括哪些内容

问题:宽带下载网速本是30MB/s,经过路由器后速度仅10MB/s,这是为什么? 宽带下载测速可以到30MB/s,说明外线和光猫还有电脑是没有问题的。目前家庭的组网基本都是光纤入户了,你的测速瓶颈既然不在光猫&#…

社交网站开发阿里企业邮箱设置

之前发的丰富的经历我12年硕士毕业,历经华为,某芯片原厂外企,某芯片原厂国企,某手机公司,最后来到大疆,可以说是一个跳槽小能手,因为具有多家大企业的工作经历,我觉得谈下自己在各个…

帝国cms地方门户网站模板注册域名邮箱怎么弄

自动分配缓冲区类 Automatically Allocated Buffer Class. 这个类用于函数和方法中的临时缓冲区。如果临时缓冲区通常很小(几K的内存),但其大小取决于参数,则在堆栈上创建一个小的固定大小数组,并在足够大时使用它是有…

外贸网站平台都有哪些平台免费html5网站源码

案例中使用的软件版本 Unity2023.1.20.f1c1ARFoundtaion 5.1.0Apple ARKit XR Plugin 5.1.0 Google ARCore XR Plugin 5.1.0技术分析 我们可以实时检测用户手指触摸的屏幕位置,从触摸位置投射一条射线(Raycast),再射线命中的目标位置创建一个点,放置一个圆,手指拖动来设置…

建设网站要多久到账东阳实惠营销型网站建设

硬件介绍 淘宝上买的核心板,大概结构如上。 直接插入电脑usb,即可实现供电、下载(控制BOOT/EN)、串口通讯 固件包 1、环境配置 1.1串口 开发板使用了 CH340G 的 USB 转串口芯片,自行安装CH340串口驱动。 1.2编译环境…

做自己视频教程的网站改变网站的域名

摘要: 通过识别BERT对话情绪状态的实例,展现在昇思MindSpore AI框架中大语言模型的原理和实际使用方法、步骤。 一、环境配置 %%capture captured_output # 实验环境已经预装了mindspore2.2.14,如需更换mindspore版本,可更改下…

去泰国做网站发网站深圳 网页制作

这几天做一个功能需要在手机上创建一个文件夹,然后往里面存储一些文件,首先得考虑用户有没有sdcard,如果有就在sdcard上创建一个指定的文件夹,如果没有则在你的工程所在的目录“/data/data/你的包名”下创建文件夹。用到的方法是&…

幕墙配件在那个网站做推广好江苏运营网站建设业务

效果图的渲染是建筑和室内设计领域中不可或缺的一步,随着技术的发展,云渲染作为一项新技术,正逐渐受到人们关注。今天,让我们深入探讨电脑渲染和云渲染这两种方法的优缺点以及它们的适用场景。 本地电脑渲染 本地电脑渲染是利用用…

网站底部友情链接做IP授权的一般看什么网站

当使用大型模型(如GPT-3.5)时,可以通过优化提示(prompt)来引导模型生成更加符合预期的内容。以下是一些调优提示词的建议: 1、清晰的问题陈述:确保你的问题或提示清晰、简明,能够准…

网站优化防范做网站给菠菜引流

近年来,随着云计算、物联网(internet of things,IOT)、移动互联网、大数据、人工智能(artificial intelligence,AI)、5G网络、区块链等新一代信息技术的逐步成熟和广泛应用,信息化已…