小白也能懂的YOLO26镜像使用教程,手把手教学
你是不是也遇到过这些情况:
下载了一堆YOLO相关代码,配环境配到怀疑人生;
好不容易跑通了demo,想换自己的图片却卡在路径报错;
看到“训练模型”四个字就头皮发麻,生怕一不小心把显存炸掉……
别担心。这篇教程专为零基础、没跑过深度学习、连conda activate都打错两次的新手准备。我们不讲CUDA版本怎么对齐,不聊分布式训练原理,也不提什么FP16混合精度——只说最实在的一件事:打开镜像,5分钟内让YOLO26在你的屏幕上画出检测框。
全程用大白话,每一步都有截图提示(文字已描述清楚),所有命令直接复制粘贴就能用。你唯一需要做的,就是跟着节奏,敲下回车。
1. 镜像是什么?它能帮你省掉哪些麻烦?
先说清楚一个概念:镜像不是软件,而是一台已经装好所有工具的“虚拟电脑”。
就像你买来一台新笔记本,系统、驱动、办公软件全预装好了,开机就能写文档——这个YOLO26镜像,就是一台为你量身定制的“AI检测工作站”。
它里面已经装好了:
- Python 3.9.5(不用你自己装Python)
- PyTorch 1.10.0 + CUDA 12.1(不用查显卡驱动兼容表)
- OpenCV、NumPy、Matplotlib等常用库(不用pip install半天还报错)
- Ultralytics官方代码(也就是YOLO26的源码,版本号是ultralytics-8.4.2)
- 预下载好的几个YOLO26模型文件(比如
yolo26n-pose.pt,直接就能用)
换句话说:你不需要懂环境配置,不需要会debug依赖冲突,甚至不需要知道conda和pip的区别。只要启动镜像,你就站在了“能运行”的起跑线上。
小提醒:镜像里默认有两个环境,一个是
torch25(别用),另一个是yolo(我们要用)。后面会教你一键切换,两秒钟的事。
2. 启动后第一件事:激活环境 & 把代码挪到安全位置
镜像启动成功后,你会看到一个黑底白字的终端界面(类似Windows的命令提示符)。别慌,这是你的操作台,所有动作都在这里完成。
2.1 激活YOLO专用环境
输入这一行命令(注意空格和大小写):
conda activate yolo按回车。如果光标闪一下,没报错,就说明成功了——你现在用的是YOLO专属环境,所有依赖都已就位。
如果提示
Command 'conda' not found,说明你没启动对镜像,或者镜像加载异常,请重启镜像重试。
如果提示Could not find conda environment: yolo,请确认镜像名称是否为“最新 YOLO26 官方版训练与推理镜像”,版本必须匹配。
2.2 把代码复制到工作区(关键!否则改不了文件)
镜像启动后,YOLO的源码默认放在/root/ultralytics-8.4.2这个路径下。但这个位置是“只读区域”,你直接修改文件会失败。
所以我们要把它复制一份到可写的目录——也就是/root/workspace/,这是镜像特意为你准备的“安全编辑区”。
执行这行命令(复制整个文件夹):
cp -r /root/ultralytics-8.4.2 /root/workspace/然后进入这个新文件夹:
cd /root/workspace/ultralytics-8.4.2现在,你就在自己的“工作台”上了。后续所有代码修改、数据存放、模型保存,都发生在这里。
验证小技巧:输入
ls回车,能看到detect.py、train.py、ultralytics/等文件和文件夹,说明进对地方了。
3. 第一次推理:让YOLO26认出图中的人
推理,就是“让模型看一张图,然后标出里面有什么”。这是你和YOLO26的第一次对话,我们用它自带的测试图zidane.jpg(一个穿蓝衣服的足球运动员)来开场。
3.1 修改 detect.py —— 只改3个地方
用你喜欢的编辑器打开detect.py(镜像里预装了nano,简单好用):
nano detect.py你会看到一段Python代码。我们需要改其中三处,全部用中文标注好了:
# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ == '__main__': # 【改这里1】指定你要用的模型文件名(镜像里已预装,直接写名字就行) model = YOLO(model=r'yolo26n-pose.pt') # 【改这里2】指定你要检测的图片路径(这张图就在代码文件夹里) model.predict(source=r'./ultralytics/assets/zidane.jpg', # 【改这里3】一定要设为True,否则结果不保存! save=True, # 这个设为False,避免弹窗(服务器没图形界面,弹了也看不到) show=False, )重点说明(小白必读):
yolo26n-pose.pt是镜像自带的轻量级姿态检测模型,适合快速测试;./ultralytics/assets/zidane.jpg是相对路径,意思是“当前文件夹下的ultralytics/assets文件夹里的zidane.jpg”;save=True表示把画好框的图自动保存到runs/detect/predict/文件夹里;show=False是必须的,因为服务器没有桌面环境,设成True会报错。
改完后,按Ctrl+O→ 回车(保存),再按Ctrl+X(退出nano)。
3.2 运行推理,看结果在哪
在终端里输入:
python detect.py回车后,你会看到一串滚动的日志,类似:
Ultralytics 8.4.2 Python-3.9.5 torch-1.10.0+cu121 CUDA:0 (Tesla T4) ... Results saved to runs/detect/predict成功标志:最后一行出现Results saved to runs/detect/predict。
那张带检测框的图就存在这个文件夹里了。我们去看看:
ls runs/detect/predict/你应该能看到一个zidane.jpg文件(就是原图加了框的结果)。想下载到本地?继续看下一节。
4. 下载结果图:用Xftp拖拽,3秒搞定
镜像运行在远程服务器上,你本地看不到图片。但别担心,用Xftp(或其他SFTP工具)就能像拖文件一样拿下来。
操作步骤超简单:
- 打开Xftp,新建连接(主机填服务器IP,用户名
root,密码是你设置的); - 连接成功后,右边是服务器文件列表,左边是你本地电脑;
- 在右边找到路径:
/root/workspace/ultralytics-8.4.2/runs/detect/predict/zidane.jpg - 鼠标左键按住它,往左边(你的本地文件夹)拖过去,松手→ 自动开始下载;
- 下载完成后,双击打开,你就会看到YOLO26画出的蓝色人体框和关键点连线!
小技巧:如果要下载整个文件夹(比如训练完的模型),直接拖拽
predict/文件夹即可;如果只是单个文件,双击它也会自动下载。
5. 训练自己的模型:从准备数据到跑通第一轮
训练 = “教YOLO26认识你想要检测的东西”。比如你想让它识别产线上的螺丝、或者果园里的苹果,就得给它看几百张带标注的图。
我们分三步走:准备数据 → 写配置 → 开始训练。每一步都控制在2分钟内完成。
5.1 数据准备:YOLO格式长什么样?
YOLO要求数据是这种结构:
my_dataset/ ├── images/ │ ├── train/ │ │ ├── img1.jpg │ │ └── img2.jpg │ └── val/ │ ├── img3.jpg └── labels/ ├── train/ │ ├── img1.txt │ └── img2.txt └── val/ ├── img3.txt每个.txt文件里,一行代表一个物体,格式是:
类别编号 中心x(归一化) 中心y(归一化) 宽度(归一化) 高度(归一化)举个例子:0 0.45 0.62 0.21 0.33表示第0类物体(比如“苹果”),在图中位置和大小。
新手友好方案:
用CVAT或LabelImg这类免费工具标注,导出时选“YOLO”格式,它会自动生成符合要求的images/和labels/文件夹。
5.2 编写 data.yaml:告诉YOLO“你教它认什么”
在/root/workspace/ultralytics-8.4.2/目录下,新建一个文件叫data.yaml(用nano):
nano data.yaml写入以下内容(按你实际数据修改):
train: ./my_dataset/images/train val: ./my_dataset/images/val nc: 1 # 类别数量,比如只有“苹果”,就写1;有“苹果”和“梨”,就写2 names: ['apple'] # 类别名字,顺序必须和nc一致,用英文、小写、无空格注意:
train和val路径必须是相对于 data.yaml 文件的位置;- 如果你的数据集不在
ultralytics-8.4.2文件夹里,比如放在/root/dataset/,那就写成/root/dataset/images/train; names里的名字,后面训练日志和结果图上都会显示,务必写对。
保存退出(Ctrl+O → 回车 → Ctrl+X)。
5.3 修改 train.py:填对3个关键参数
打开train.py:
nano train.py找到model.train(...)这一行,确保这几个参数填对:
model.train( data=r'data.yaml', # 指向你刚写的配置文件 imgsz=640, # 输入图像统一缩放到640×640(YOLO26推荐值) epochs=50, # 先跑50轮试试水(足够看出效果) batch=32, # 根据显存调整:T4卡建议16~32,A100可到128 device='0', # 单卡训练填'0';双卡填'0,1';不填则自动选 project='runs/train', # 结果默认存这里,不用改 name='my_apple_exp', # 给这次训练起个名字,方便区分 )小白避坑指南:
batch=32是平衡速度和显存的安全值,如果你显存小(<12GB),改成16;device='0'不要写成0(数字)或'gpu0'(字符串错误),必须是'0';project和name合起来就是保存路径:runs/train/my_apple_exp/,训练完去这里找模型。
保存退出。
5.4 开始训练:盯住进度条,5分钟见真章
回到终端,执行:
python train.py你会看到类似这样的输出:
Epoch GPU_mem box_loss cls_loss dfl_loss ... Instances Size 0/49 3.2G 0.82111 0.41022 0.76543 ... 124 640 1/49 3.2G 0.79201 0.39876 0.74210 ... 131 640正常标志:每行开头是Epoch x/xx,中间有数字在跳,最后是Size 640。
训练过程中,你可以随时按Ctrl+C中断(不会丢数据,下次可resume=True接着训)。
训练结束后,模型文件会保存在:
runs/train/my_apple_exp/weights/best.pt这就是你亲手训练出来的第一个YOLO26模型!把它复制到detect.py里,就能检测你自己的图了。
6. 常见问题快查(新手90%的问题都在这)
| 问题现象 | 原因 | 解决方法 |
|---|---|---|
conda activate yolo报错找不到环境 | 镜像没启动对,或环境名输错 | 确认镜像名称,重新启动;输入conda env list查看真实环境名 |
python detect.py报ModuleNotFoundError: No module named 'ultralytics' | 没激活yolo环境,或路径没进对 | 先conda activate yolo,再cd /root/workspace/ultralytics-8.4.2 |
推理结果图没生成,runs/detect/下为空 | save=False或路径写错 | 检查detect.py里save=True,且source路径存在 |
训练时报错FileNotFoundError: data.yaml | data.yaml不在当前目录,或路径写错 | 用pwd确认当前路径,用ls data.yaml看文件是否存在 |
| 训练时显存爆了(OOM) | batch太大 | 把batch=32改成16或8,再试 |
| Xftp拖拽没反应 | 服务器防火墙拦截SFTP,或路径权限不足 | 用chmod -R 755 /root/workspace开放权限;检查Xftp端口是否为22 |
终极技巧:任何命令不确定,先输
ls看当前有什么文件;路径不确定,先输pwd看当前在哪;报错看不懂,复制报错前3行到搜索引擎,90%有答案。
7. 总结:你已经掌握了YOLO26落地的核心能力
回顾一下,你刚刚完成了:
- 启动镜像,激活正确环境(1分钟)
- 把代码挪到可编辑区(10秒)
- 修改3行代码,让YOLO26识别出人(2分钟)
- 下载带检测框的图到本地(30秒)
- 准备自己的数据集(按模板套用)
- 写好
data.yaml和train.py(5分钟) - 跑通第一轮训练,拿到专属模型(20分钟)
这不是“学会了一个工具”,而是打通了从想法到结果的完整链路。接下来,你可以:
- 换成自己的图片,试试检测效果;
- 把
best.pt拖到detect.py里,检测你关心的目标; - 用训练好的模型处理视频、摄像头流;
- 把模型导出成ONNX,在Jetson或树莓派上部署。
YOLO26不是黑盒子,它是一把已经磨好的刀。而你,现在知道怎么握紧它、对准目标、用力挥下去。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。