小白也能学会的PyTorch安装教程GPU版|Miniconda-Python3.10上手指南

小白也能学会的PyTorch安装教程GPU版|Miniconda-Python3.10上手指南

在深度学习的世界里,第一步往往不是写模型,而是——环境装不上

你是不是也经历过这样的场景:跟着教程敲命令,结果pip install torch装完一跑代码,torch.cuda.is_available()却返回False?或者明明有GPU,训练速度却和CPU一样慢?更别提不同项目之间包版本冲突,“在我电脑能跑”成了口头禅。

问题出在哪?往往是Python环境混乱、依赖没对齐、CUDA版本不匹配。而解决这一切的关键,并不是重装系统,而是从一开始就用对工具。

今天我们就来走一遍真正适合初学者的AI开发环境搭建流程:Miniconda + Python 3.10 + PyTorch GPU版 + Jupyter Notebook + SSH远程开发。全程清晰、可复制,哪怕你是第一次接触命令行,也能一步步搞定。


为什么选 Miniconda 而不是直接 pip?

很多人一开始都用系统自带的 Python 或者pip安装库,但很快就会遇到一个致命问题:版本冲突

比如你刚做完一个图像分类项目,用的是 PyTorch 1.12;现在要复现一篇新论文,要求 PyTorch 2.0+,结果一升级,原来的项目就崩了。这不是代码的问题,是环境“污染”了。

这时候就需要虚拟环境来隔离项目。而 Miniconda 正是为此而生。

它不像 Anaconda 那样动辄几百MB预装一堆用不到的包,而是只包含最核心的conda包管理器和 Python 解释器,轻量又高效。更重要的是,conda 不仅能管 Python 包,还能管 CUDA、cuDNN 这类系统级依赖,这对 GPU 版本的 PyTorch 至关重要。

举个例子:

conda install pytorch-cuda=11.8 -c nvidia

这一条命令,conda 会自动帮你装好适配的 cuDNN、NCCL 等底层库,省去手动配置.so文件和环境变量的麻烦。这种“全栈式依赖管理”,是普通pip + virtualenv做不到的。


第一步:安装 Miniconda 并创建独立环境

我们以 Linux 系统为例(Windows 用户可下载图形化安装包),但所有命令在 macOS 上同样适用。

下载与安装

打开终端,执行以下命令:

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash Miniconda3-latest-Linux-x86_64.sh

按提示一路回车,最后选择“yes”初始化 conda。完成后重启终端或运行:

source ~/.bashrc

验证是否安装成功:

conda --version

如果输出类似conda 23.x.x,说明安装成功。

创建专属 AI 开发环境

接下来,我们要创建一个专用于 PyTorch 的环境,命名为torch-gpu,并指定使用 Python 3.10:

conda create -n torch-gpu python=3.10

✅ 为什么要用 Python 3.10?
因为它是目前大多数深度学习框架(包括 PyTorch)官方测试最充分的版本之一。既支持现代语法(如match-case结构化模式匹配),又不会因太新而导致兼容性问题。

激活环境:

conda activate torch-gpu

此时你的命令行前缀应该变成了(torch-gpu),表示当前操作都在这个独立环境中进行,不会影响系统其他部分。


第二步:安装 PyTorch GPU 版本

这一步最关键——必须确保 PyTorch 和你的 GPU 驱动、CUDA 版本匹配。

先检查显卡驱动支持的最高 CUDA 版本:

nvidia-smi

在右上角你会看到一行信息,例如:

CUDA Version: 12.1

这意味着你可以安装支持 CUDA 12.1 或更低版本的 PyTorch。

然后访问 pytorch.org/get-started/locally,选择如下配置:
- PyTorch Build: Stable (最新稳定版)
- Your OS: Linux
- Package: Conda
- Language: Python
- Compute Platform: CUDA 11.8 或 12.1(根据上面的结果选)

假设你选的是 CUDA 11.8,官方推荐命令是:

conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

执行这条命令,conda 会自动解析依赖,安装包括 cuDNN 在内的全套组件。

⚠️ 注意:不要混用condapip安装核心库!
如果你先用conda装了 PyTorch,后续又用pip升级,很可能导致 DLL 冲突或 CUDA 不可用。建议统一使用conda管理关键框架。


验证 GPU 是否正常工作

安装完成后,进入 Python 交互环境测试:

import torch print("CUDA Available:", torch.cuda.is_available()) print("CUDA Version:", torch.version.cuda) if torch.cuda.is_available(): print("Device Name:", torch.cuda.get_device_name(0)) print("Number of GPUs:", torch.cuda.device_count()) # 简单测试 GPU 计算 x = torch.rand(1000, 1000).to('cuda') y = torch.rand(1000, 1000).to('cuda') z = torch.matmul(x, y) print("Matrix multiplication on GPU success!")

预期输出:

CUDA Available: True CUDA Version: 11.8 Device Name: NVIDIA RTX 3090 Number of GPUs: 1 Matrix multiplication on GPU success!

只要torch.cuda.is_available()返回True,并且矩阵运算无报错,说明你的 GPU 已经可以为深度学习加速了。


用 Jupyter Notebook 提升开发效率

虽然可以直接写.py文件,但对于学习和调试来说,Jupyter Notebook是更好的选择。它可以分块运行代码、实时查看变量、嵌入图表和公式,特别适合边学边练。

在当前环境中安装 Jupyter:

conda install jupyter ipykernel

然后将当前环境注册为一个内核,这样你在 Jupyter 里就能切换到这个环境:

python -m ipykernel install --user --name=torch-gpu --display-name="Python (torch-gpu)"

启动服务:

jupyter notebook --ip=0.0.0.0 --port=8888 --no-browser

🔍 参数说明:
---ip=0.0.0.0:允许外部连接(适用于服务器)
---no-browser:不自动打开浏览器(SSH 场景下有用)

启动后终端会输出一个带 token 的链接,形如:

http://localhost:8888/?token=abc123...

记住这个地址,稍后我们会通过 SSH 安全访问它。


如何通过 SSH 远程连接 GPU 服务器?

如果你本地没有高性能显卡,完全可以租一台云服务器(比如阿里云、腾讯云的 GPU 实例),然后从自己电脑远程连接开发。

这就需要用到SSH(Secure Shell)

方法一:直接开放端口(不推荐)

假设你的服务器 IP 是192.168.1.100,在服务器上启动 Jupyter 后,理论上可以直接访问:

http://192.168.1.100:8888

但这样做需要开放防火墙端口,存在安全风险,容易被扫描攻击。

方法二:SSH 端口转发(强烈推荐)

利用 SSH 的本地端口映射功能,在加密通道中安全访问远程服务。

本地电脑终端执行:

ssh -L 8888:localhost:8888 user@192.168.1.100

解释一下这个命令:
--L 8888:localhost:8888:把本地的 8888 端口映射到远程主机的 8888 端口
-user@192.168.1.100:你的服务器用户名和IP

输入密码登录后,SSH 会建立一条加密隧道。此时在本地浏览器访问:

http://localhost:8888

你看到的页面其实是远程服务器上的 Jupyter!所有计算都在那台 GPU 主机上运行,而你在本地流畅操作,就像用本地软件一样。

💡 小技巧:可以给 SSH 配置别名,避免每次输长命令。编辑~/.ssh/config

Host gpu-server HostName 192.168.1.100 User yourname LocalForward 8888 localhost:8888

之后只需运行ssh gpu-server即可一键连接。


实际应用场景与最佳实践

这套组合拳非常适合以下几种情况:

  • 高校学生做课程项目:无需购买昂贵显卡,实验室提供 GPU 服务器即可
  • 研究人员复现实验:导出环境配置文件,别人一键还原
  • 个人开发者学习 PyTorch:避免“环境灾难”,专注算法本身

环境备份与复现

完成配置后,建议导出环境快照,方便以后重建:

conda env export > environment.yml

这个 YAML 文件记录了所有包及其精确版本,别人只需要运行:

conda env create -f environment.yml

就能获得一模一样的环境,彻底告别“在我机器上能跑”。

安全提醒

  • 不要用root用户启动 Jupyter,避免权限泄露
  • 对公网暴露的服务设置密码:
jupyter notebook password
  • 定期更新包(但注意兼容性):
conda update --all

总结:一套值得信赖的入门技术栈

我们走完了整个流程:从 Miniconda 创建干净环境,到安装支持 GPU 的 PyTorch,再到通过 Jupyter 和 SSH 实现远程高效开发。这套方案之所以推荐给初学者,是因为它解决了几个根本痛点:

问题解决方案
包版本冲突Miniconda 环境隔离
CUDA 配置复杂conda 自动安装依赖
缺乏交互式调试Jupyter Notebook 支持
本地算力不足SSH 连接远程 GPU 服务器

更重要的是,这套工具链不仅是“能用”,更是工业界和学术界的主流选择。你现在学的每一步,未来都能无缝迁移到更大的项目中。

所以别再纠结“为什么跑不了”了。先把环境搭起来,让第一段torch.cuda.is_available()输出True,你就已经超过了50%的初学者。

剩下的路,不过是不断写下去而已。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1098044.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

程序员不怕BUG,怕的是老到没人要

一、跨年夜的生产环境:当所有人都在庆祝,只有你在值班最后一个需求终于上线了。办公室里只剩下你和服务器指示灯交替闪烁。手机屏幕上,朋友圈正在进行一场盛大的跨年直播——海岛的日落、山顶的日出、家庭的团聚、情侣的拥吻。而你&#xff0…

dbt+DataOps+StarRocks:构建一体化数据治理与智能分析平台实践

作者:胡翔,SJM Resorts 企业方案设计高级经理、dbt- starrocksContributor本文内容整理自 SJM Resorts 企业方案设计高级经理、dbt-starrocks Contributor 胡翔在 StarRocks Connect 2025 上的演讲。文章将主要围绕三个方面展开:dbt 在数据建…

Conda与Pip混合使用指南|Miniconda-Python3.10环境下PyTorch安装策略

Conda与Pip混合使用指南|Miniconda-Python3.10环境下PyTorch安装策略 在深度学习项目开发中,一个常见的场景是:你刚接手同事的代码仓库,满怀期待地运行 pip install -r requirements.txt,结果却卡在了 torch 安装环节…

SCI检索号怎么看?

SCI检索号是什么?它根据什么来分配,有哪些作用?SCI检索号和DOI号有什么区别?下面淘淘学术来给大家详细讲解这些问题。一、SCI检索号的基本概念SCI论文检索号是WOS数据库中对所收录SCI论文的身份编码,具有唯一性和不可替…

jmeter设置中文页面的办法?

打开 JMeter(确保已正确安装并启动,启动文件为 bin/jmeter.bat 或 bin/jmeter.sh)。 在顶部菜单栏中找到 Options(选项),点击展开下拉菜单。 在下拉菜单中选择 Choose Language(选择语言),此时会显示支持的语…

PyTorch安装教程GPU版:Miniconda-Python3.10镜像一键配置深度学习环境

PyTorch GPU环境一键搭建:MinicondaPython3.10镜像实战指南 在深度学习项目启动阶段,最让人头疼的往往不是模型设计,而是环境配置——“为什么你的代码在我机器上跑不起来?”这个问题几乎困扰过每一位AI开发者。依赖冲突、CUDA版本…

确保移动端适配良好以符合谷歌移动优先索引

确保移动端适配良好以符合谷歌移动优先索引 在今天的数字生态中,用户打开网页的第一选择早已不再是台式机浏览器。StatCounter 的数据显示,全球超过 55% 的网络流量来自手机和平板设备。这一转变不仅改变了用户的浏览习惯,也彻底重塑了搜索引…

Java毕设项目推荐-基于SpringBoot+vue招投标系统的设计与实现招标项目发布、投标文件提交、在线评标、合同管理全流程数字化招标方、投标方、评标专家、监管机构【附源码+文档,调试定制服务】

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

HTTP中GET接口测试

JMeter GET接口测试极简笔记建基础:测试计划→右键加线程组→线程组右键加【HTTP请求】配请求:选GET,填域名/IP、接口路径,参数直接填参数面板(名+值)加元件:HTTP请求右键加【查看结果树】,再加HTTP信息头(UT…

在http中请求和响应包括几部分

HTTP 请求报文包含3部分:请求行、请求头、请求体(可选,GET请求一般无请求体)。 HTTP 响应报文包含3部分:状态行、响应头、响应体。

在禅道中如何新增测试用例?

在禅道中新增测试用例有单个 / 批量创建和导入创建两种主要方式,具体操作如下: 单个 / 批量创建 进入禅道系统,点击 “测试”-“用例”,选择 “建用例”。 在建用例页面,选择对应的产品、需求模块、用例类型、适用…

PyTorch模型微调实战:基于Miniconda-Python3.10环境复现SOTA结果

PyTorch模型微调实战:基于Miniconda-Python3.10环境复现SOTA结果 在深度学习领域,我们常常面临这样的窘境:论文中宣称的SOTA(State-of-the-Art)性能,在自己的机器上却始终无法复现。训练精度差几个百分点、…

斯坦福大学发现:AI系统分工模式的信息论奥秘

这项由斯坦福大学计算机科学系Shizhe He领导的研究团队发表于2024年12月25日,论文标题为"An Information Theoretic Perspective on Agentic System Design"。研究团队包括来自斯坦福大学计算机科学系、统计系和Wu Tsai神经科学研究所的多位专家。有兴趣深…

HTTP Keep-Alive 笔记

一、 核心含义 Keep-Alive就是HTTP长连接,让TCP连接复用,一次连好多次传数据,不用每次请求都重新握手断开。 对应HTTP1.0需手动加Connection:Keep-Alive开启,HTTP1.1默认开启(默认Connection:keep-alive) 二、 通…

2025最新云南水土保持方案报告品牌top5榜单公布,服务覆盖昆明/曲靖/文山/保山/昭通等地优质公司专业评测及选择指南,助力项目合规落地新生态 - 全局中转站

随着生态文明建设的深入推进,水土保持方案报告作为项目立项审批的关键环节,其专业性与合规性要求日益提高。本榜单基于技术专业性、区域服务能力、项目通过率、行业经验四大维度(旭峰咨询新增“全流程服务”维度),…

通信原理篇---星座图

我用一个 “灯光信号站” 的比喻,来彻底讲清楚星座图这个数字通信的核心概念。保证你听完就能懂它的原理、用法和考点。第一部分:星座图是什么?—— “信号站的灯光密码本”想象海上有两座灯塔,它们要用灯光向船只发送数字信息&am…

设置推荐奖励机制实现老带新裂变增长

设置推荐奖励机制实现老带新裂变增长 在开发者社区和AI技术平台的运营中,一个常见的困境是:即便产品功能强大、环境配置完善,初期用户增长依然缓慢。冷启动阶段缺乏传播动力,种子用户虽认可产品价值,却缺少主动分享的理…

自学Python做游戏有哪些注意事项

你自学Python做游戏,核心是避开坑、聚焦高效入门和能力积累,以下是关键注意事项:明确开发定位,不好高骛远 始终牢记Python不适合3A大作、大型3D游戏和高帧率商用游戏,优先聚焦2D小游戏(贪吃蛇、打飞机、扫雷)、…

怎么创建一个测试用例?

第1步:分析需求与测试目标 这是最关键的一步,决定了测试的覆盖范围和方向。 彻底理解需求:仔细阅读产品需求文档、用户故事、设计稿等,与产品经理、开发人员充分沟通,明确功能的预期行为。 识别测试范围:确定要测…