Proxmox VE(PVE)提供了一个基于 Web UI(管理界面)的虚拟化管理平台,用户可以通过浏览器管理 虚拟机(VM)、容器(LXC)、存储、网络、备份、用户权限等。
一、PVE Web 界面功能详解
PVE 的 Web 管理界面分为 左侧导航栏(资源树) 和 右侧管理面板,主要包括以下核心功能:
1. 数据中心(Datacenter)
位置: 界面左侧最顶层的节点
用途: 适用于 集群管理、全局配置
🔹 主要功能
| 子功能 | 作用 | 
|---|---|
| 集群(Cluster) | 管理 PVE 集群节点(多个服务器组成的 PVE 集群) | 
| 存储(Storage) | 添加/管理存储池(ZFS、Ceph、NFS、iSCSI 等) | 
| 备份(Backup) | 配置 自动备份任务,支持快照、增量备份 | 
| 用户(Users)& 权限(Permissions) | 创建/管理 用户、权限、API 访问 | 
| 防火墙(Firewall) | 配置集群级别的 防火墙规则 | 
| 订阅(Subscription) | 显示企业订阅信息(无订阅会提示警告) | 
✅ 适用场景:
-  
适用于 多台 PVE 服务器组成的集群管理
 -  
统一管理 存储、权限、备份策略
 
2. 节点(Node)
位置: 数据中心下的每台服务器节点
用途: 管理单个 PVE 服务器的资源(CPU、内存、存储、网络等)
🔹 主要功能
| 子功能 | 作用 | 
|---|---|
| 摘要(Summary) | 显示 CPU、内存、磁盘、网络 IO 统计 | 
| 系统(System) | 管理 服务器 hostname、时区、更新 | 
| 网络(Network) | 配置 桥接网络、VLAN、绑定(bonding) | 
| 存储(Disks & Storage) | 管理服务器本地 磁盘、ZFS 存储、RAID | 
| 任务(Tasks) | 监控任务状态(备份、迁移、启动等) | 
| 日志(Logs) | 查看系统日志,排查问题 | 
| Shell 终端 | 远程 SSH 登录管理服务器 | 
✅ 适用场景:
-  
管理单台 PVE 服务器(虚拟化资源、存储、网络)
 -  
网络配置(VLAN、桥接、Bonding)
 
3. 虚拟机(VM)
位置: 选中某个节点后,点击“虚拟机”
用途: 创建、管理 KVM 虚拟机(VM)
🔹 主要功能
| 子功能 | 作用 | 
|---|---|
| 概览(Summary) | 显示 VM CPU、内存、磁盘使用情况 | 
| 硬件(Hardware) | 配置 CPU、内存、磁盘、网卡、PCI 直通(Passthrough) | 
| 选项(Options) | 设置 VM 自动启动、引导顺序、QEMU Guest Agent | 
| 快照(Snapshots) | 创建 VM 快照(Snapshot),支持回滚 | 
| 备份(Backup) | 手动备份 VM,或配置 定期自动备份 | 
| 云初始化(Cloud-Init) | 用于 云环境 VM 自动初始化 | 
| 控制台(Console) | 远程连接 VM(VNC、Spice) | 
| 日志(Logs) | 查看 VM 运行日志 | 
✅ 适用场景:
-  
创建 Windows/Linux KVM 虚拟机
 -  
PCI 直通(GPU、网卡),用于 AI、NAS、网络优化
 -  
通过 快照/备份 保护 VM 数据安全
 
4. 容器(LXC)
位置: 选中某个节点后,点击“容器”
用途: 管理轻量级 LXC 容器(比 VM 更轻量)
🔹 主要功能
| 子功能 | 作用 | 
|---|---|
| 概览(Summary) | 显示 LXC 容器 CPU、内存、磁盘 | 
| 硬件(Hardware) | 调整 CPU、内存、磁盘、挂载点 | 
| 备份(Backup) | 备份/恢复 LXC 容器 | 
| 控制台(Console) | 远程访问 LXC 容器 | 
| 日志(Logs) | 查看 LXC 容器运行日志 | 
✅ 适用场景:
-  
Web 服务器、数据库(比 VM 轻量,占用资源更少)
 -  
轻量级应用(如 Home Assistant、NAS 服务等)
 
5. 存储(Storage)
位置: 数据中心 → 存储
用途: 管理 PVE 存储资源(本地磁盘、NFS、Ceph、ZFS)
🔹 主要存储类型
| 存储类型 | 用途 | 
|---|---|
| 本地磁盘(Directory) | 存放 VM 磁盘、ISO、备份 | 
| ZFS(RAID + 存储池) | 高性能存储,可做 快照、复制 | 
| Ceph(分布式存储) | 适用于 PVE 集群高可用存储 | 
| NFS / iSCSI / CIFS | 远程存储,适合 NAS 设备 | 
✅ 适用场景:
-  
小型环境:ZFS 本地存储(快照 + RAID)
 -  
大规模集群:Ceph 分布式存储
 
6. 备份(Backup)
位置: 数据中心 → 备份
用途: 定期自动备份 VM/LXC,防止数据丢失
✅ 支持功能:
-  
快照备份(Snapshot)
 -  
增量备份(Proxmox Backup Server,节省存储空间)
 -  
定时任务(自动备份)
 -  
远程存储(NFS、PBS 服务器)
 
✅ 适用场景:
-  
企业级数据保护(备份重要 VM,防止数据丢失)
 -  
异地备份(PBS + 远程存储)
 
7. 用户 & 权限(User & Permissions)
位置: 数据中心 → 用户/权限
用途: 管理用户角色和权限
✅ 支持功能:
-  
多用户管理(管理员、运维、只读用户)
 -  
API 访问控制(Proxmox API 权限)
 -  
LDAP/Active Directory 认证
 
✅ 适用场景:
-  
多管理员管理 PVE(限制不同用户权限)
 -  
企业 IT 认证系统(LDAP 集成)
 
总结
PVE Web UI 提供了完整的虚拟化管理能力,集成 VM、LXC、存储、备份、权限等功能,适用于企业私有云、IT 运维管理、个人服务器等场景。 🚀
二、PVE网络介
在 Proxmox VE(PVE) 中,网络管理是核心组件之一,涉及 虚拟机(VM)、容器(LXC)、存储、集群、高可用(HA)等,正确的网络配置可以提升性能、可用性和安全性。
1. PVE 网络管理概述
PVE 默认使用 Linux 网络栈,支持 Linux Bridge(桥接)、VLAN、Bonding(链路聚合)、SDN(软件定义网络)等,可以灵活配置不同的网络方案。
🛠 核心网络概念:
| 组件 | 作用 | 
|---|---|
| Linux Bridge(桥接) | 让 VM/LXC 通过物理网卡访问网络(类似交换机) | 
| VLAN(虚拟局域网) | 逻辑隔离 VM/LXC 网络,提高安全性 | 
| Bonding(链路聚合) | 绑定多个物理网口,提高带宽和冗余 | 
| SDN(软件定义网络) | 适用于大规模集群,支持 VXLAN、BGP 等 | 
| NAT(网络地址转换) | 适用于无公网 IP 的 PVE 服务器 | 
2. PVE 网络配置界面
位置: PVE Web 界面 → 选择节点 → 网络(Network)
在 网络(Network) 选项卡中,你可以看到:
-  
物理网卡(eth0、eth1、eno1等)
 -  
桥接网络(vmbr0, vmbr1等)
 -  
VLAN 设备(vlan10, vlan20等)
 -  
Bonding(bond0, bond1等)
 
3. 常见网络配置方案
3.1 桥接网络(Bridge)
✅ 适用场景:
-  
单台 PVE 或 小型集群,让 VM/LXC 直接访问物理网络
 -  
适用于家庭服务器、企业私有云
 
📌 配置步骤(Web UI)
-  
创建 Linux Bridge(桥接)
-  
节点 → 网络 → 创建 → Linux Bridge
 -  
名称:
vmbr0 -  
网卡: 选择
eth0(或者其他物理网卡) -  
IP 地址: 配置 PVE 管理 IP(如
192.168.1.100/24) -  
网关: 填写路由器 IP(如
192.168.1.1) 
 -  
 -  
绑定虚拟机
-  
创建 VM/LXC 时,网卡选择
vmbr0(相当于 VM 连接到交换机) 
 -  
 
✅ 示例 interfaces 配置文件
auto lo
iface lo inet loopback# 物理网卡(无 IP)
auto eth0
iface eth0 inet manual# 桥接网络(给 PVE & VM 用)
auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports eth0bridge_stp offbridge_fd 0
 
📌 效果:
-  
PVE 本机 IP:
192.168.1.100 -  
VM/LXC 直接访问路由器,获取 IP(DHCP 或静态分配)
 
3.2 VLAN(虚拟局域网)
✅ 适用场景
-  
隔离不同 VM/LXC 网络
 -  
企业级环境(提高安全性)
 
📌 配置步骤
-  
启用 VLAN
-  
节点 → 网络 → 编辑 vmbr0
 -  
VLAN 选项:开启 VLAN 感知(VLAN Aware)
 
 -  
 -  
创建 VM/LXC 并分配 VLAN
-  
VM 网卡 → 高级 → VLAN Tag(如 10)
 
 -  
 
✅ 示例 interfaces 配置
auto eth0
iface eth0 inet manualauto vmbr0
iface vmbr0 inet manualbridge_ports eth0bridge_stp offbridge_fd 0bridge_vlan_aware yes
 
📌 效果:
-  
VM 1(VLAN 10) → 只能访问 VLAN 10 的设备
 -  
VM 2(VLAN 20) → 只能访问 VLAN 20 的设备
 -  
PVE 本机 仍能访问所有 VLAN
 
3.3 Bonding(链路聚合)
✅ 适用场景
-  
提高带宽 & 负载均衡
 -  
高可用(防止单网口故障)
 
📌 配置步骤
-  
创建 Bonding
-  
节点 → 网络 → 创建 → Bond
 -  
模式:LACP(802.3ad)
 -  
绑定网卡:eth0 + eth1
 
 -  
 -  
创建桥接并连接 Bond
-  
创建
vmbr0 -  
桥接端口:
bond0 
 -  
 
✅ 示例 interfaces 配置
auto bond0
iface bond0 inet manualbond-slaves eth0 eth1bond-mode 802.3adbond-miimon 100auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports bond0bridge_stp offbridge_fd 0
 
📌 效果:
-  
PVE 服务器 & VM 使用双网口(LACP 绑定)
 -  
提升带宽 & 可靠性
 
3.4 NAT(适用于无公网 IP)
✅ 适用场景
-  
PVE 服务器无公网 IP
 -  
VM/LXC 需要访问外网
 
📌 配置步骤
-  
创建内部网桥(vmbr1)
 -  
启用 NAT
-  
iptables配置转发规则 
 -  
 
✅ 示例 interfaces 配置
auto vmbr1
iface vmbr1 inet staticaddress 192.168.100.1/24bridge_ports nonebridge_stp offbridge_fd 0post-up echo 1 > /proc/sys/net/ipv4/ip_forwardpost-up iptables -t nat -A POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADEpost-down iptables -t nat -D POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADE
 
📌 效果:
-  
VM(192.168.100.x)可通过 NAT 访问外网
 -  
但外网无法访问 VM(需要端口转发)
 
4. 总结
| 方案 | 适用场景 | 特点 | 
|---|---|---|
| 桥接(Bridge) | 小型环境 | VM 直连物理网络 | 
| VLAN | 多部门隔离 | VM 只能访问特定 VLAN | 
| Bonding | 高可用 & 负载均衡 | 提高带宽,防止单点故障 | 
| NAT | 无公网 IP | VM 通过 PVE 出网 | 
📌 最佳实践建议
-  
小型环境(家庭/小企业) → 桥接 + VLAN
 -  
企业私有云 → VLAN + Bonding
 -  
无公网 IP 服务器 → NAT
 
这样,你可以根据 需求 选择合适的 PVE 网络配置 🚀
三、PVE网络管理
PVE(Proxmox Virtual Environment) 没有像 VMware vSwitch(虚拟交换机) 这样的概念,而是直接使用 Linux Bridge(桥接网络) 作为虚拟机和物理网络之间的桥梁。
| 对比项 | PVE(Proxmox VE) | VMware ESXi | 
|---|---|---|
| 虚拟交换机 | ❌ 无独立 vSwitch,使用 Linux Bridge | ✅ 具有 vSwitch(标准交换机、分布式交换机) | 
| 默认网络模式 | Linux Bridge(vmbr0) | vSwitch(vSwitch0) | 
| VLAN 支持 | ✅ 支持 VLAN Aware | ✅ 支持 VLAN 端口组 | 
| 链路聚合 | ✅ Bonding(Linux Bonding) | ✅ LAG / LACP | 
| SDN 支持 | ✅ 通过 Proxmox SDN 插件 | ✅ vDS(分布式交换机) | 
| NAT 支持 | ✅ 通过 Linux iptables | ❌ 需要 NSX 或物理路由 | 
| 防火墙 | ✅ Linux iptables | ✅ VMware NSX | 
1. PVE 使用 Linux Bridge(桥接网络)
在 VMware ESXi 里,每个 ESXi 主机都会有一个 vSwitch(标准交换机或分布式交换机),然后你可以在 vSwitch 上创建 端口组(Port Group) 并分配 VLAN。
但在 PVE 中,它不需要 vSwitch,而是使用 Linux 自带的 桥接(Bridge) 机制。Linux Bridge 直接模拟一个二层交换机,所有连接到它的虚拟机就像插入了物理交换机一样。
✅ 默认情况下,PVE 创建的 vmbr0 就是一个虚拟交换机
-  
物理网卡(eth0) 连接到 vmbr0
 -  
VM/LXC 的网卡(vnet0、vnet1...) 连接到 vmbr0
 -  
vmbr0 负责数据转发,相当于 vSwitch
 
📌 示例:PVE vmbr0 配置
auto eth0
iface eth0 inet manualauto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports eth0bridge_stp offbridge_fd 0
 
📌 效果:
-  
vmbr0相当于 VMware vSwitch -  
所有 VM 连接
vmbr0,就能访问物理网络 
2. VLAN 管理(类似 VMware 端口组)
在 VMware vSwitch 里,我们可以创建 端口组(Port Group),并分配不同的 VLAN ID。
在 PVE 里,我们可以直接在 Linux Bridge(vmbr0)上启用 VLAN 感知(VLAN Aware),然后给 VM 绑定 VLAN。
✅ 在 PVE Web UI 里启用 VLAN
-  
进入 PVE Web UI
-  
节点 → 网络 → 编辑 vmbr0
 -  
勾选 VLAN Aware(支持 VLAN 感知)
 
 -  
 -  
创建 VM 并绑定 VLAN
-  
VM → 网络设备 → VLAN Tag
 -  
填写 VLAN ID(如 10)
 
 -  
 
✅ 示例 VLAN 配置(手动 interfaces 文件)
auto vmbr0
iface vmbr0 inet manualbridge_ports eth0bridge_vlan_aware yes  # 启用 VLAN 感知
 
📌 效果:
-  
VM1(VLAN 10) → 只能访问 VLAN 10
 -  
VM2(VLAN 20) → 只能访问 VLAN 20
 -  
PVE 本机仍然可以访问所有 VLAN
 
3. Bonding(等效 VMware LAG / LACP)
在 VMware 里,我们可以创建 LAG(链路聚合组) 或者 LACP(动态链路聚合),提升带宽和可靠性。
在 PVE 里,我们使用 Linux Bonding 实现相同的效果。
✅ PVE 绑定两个网卡(eth0 + eth1)
auto bond0
iface bond0 inet manualbond-slaves eth0 eth1bond-mode 802.3ad  # LACP 模式bond-miimon 100auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports bond0
 
📌 效果:
-  
双网卡绑定,实现负载均衡
 -  
高可用(一个网卡故障,仍然能访问网络)
 
4. SDN(等效 VMware NSX)
VMware 有 NSX-T(软件定义网络),用于 VXLAN、BGP 路由等。
PVE 也支持 SDN(软件定义网络),但需要 安装 Proxmox SDN 插件。
✅ PVE SDN 支持的功能
| 功能 | VMware NSX | Proxmox SDN | 
|---|---|---|
| VXLAN | ✅ | ✅ | 
| BGP 动态路由 | ✅ | ✅ | 
| 防火墙 | ✅ | ✅(iptables) | 
| NAT / DNAT | ✅ | ✅ | 
📌 适用于大规模集群,适合云计算平台
5. 总结
| 功能 | PVE(Proxmox VE) | VMware ESXi | 
|---|---|---|
| 虚拟交换机 | ❌ 无 vSwitch,使用 Linux Bridge | ✅ vSwitch(标准/分布式) | 
| VLAN 支持 | ✅ VLAN Aware | ✅ VLAN Port Group | 
| 链路聚合 | ✅ Bonding | ✅ LACP / LAG | 
| NAT 支持 | ✅ iptables | ❌ 需要 NSX | 
| SDN | ✅ Proxmox SDN | ✅ NSX-T | 
| 防火墙 | ✅ iptables | ✅ NSX 分布式防火墙 | 
✅ 适用场景建议
-  
小型企业 / 个人服务器 → PVE 桥接网络(Linux Bridge)
 -  
企业环境(多 VLAN) → VLAN + Bonding
 -  
大型 SDN / 云计算 → Proxmox SDN(VXLAN、BGP)
 
 🔹 总结一句话:
 PVE 没有 VMware vSwitch,但 Linux Bridge + VLAN + Bonding 足以满足大多数需求,并且 更加灵活和开源 🚀
四、PVE(Proxmox Virtual Environment)的 HA(高可用)功能
Proxmox VE(PVE) 提供了 HA(High Availability,高可用性) 功能,使虚拟机(VM)和容器(LXC)能够在物理节点故障时自动迁移,保持业务连续性。
1. PVE HA 的核心概念
PVE HA 主要基于 集群(Cluster) 和 HA 资源管理器(HA Manager),确保 VM 和容器在主机宕机后能够自动恢复。
| 组件 | 作用 | 
|---|---|
| Proxmox Cluster(集群) | 由多个 PVE 节点组成,支持 HA 管理 | 
| HA Manager(HA 管理器) | 负责监测节点健康状态,执行 HA 任务 | 
| Corosync | 负责集群通信,确保 HA 管理同步 | 
| Fence(隔离机制) | 防止 "脑裂" 现象,确保宕机节点不会误操作 | 
| Live Migration(实时迁移) | 在主机健康状态下手动迁移 VM | 
📌 HA 的核心目标:
-  
自动故障切换:如果某个节点故障,VM/容器会自动启动到其他健康节点
 -  
高可用性:最大限度减少宕机时间
 -  
自动恢复:系统自动检测失败节点,并在可用节点上恢复 VM/容器
 
2. HA 工作原理
🟢 正常运行
-  
所有节点正常,VM 运行在各自的 PVE 服务器上。
 -  
Corosync 负责集群内的状态同步,所有节点都知道彼此的状态。
 
🔴 发生故障
-  
某个 PVE 节点宕机(如服务器断电)。
 -  
HA Manager 通过 Corosync 发现该节点丢失心跳。
 -  
Fence(隔离机制)触发,防止脑裂(如果启用了 STONITH)。
 -  
HA Manager 自动将 VM 迁移到其他健康节点 并启动。
 
🟢 故障恢复
-  
故障节点恢复后,VM 仍然运行在迁移后的新节点。
 -  
管理员可以手动迁移 VM 回到原始节点。
 
3. 配置 PVE HA
📌 3.1 创建 PVE 集群
-  
第一台 PVE 服务器:创建集群
 
pvecm create my-cluster
 
- 其他 PVE 服务器:加入集群
 
pvecm add <主节点IP>
 
- 检查集群状态
 
pvecm status
 
示例输出
Cluster information
-------------------
Name: my-cluster
Nodes: 3
Quorum: 2
 
📌 3.2 配置 HA
启用 HA 管理器
systemctl enable --now pve-ha-lrm pve-ha-crm
 
在 Web 界面
-  
进入 Datacenter(数据中心)→ HA
 -  
选择 “HA 资源” 并添加 VM / LXC
 -  
设置 恢复策略(Recovery Policy):
-  
restart(重启 VM) -  
migrate(自动迁移 VM) 
 -  
 
4. HA 资源的恢复策略
| 策略 | 说明 | 
|---|---|
| Disabled(禁用) | 资源不会 HA 保护 | 
| Freeze(冻结) | 保持资源当前状态 | 
| Restart(重启) | VM/容器将在相同节点上自动重启 | 
| Migrate(迁移) | VM/容器将在其他节点上启动 | 
5. 使用 HA 时的最佳实践
✅ 建议至少 3 台 PVE 服务器,确保 集群仲裁(Quorum)
 ✅ 启用 Fencing(隔离机制),防止脑裂(STONITH + IPMI)
 ✅ 使用共享存储(Ceph、NFS、iSCSI),确保 VM 迁移不丢数据
 ✅ 使用 Bonding 提升网络可用性,防止网络单点故障
 ✅ 定期检查 HA 状态:
ha-manager status
 
6. 总结
-  
PVE HA 允许 VM/LXC 在节点故障时自动迁移
 -  
依赖 Corosync 进行集群通信
 -  
需要至少 3 台 PVE 服务器保证 Quorum
 -  
支持 Restart、Migrate 等策略
 -  
配合 Ceph 存储,可实现无缝高可用
 
📌 适用于:
-  
企业生产环境
 -  
私有云 / 数据中心
 -  
关键业务服务(数据库、Web 服务器等)
 
🚀 如果你希望构建企业级 HA 高可用架构,PVE + Ceph 是一个不错的选择!
五、PVE 中的 Ceph 存储:完整指南
Ceph 是一个开源的分布式存储系统,在 Proxmox VE(PVE) 中可用于 高可用共享存储,支持 块存储(RBD)、文件存储(CephFS)和对象存储(RGW)。
📌 适用场景:
-  
高可用存储:无单点故障,数据自动复制
 -  
Proxmox HA(高可用集群):支持 VM 迁移
 -  
分布式存储:自动均衡,扩展性强
 
1. Ceph 的基本概念
| 组件 | 作用 | 
|---|---|
| Monitor(MON) | 维护集群状态、管理元数据 | 
| Manager(MGR) | 提供额外的监控和管理功能 | 
| OSD(Object Storage Daemon) | 负责存储数据,每个硬盘一个 OSD | 
| Metadata Server(MDS) | 仅用于 CephFS 文件存储 | 
| RADOS(Reliable Autonomic Distributed Object Store) | Ceph 的核心存储引擎 | 
📌 Ceph 主要有三种存储类型:
-  
RBD(RADOS Block Device) → VM 磁盘存储(PVE 推荐)
 -  
CephFS(Ceph Filesystem) → 文件共享存储
 -  
RGW(RADOS Gateway) → S3 兼容对象存储
 
2. PVE 中部署 Ceph
📌 2.1 硬件要求
-  
至少 3 个 PVE 节点(建议 5 个)
 -  
每个节点至少 1 块 SSD/HDD(用于 OSD)
 -  
高性能网络(10Gbps 推荐)
 -  
独立 Ceph 网络(Public 和 Cluster Network)
 
📌 2.2 安装 Ceph
📍 在 PVE Web 界面
-  
进入“Datacenter” → “Ceph”
 -  
点击 “Install Ceph”,选择 版本
 -  
等待安装完成
 
📍 或者在 CLI 手动安装
pveceph install
 
3. 配置 Ceph
📌 3.1 创建 Monitor(MON)
📍 添加 MON 节点
pveceph mon create
 
📍 检查 MON 状态
ceph mon dump
 
📌 3.2 创建 Manager(MGR)
📍 添加 MGR
pveceph mgr create
 
📍 检查 MGR 运行状态
ceph mgr dump
 
📌 3.3 添加 OSD
📍 在 PVE Web 界面
-  
进入“Ceph” → “OSD”
 -  
选择 磁盘,点击 创建 OSD
 
📍 或者使用 CLI
pveceph osd create /dev/sdX
 
📍 检查 OSD 状态
ceph osd tree
 
📌 3.4 配置 Ceph 网络
📍 编辑 /etc/pve/ceph.conf
[global]
public_network = 192.168.10.0/24
cluster_network = 192.168.20.0/24
 
📍 重启 Ceph
systemctl restart ceph*
 
4. 在 PVE 中使用 Ceph 存储
📌 4.1 配置 RBD 存储
📍 在 Web UI
-  
进入“Datacenter” → “Storage”
 -  
添加存储类型 → Ceph RBD
 -  
填写 Pool 名称(如
rbd) 
📍 或者 CLI 配置
pvesm add rbd ceph-rbd --pool rbd --content images
 
✅ 创建后,VM 磁盘就可以直接存储到 Ceph 了
📌 4.2 配置 CephFS 共享存储
📍 创建 CephFS
ceph fs new cephfs cephfs_metadata cephfs_data
 
📍 在 PVE 添加存储
pvesm add cephfs cephfs --monhost 192.168.10.1
 
✅ CephFS 可用于 VM 备份 / 共享数据
5. 监控和优化
📍 查看 Ceph 状态
ceph -s
 
📍 查看存储使用情况
ceph df
 
📍 优化 PG(Placement Groups)
ceph osd pool set rbd pg_num 128
ceph osd pool set rbd pgp_num 128
 
6. 总结
✅ Ceph 适用于 高可用存储,支持 VM 迁移
 ✅ Ceph RBD(块存储) 是 PVE 推荐的存储方式
 ✅ CephFS 适用于文件共享,如 VM 备份
 ✅ 需要至少 3 台 PVE 服务器,建议 5 台以上
 ✅ 建议使用 10Gbps 网络,提升性能
🚀 如果你想构建高可用 PVE 集群,Ceph 是最佳选择!