精华内容
下载资源
问答
  • Proxmox备份脚本 简单的shell脚本来备份proxmox主机,并最终将内容同步到其他proxmox主机。您可以创建新的容器或kvm并忘记备份它。 备份脚本将为您完成 将代码放入/ opt / pvebackup $ git clone / opt / pvebackup...
  • 这是存储库的克隆,其中有小的更改用于编译为armbian64。 使用debian buster arm64作为基本映像。 安装构建要点 apt-get -y install \ build-essential llvm clang git-core \ lintian pkg-config quilt patch ...
  • PROXMOX VE备份还原

    千次阅读 2019-11-12 16:42:02
    PROXMOX VE备份还原 内容 备份模式 备份文件名 恢复 组态 挂钩脚本 文件排除 例子 备份是任何明智的IT部署所必需的,并且Proxmox VE利用每种存储和每种来宾系统类型的功能提供了一个完全集成的解决方案。这...

    PROXMOX VE备份还原

    内容

    备份模式

    备份文件名

    恢复

    组态

    挂钩脚本

    文件排除

    例子

    备份是任何明智的IT部署所必需的,并且Proxmox VE利用每种存储和每种来宾系统类型的功能提供了一个完全集成的解决方案。这使系统管理员可以通过mode选项在备份的一致性和来宾系统的停机时间之间进行微调。

    Proxmox VE备份始终是完整备份-包含VM / CT配置和所有数据。可以通过GUI或通过vzdump命令行工具启动备份。

    备份存储

    必须先定义备份存储,然后才能运行备份。有关如何添加存储,请参考存储文档。备份存储必须是文件级存储,因为备份存储为常规文件。在大多数情况下,使用NFS服务器是存储备份的好方法。您可以稍后将这些备份保存到磁带机上,以进行异地归档。

    预定备份

    可以安排备份作业,以便它们在特定的日期和时间针对可选节点和来宾系统自动执行。计划的备份的配置在GUI的数据中心级别完成,这将在/etc/cron.d/vzdump中生成一个cron条目。

    备份模式

    有几种提供一致性的方法(选项模式),具体取决于来宾类型。

    虚拟机的备份模式:

    停止模式

    此模式提供了最高的备份一致性,但以VM操作中的停机时间短为代价。它通过有序关闭VM来工作,然后运行后台Qemu进程来备份VM数据。启动备份后,如果VM先前正在运行,它将进入完全操作模式。使用实时备份功能可确保一致性。

    暂停模式

    提供此模式是出于兼容性原因,在调用快照模式之前会挂起VM 。由于挂起VM会导致更长的停机时间,并不一定会改善数据一致性,因此建议使用快照模式。

    快照模式

    此模式以最小的不稳定风险为代价,提供了最低的操作停机时间。它通过执行Proxmox VE实时备份来工作,该备份在VM运行时在其中复制数据块。如果启用了来宾代理(代理:1)并正在运行,它将调用 guest-fsfreeze-freeze和guest-fsfreeze-thaw来提高一致性。

    可在此处在线找到QemuServer的Proxmox VE实时备份的技术概述 。

     

    Proxmox VE实时备份可在任何存储类型上提供类似于快照的语义。不需要基础存储支持快照。另外请注意,由于备份是通过后台Qemu进程完成的,因此,在Qemu读取VM磁盘时,停止的VM会在短时间内显示为正在运行。但是,VM本身不会启动,仅会读取其磁盘。

    容器的备份模式:

    停止模式

    在备份期间停止容器。这可能导致非常长的停机时间。

    暂停模式

    此模式使用rsync将容器数据复制到一个临时位置(请参阅选项--tmpdir)。然后容器被挂起,第二个rsync复制更改的文件。之后,容器将再次启动(恢复)。这样可以减少停机时间,但需要更多空间来保存容器副本。

    当容器位于本地文件系统上并且备份的目标存储是NFS / CIFS服务器时,您也应将--tmpdir设置为也位于本地文件系统上,因为这将使性能提高很多倍。如果要在挂起模式下使用ACL备份本地容器(如果备份存储是NFS服务器),则还需要使用本地tmpdir。

    快照模式

    此模式使用基础存储的快照功能。首先,容器将被挂起以确保数据一致性。将创建容器卷的临时快照,并将快照内容存档在tar文件中。最后,临时快照再次被删除。

     

    快照模式要求所有备份卷都位于支持快照的存储中。使用 backup = no挂载点选项可以将单个卷排除在备份之外(因此也可以排除此需求)。

     

     

    默认情况下,备份中不包括除根磁盘安装点之外的其他安装点。对于卷安装点,您可以设置“ 备份”选项以在备份中包括安装点。设备和绑定安装永远不会备份,因为它们的内容在Proxmox VE存储库之外进行管理。

    备份文件名

    较新版本的vzdump将来宾类型和备份时间编码为文件名,例如

    vzdump-lxc-105-2009_10_09-11_04_43.tar

    这样,可以将多个备份存储在同一目录中。参数maxfiles可用于指定要保留的最大备份数。

    恢复

    可以通过Proxmox VE Web GUI或以下CLI工具还原备份存档:

    pct恢复

    容器还原实用程序

    qmrestore

    虚拟机还原实用程序

    有关详细信息,请参见相应的手册页。

    带宽限制

    还原一个或多个大备份可能需要大量资源,尤其是用于从备份存储读取和写入目标存储的存储带宽。这可能会对其他虚拟访客产生负面影响,因为对存储的访问可能会变得很拥挤。

    为避免这种情况,您可以为备份作业设置带宽限制。Proxmox VE实现了两种还原和存档限制:

    每个还原限制:表示从备份存档读取的最大带宽量

    每个存储的写限制:表示用于写入特定存储的最大带宽量

    读取限制间接影响写入限制,因为我们写的内容不能超过读取的内容。较小的每个作业限制将覆盖较大的每个存储限制。如果您对受影响的存储具有“ Data.Allocate”权限,则较大的按作业限制将仅覆盖按存储的限制。

    您可以使用restore CLI命令中的'--bwlimit <integer>`选项来设置特定于还原作业的带宽限制。Kibit / s被用作限制的单位,这意味着通过'10240'会将备份的读取速度限制为10 MiB / s,从而确保其余可能的存储带宽可用于已在运行的虚拟guest虚拟机,并且因此备份不会影响其操作。

     

    您可以对bwlimit参数使用'0' 来禁用特定还原作业的所有限制。如果您需要尽快还原非常重要的虚拟客户机,这将很有帮助。(需要“ Data.Allocate”存储权限)

    大多数情况下,您的存储的一般可用带宽会随着时间的推移保持不变,因此我们实现了为每个已配置的存储设置默认带宽限制的可能性,这可以通过以下方式完成:

    #pvesm set STORAGEID --bwlimit KIBs

    组态

    全局配置存储在/etc/vzdump.conf中。该文件使用简单的冒号分隔的键/值格式。每行具有以下格式:

    选项:价值

    文件中的空白行将被忽略,而以# 字符开头的行将被视为注释,也将被忽略。该文件中的值用作默认值,并且可以在命令行上覆盖。

    我们目前支持以下选项:

    bwlimit: <整数>(0-N)(默认= 0)

    限制I / O带宽(千字节每秒)。

    压缩: <0 | 1 | gzip | lzo>(默认= 0)

    压缩转储文件。

    dumpdir: <字符串>

    将结果文件存储到指定目录。

    exclude-path: <字符串>

    排除某些文件/目录(Shell Glob)。

    ionice: <整数>(0-8 )(默认= 7)

    设置CFQ ionice优先级。

    lockwait: <整数>(0-N)(默认= 180)

    等待全局锁定的最长时间(分钟)。

    邮件通知: <总是| 失败>(默认= 始终)

    指定何时发送电子邮件

    mailto: <字符串>

    以逗号分隔的应接收电子邮件通知的电子邮件地址列表。

    maxfiles: <整数>(1-N)(默认= 1)

    每个来宾系统的最大备份文件数。

    模式: <快照| 停止| 暂停>(默认= 快照)

    备份模式。

    pigz: <整数>(默认= 0)

    当N> 0时,使用Pigz代替gzip。N = 1使用一半的内核,N> 1使用N作为线程数。

    池: <字符串>

    备份指定池中包括的所有已知来宾系统。

    删除: <boolean>(默认= 1)

    如果备份文件超过maxfiles个,则删除旧的备份文件。

    脚本: <string>

    使用指定的挂钩脚本。

    stdexcludes: <boolean>(默认= 1)

    排除临时文件和日志。

    stopwait: <整数>(0-N)(默认= 10)

    等待访客系统停止的最长时间(分钟)。

    存储: <string>

    将结果文件存储到此存储中。

    tmpdir: <字符串>

    将临时文件存储到指定目录。

    vzdump.conf配置示例

    tmpdir:/ mnt / fast_local_disk

    储存空间:my_backup_storage

    模式:快照

    bwlimit:10000

    挂钩脚本

    您可以使用选项--script指定挂钩脚本。在备份过程的各个阶段调用此脚本,并相应设置参数。您可以在文档目录(vzdump-hook-script.pl)中找到示例。

    文件排除

     

    此选项仅适用于容器备份。

    vzdump默认情况下跳过以下文件(通过选项 --stdexcludes 0禁用 )

    / tmp /?*

    / var / tmp /?*

    / var / run /?* pid

    您还可以手动指定(附加)排除路径,例如:

    #vzdump 777 --exclude-path / tmp / --exclude-path'/ var / foo *'

    (仅不包括tmp目录)

    配置文件也存储在备份存档中(在./etc/vzdump/中),并且将被正确还原。

    例子

    只需转储客户机777(没有快照),只需将客户机专用区域和配置文件存档到默认转储目录(通常为 / var / lib / vz / dump /)。

    #vzdump 777

    使用rsync和suspend / resume创建快照(最小停机时间)。

    #vzdump 777-模式挂起

    备份所有来宾系统,并将通知邮件发送到root和admin。

    #vzdump --all --mode挂起--mailto root --mailto admin

    使用快照模式(无停机时间)和非默认转储目录。

    #vzdump 777 --dumpdir / mnt / backup --mode快照

    备份多个来宾(有选择地)

    #vzdump 101102103 --mailto root

    备份除101和102外的所有访客

    #vzdump-模式暂停-排除101102

    将容器还原到新的CT 600

    #pct恢复600 /mnt/backup/vzdump-lxc-777.tar

    将QemuServer VM还原到VM 601

    #qmrestore /mnt/backup/vzdump-qemu-888.vma 601

    使用管道将现有容器101克隆到具有4GB根文件系统的新容器300

    #vzdump 101 --stdout | pct restore --rootfs 4300-

     

    展开全文
  • Proxmox Backup Server(pbs)是与pve配套的备份解决方案,用于备份和恢复虚拟机、容器和物理主机。通过支持增量、完全重复数据删除的备份Proxmox Backup Server(pbs)显着降低了网络负载并节省了宝贵的存储空间...

    1 Proxmox Backup Server(pbs)介绍

    Proxmox Backup Server(pbs)是与pve配套的备份解决方案,用于备份和恢复虚拟机、容器和物理主机。通过支持增量、完全重复数据删除的备份,Proxmox Backup Server(pbs)显着降低了网络负载并节省了宝贵的存储空间。凭借强大的加密和确保数据完整性的方法,确保数据安全。提供web界面,可以极其方便的管理备份文件。

    PVE集群搭建:Proxmox VE+ceph+物理网络超融合生产环境部署案例

    2 环境介绍

    2.1 软件版本

    本次部署采用当前最新版本:Proxmox Backup Server 1.1-1,可根据当时情况选择最新版本。

    2.2 服务器配置

    服务器采用一台利旧服务器

    型号配置数量
    HP ProLiant DL580 G7CPU:Intel® Xeon® CPU E7- 4807 @ 1.87GHz
    内存:16GB
    SSD:800GB 1块
    HDD:1.2TB 3块
    1

    3 软件获取

    访问官网下载ISO镜像文件,根据需要选择版本:
    https://www.proxmox.com/en/downloads/category/iso-images-pbs

    4 磁盘规划

    本案例中采用1块800G SSD作为系统盘,3块 1.2TB HDD作为数据盘使用。

    3块数据盘组成RAID0。

    5 网络规划

    由于备份流量较大,不能备份流量与业务流量放在同一网络中,建议将备份网络与管理网络合并部署或单独规划备份网络。

    5.1 物理网络拓扑

    此处将pbs服务器部署在管理网络vlan 1当中。

    6 pbs安装

    1. 选择第一个,安装”pbs“
    2. 同意协议
    3. 选择系统盘
    4. 配置国家、地区
    5. 配置密码、邮箱
      如果为生产环境务必配置为强口令。邮箱建议配置为真实邮箱
    6. 配置网卡、主机名、IP地址、DNS等信息,配置到第一块网卡
    7. 检查无误后点击安装
    8. 等待安装过程
    9. 安装成功
    10. 安装结束后重启,通过浏览器访问,出现以下页面证明安装成功。
      地址:https://你的IP地址:8007
      用户名:root
      密码:为安装时配置的密码。
      域:选择Linux PAM

    7 更换软件源

    由于自带的软件源速度较慢,此处选择科大源:http://mirrors.ustc.edu.cn
    涉及的软件源有三个,分别为debain、pbs、ceph,需要分别修改下列文件。

    名称source文件路径
    debain/etc/apt/sources.list
    pbs/etc/apt/sources.list.d/pbs-enterprise.list
    • 操作流程:
    1. 通过web管理页面中的shell或ssh登录后台。
    2. 更换debian源:
    vi /etc/apt/sources.list
    
    • 删除默认的源,替换为:
    deb http://mirrors.ustc.edu.cn/debian/ buster main contrib non-free
    # deb-src http://mirrors.ustc.edu.cn/debian/ buster main contrib non-free
    deb http://mirrors.ustc.edu.cn/debian/ buster-updates main contrib non-free
    # deb-src http://mirrors.ustc.edu.cn/debian/ buster-updates main contrib non-free
    deb http://mirrors.ustc.edu.cn/debian-security/ buster/updates main contrib non-free
    # deb-src http://mirrors.ustc.edu.cn/debian-security/ buster/updates main contrib non-free
    
    1. 更换pbs源为非订阅源:
    • 备份默认源:
    mv /etc/apt/sources.list.d/pbs-enterprise.list /root
    
    • 创建pve-no-subscription.list文件:
    vi /etc/apt/sources.list.d/pbs-no-subscription.list
    
    • 增加以下内容:
    deb http://mirrors.ustc.edu.cn/proxmox/debian/pbs buster pbs-no-subscription
    
    1. 更新软件列表
    apt update
    

    8. 更新pvs至最新版本

    根据实际需求决定是否更新为最新版本(建议更新)。

    也可以在shell中输入命令:

    apt update       #更新软件列表
    apt upgrade      #更新软件包
    输入Y确认安装更新。
    

    9 基础配置

    9.1 安装vim

    apt install vim
    

    9.2 配置ntp服务

    1. 配置统一的时钟源
      如果有条件建议在内网部署一台ntp服务器,所有节点与内网ntp同步时钟。
      如果没有内网NTP服务器,可以采用下列NTP服务器。
    阿里云:ntp.aliyun.com
    国家授时中心:ntp.ntsc.ac.cn
    
    1. 将NTP取消注释,填写ntp服务器地址。
    vim /etc/systemd/timesyncd.conf
    


    3. 配置完成后重启时间服务

    systemctl restart systemd-timesyncd
    

    10 pbs网络配置

    1. 打开"配置" - "网络/时间"选项卡。

    2. 编辑enp4s0f0,将其中"IP"、"网关"删除,点击确定。
      网卡名称根据实际情况。

    3. 创建bond0
      本案例bond为主备模式,如需配置LACP模式请参考:PVE集群搭建:Proxmox VE+ceph+物理网络超融合生产环境部署案例
      点击创建Linux Bond。
      名称:bond0
      IPv4:按需
      网关:按需
      slaves:enp4s0f0 enp4s0f1,网卡名称根据实际情况。
      模式:active-backup
      bond-primary:enp4s0f0,网卡名称根据实际情况。
      按以上参数配置,然后点击OK。

    4. 应用配置
      如果感觉配置有问题可以点击还原按钮,还原为配置前状态。
      如果没有问题,点击应用配置使配置生效。
      网络配置不正确可能会导致无法管理节点,应用配置前请确认配置正确,如果出现无法管理的情况需要进入shell手动修改配置。

    11 磁盘初始化(硬件RAID或ZFS)

    两种方式二选一即可,如果服务器有RAID卡,就采用硬件RAID,如没有硬件RAID卡,就采用软件RAID。如下是配置方式,也可以采用自己的方式。

    11.1 硬件RAID与ZFS RAID

    • 常用模式:如果不考虑数据保护推荐采用RAID0,考虑数据保护推荐采用RAIDZ-1(RAID-5)。
    硬件RAIDZFS RAID最少需要硬盘数量
    raid-0raid-01
    raid-1raid-12
    raid-10raid-104
    raid-5raidz-13
    raid-6raidz-24

    11.2 硬件RAID方式

    1. 在服务器RAID卡中配置磁盘,将磁盘按需组成RAID。
    2. 进入shell,将RAID磁盘格式化后,挂载到服务器目录下(如:/data)。
    #假设RAID磁盘:sdk,挂载点:/data,文件系统:ext4
    #创建挂载目录:
    mkdir /data
    #格式化磁盘:
    mkfs.ext4 /dev/sdk
    #挂载磁盘:
    mount /dev/sdk /data/
    #配置自动挂载:
    vim /etc/fstab
    #在/etc/fstab文件最后添加以下内容:
    /dev/sdk	/data	ext4	defaults	0	0
    
    1. 添加数据存储时选择相应挂载路径。

    11.3 ZFS方式(软RAID)

    • 适用于没有硬件RAID卡的情况。
    • 可以使用web页面或shell命令创建,注意:raid0只能用shell创建。
    • 注意:创建zfs时pool名称必须是字母开头,否则会创建失败。
    11.3.1 web创建

    按需选择RAID级别。

    11.3.2 shell创建
    #<pool>字段:替换为pool名称,<device*>:替换为成员磁盘的路径。
    #raid-0:条带,最少需要一块硬盘。
    zpool create -f -o ashift=12 <pool> <device1> <device2>
    #raid-1:镜像,最少需要两块硬盘。
    zpool create -f -o ashift=12 <pool> mirror <device1> <device2>
    #raid-10:先镜像再条带,最少需要四块硬盘。
    zpool create -f -o ashift=12 <pool> mirror <device1> <device2> mirror <device3> <device4>
    #raidz-1:类似RAID5,最少需要三块硬盘。
    zpool create -f -o ashift=12 <pool> raidz1 <device1> <device2> <device3>
    #raidz-2:类似RAID6,最少需要四块硬盘。
    zpool create -f -o ashift=12 <pool> raidz2 <device1> <device2> <device3> <device4>
    

    11.4 添加数据存储

    zfs配置成功后,会自动添加数据存储,看到数据存储下出现刚才创建的zfs池,说明配置成功。

    12 pve与pbs对接配置

    1. 在pbs服务器shell中输入以下命令,复制“指纹”字段。
    proxmox-backup-manager cert info
    


    2. 在pve服务器以下位置点击添加,选择“Proxmox Backup Server”。

    1. 根据实际情况填写参数。
      ID:服务器名称,按需填写。
      服务器:填写pbs服务器IP地址。
      用户名:填写root@pam
      密码:按需
      Datastore:填写pbs中数据存储的名称。
      指纹:填写第一步中复制的指纹。

    13 备份策略配置

    1. 在pve服务器以下位置点击添加。
    2. 根据实际情况填写参数。
      存储:选择第12章添加的pbs服务器。
      邮件、通知:按需
      备份开始时间:按需
      最下方选择需要备份的虚拟机即可。

    14 ”精简/GC“策略配置

    通过“精简/GC”配置,可以配置备份数据的保留时间,以及定期进行垃圾回收和精简,提高磁盘利用率。
    下图配置的含义是:每周六凌晨5点进行垃圾回收,每周日5点进行精简,备份数据保留62天。

    ”精简/GC“模拟工具:使用这个工具可以直观看到策略的实际效果。
    https://你的pbs服务器IP:8007/docs/prune-simulator/index.html

    15 pbs日常维护

    15.1 pbs日常维护

    在数据存储“内容”选项卡中可以对备份文件进行验证、更改所有者、精简、删除等操作。

    16 安全加固

    16.1 配置公钥登录

    1. 生成密钥对
      以xshell为例
    • 生成密钥

    • 设置名称及密码
      设置密码为可选项,为保证密钥安全,建议设置。

    1. 将公钥复制至服务器"/root/.ssh/authorized_keys"文件中,选择"SSH2 - OpenSSH"格式。
    vim /root/.ssh/authorized_keys
    
    1. 禁止ssh使用密码登录,禁止前先验证一下公钥方式能否登录。
    #编辑sshd配置文件
    vim /etc/ssh/sshd_config
    #将下列配置添加到最后一行
    PasswordAuthentication no
    #重启sshd服务
    systemctl restart sshd
    
    展开全文
  • 为了保险起见,proxmox外挂共享存储,夜间对所有的虚拟机进行自动备份备份是用的一台4U服务器,考虑到容量与成本,用了一台旧的4U服务器,插了好多慢速的sata盘,有效容量达超过35TB。项目上线后,前半年运行都...

    问题描述

    某项目由两套proxmox组成,一套运行所有的应用程序,一台运行mysql数据库。为了保险起见,proxmox外挂共享存储,夜间对所有的虚拟机进行自动备份。
    在这里插入图片描述
    备份是用的一台4U服务器,考虑到容量与成本,用了一台旧的4U服务器,插了好多慢速的sata盘,有效容量达超过35TB。项目上线后,前半年运行都还很正常,随着业务的增加,数据量跟着增长,特别是数据库的数量及大小。随之而来的是监控系统报警频繁,用户体验变差。而且这个影响面还挺大的。通过排查,发现是数据库虚拟机备份所致。

    设定的备份是从凌晨0:30分开始的,基本不能在白天上班前完成,更糟糕的情况,会延迟到傍晚。数据库的性能IO,引起访问堵塞,造成一系列的连锁反应,运维工作的压力极大。

    临时措施

    为了保证业务的正常,同时也考虑数据安全,征用一台容量小一点的闲置服务器(本来是用于其它目的),其硬盘全部为600G的15000转的sas机械硬盘。将其配置成nfs服务以后,挂接到proxmox数据中心。
    在这里插入图片描述
    设定好以后,夜里安排人轮流跟踪,有报警立即相互通知,还好,未出现堵塞现象。这说明确实是sata性能太差,导致备份速度太慢所致。观察一個星期,如果问题不复现,就出正式的解决方案。这样拿数据说话,也能得到决策人的支持。

    方案设计

    因为不是不差钱那种机构,因此不可能单独买一套sas盘的存储,而弃用现有的低性能存储。只能在现有这个存储上做优化,提高其性能。在另外一個与之无关的项目中,曾经采购过数台阿里云的“高效云盘”来存放计算密集性的应用(java、php、数据库等),用户访问量大时(用户在线人数上万时),也是老出问题,因而对这个事情印象深刻。所谓的高效云盘,就是用ssd缓存后端的sata盘数据,性能比裸的sata好不少。数据备份没有应用对应磁盘性能那么高的要求,那么借鉴这个方式,是不是对备份的整体写入性能有帮助呢?

    原系统有一块ssd,用于安装操作系统,其它sata用于共享,在底层做成了raid 5。再采购一块512G的ssd,拔掉一块sata盘。

    咨询硬件供应商,并告知当前使用raid卡的类型及型号,得到的答复是方案可行,并且现有的raid卡可支持ssd缓存,仅仅需要采购一個硬件缓存加速模块并支付少许授权费。以前没有这方面的实践,心里没多少底,但就算达不到要求,造成的资金损失也不大(ssd可做它用)。
    在这里插入图片描述
    总结一下,就是在现有基础上,采购一块512G的ssd硬盘及一块raid卡缓存加速模块,做上配置,即可投入使用。

    方案实施

    月黑风高夜,派一小弟悄声潜入机房。关机,下架,插入ssd盘,为了方便插入raid 缓存加速模块,把raid卡抠下来,插好缓存加速模块后再插回主板。
    在这里插入图片描述
    硬件准备就绪以后,上架,通电。

    进raid卡设置界面(在系统引导之前),给sata盘做好raid 5,然后使用菜单,把512G的ssd盘设置成raid 组的缓存设备。具体的操作,请参照各厂商的操作手册。
    在这里插入图片描述
    设置完毕以后,继续引导,进入系统,应该看不到做缓存的那个512G硬盘。
    配置nfs共享目录并启动nfs服务,然后在proxmox数据中心挂接此nfs共享目录。

    实施效果

    是骡子是马,拉出来溜溜才清楚。

    先用磁盘性能工具hdparm及dd等工具测试,速度确实比裸sata盘快好几倍。看看时间差不多了,把备份时间提前半小时,从0:00让系统自动开始备份。相关人等注意听着手机,一有报警相互通知。

    早上七点,起来查看备份情况(proxmox管理界面可跟踪到具体备份到那个虚拟机,备份量是多少),完成了将近90%。送了一口气,等到9点钟再看,备份完成。

    联系其他运行人员,了解用户访问情况,反馈一切正常,未出现以前那种全部卡住的现象。
    在这里插入图片描述

    展开全文
  • 在我管控的项目里,有Proxmox VE集群,也有些单独的PVE。我打算把集群上的虚拟机、单机PVE上的虚拟机,都备份到同一个大容量存储。这样规划,即能有效利用资源,又能大幅度节省成本,同时也降低了管理成本。假使每个...

    作者:田逸

    在我管控的项目里,有Proxmox VE集群,也有些单独的PVE。我打算把集群上的虚拟机、单机PVE上的虚拟机,都备份到同一个大容量存储。这样规划,即能有效利用资源,又能大幅度节省成本,同时也降低了管理成本。假使每个PVE都对应一个备份存储系统,管理成本增加不少。为保证备份数据可靠性,再增加一个存储,对备份数据进行同步,几乎万无一失。整体结构如下图所示,可供大家参考。

    存储规划

    准备一台2U的服务器,用2块256G的SDD盘做成RAID 1,安装PBS系统;4块或更多12TB容量SATA硬盘,用于备份数据存储;内存32G、单颗CPU、千兆网络。在备份存储空间,建立不同的目录,以区分不同的数据来源,比如pve_cluster代表集群备份路径、PVE54代表某单机备份目录。通过目录划分,避免虚拟机ID冲突的麻烦,而且后期恢复也变得清晰可辨。

    项目实施

    经多次游说、讨论,加之最近老存储(NFS)出故障,决策人终于同意花钱采购设备。我让设备供应商提前安装好PBS(Proxmox Backup Server)系统,再发快递到机房上架,这样我们自己就不用去机房,让机房的技术帮忙上架,能远程登录(主要是SSH)就能进行后续操作。关于PBS安装方法,请参照我以前的文章,这里不再赘述。

    上架完成后,登录到PBS Web管理后台,看看容量对不对。

    PBS添加用户

    添加用户的目的是为了让PVE通过此账号验证连接到PBS,是必须进行的操作,如果PVE与PBS都处于受保护的内部网络,为避免权限不足,可对账号最大授权。我这里是多个PVE同时进行备份,因此需要创建多个账号。

    登录PBS Web管理后台,从左侧主菜单“配置”之“Access 控制”进入,点击“添加”按钮,然后输入相关信息,如下图所示:

    重复上述操作,创建好两个账号。用户名不需要加“@pbs”,只有在客户端连接的时候,需要把它最为后缀加上。

    磁盘空间分配

    初始化数据存储所在的空闲磁盘,自动挂接分区以后,在其上分别创建目录pve_cluster及pve54,操作过程如下:

    1. 创建备份磁盘挂接点。

    注意:磁盘必须是没有分区才可以被识别!

    目录创建过程,其实就是分区、创建文件系统、再把文件系统挂接的过程。登录系统,命令行执行“df -h”即可了解实情。

    1. 添加子目录pve_cluster与pve54。填写绝对路径时,输入/mnt/datastore/pbs_data/pve_cluster这样的内容。

    创建好的两个子目录如下图所示:

    数据存储授权

    前边创建了两个子目录pve_cluster与pve54,分别用于不同的PVE虚拟机备份。现在需要进行授权操作,把目录pve_cluster指定给用户pve_cluster,目录pve54指定给用户pve54。选取数据存储目录“pve_cluster”,点击按钮“权限”。

    重复这个步骤,把pve54目录也做好授权。

    PVE连接到PBS

    登录到PVE Web管理后台,左侧菜单“数据中心”添加存储,选“Proxmox Backup Server”,如下图所示。

    按PBS设定的内容,输入到对应的编辑框,指纹信息,可从PBS的“仪表盘”菜单点击按钮“显示指纹”获取并复制。

    连接正确的话,PVE管理界面的概述会有信息显示。

    重复这个步骤,把PVE集群连接到PBS,填写的内容如下图所示:

    跟前一个PVE不同之处在于用户名及数据存储目录“Datastore”,其它都一样。

    PVE备份测试

    分别从PVE集群和PVE单节点进行手工备份,备份完毕,检查备份文件的生成情况,看是否符合我们的预期。

    • 从PVE单节点手动备份

    PVE Web管理后台,随机选择一个虚拟机,存储选刚设定成功的pbs250,确认无误后,点击页面按钮“立即备份”。

    备份过程,可在PBS Web管理后台查看进度。

    • 从PVE集群手动备份

    与单节点备份过程完全相同,不再赘述。

    测试如果没有问题,就可以在PVE设定自动备份任务。

    单PBS数据风险较高,需要再准备一个PBS,用于备份数据的同步,具体操作请参看本人已经发布的文章。

    展开全文
  • Proxmox集群中,如果将ISO文件存储于本地,只能供本节点存取,要用于集群的其它节点进行安装,将无法如愿。现已经在物理节点pve48的本地存储上传了可以使用的ISO镜像,接下来,试着创建虚拟机,用此ISO镜像来安装...
  • 同时Proxmox VE对接Proxmox备份服务器,可实现对VM、容器的全量和增量备份,可显著减少网络负载并节省宝贵的存储空间。 2 环境介绍 本文章所述环境采用3台物理服务器(含4口万兆网卡),1台万兆业务交
  • Proxmox是一款免费开源虚拟化软件,它采用的是一种去中心化的架构。Proxmox VE 是一个既可以运行虚拟机也可以运行容器的虚拟化平台。Proxmox VE 基于Debian Linux 开发,并且完全开源。Proxmox VE 同时支持两种虚拟...
  • Proxmox VE

    2019-09-14 10:52:57
    Proxmox VE是一个系统,专门用作管理虚拟机 http://pve.proxmox.com/wiki/Downloads https://pve.proxmox.com/wiki/Category:HOWTO 安装 iso安装,就像安装ubuntu系统 1,in...

空空如也

空空如也

1 2 3 4 5 ... 18
收藏数 348
精华内容 139
关键字:

proxmox备份