精华内容
下载资源
问答
  • 修复LVM手记

    2018-07-13 18:00:00
    http://blog.sina.cn/dpool/blog/s/blog_704836f40100lwxt.html 不过修复那一步实际用的e2fsck -fv /dev/rootvg/lvroot 转载于:https://www.cnblogs.com/jonathanyue/p/9306474.html

    http://blog.sina.cn/dpool/blog/s/blog_704836f40100lwxt.html

    不过修复那一步实际用的e2fsck -fv /dev/rootvg/lvroot

    转载于:https://www.cnblogs.com/jonathanyue/p/9306474.html

    展开全文
  • 修复lvm的逻辑卷

    2018-05-17 21:11:00
    公司传统的服务器不知道什么朝代的朝臣用lvm分区,1T的硬盘分了50G挂载到根目录“/”里面有/var、/usr……,剩下的挂载到了“/home"目录,逻辑卷组一点都不剩。后面用docker的时候容器镜像一股脑儿到了/var/lib/...
    一、背景
    公司传统的服务器不知道什么朝代的朝臣用lvm分区,1T的硬盘分了50G挂载到根目录“/”里面有/var、/usr……,剩下的挂载到了“/home"目录,逻辑卷组一点都不剩。后面用docker的时候容器镜像一股脑儿到了/var/lib/docker。空间严重不足,在万分紧急的情况下,我机智地削了home目录的空间,在没有卸载的情况下增加了根目录的空间。因为当初是直接挂载到根目录的,所以var目录没办法分开。
    我按照扩容的步骤来做,先卸载,umount,然后lvreduce,然后resize2fs。根目录所在的逻辑卷只能在线扩容,不umount,直接lvextend,然后resize2fs。一切正常,但是home逻辑卷的数据不正确,其他正常使用,我就不管他了。
    二、服务器正常启动
    后来,个别目录执行失败,我重启服务器。很久ssh都连不上,估计服务器启动失败,我赶紧跑去机房在本机登录,想改了fstab.conf文件,好让服务器起码正常启动,然后我再ssh操作。但是没权限。
    1、重新挂载: mount -o remount,rw /
    2、然后可以:vi /etc/fstab,不然fstab是制度文件。然后注释掉home目录的挂在信息。
    三、恢复home的正常使用
    我先尝试挂载,看看有没有什么错误再试试修复。
    1、查看服务器上面的lv信息:lvscan
    2、尝试挂载: mount /dev/VolGroup/lv_home /home
    报这个错误:
    mount: wrong fs type, bad option, bad superblock on /dev/mapper/VolGroup-lv_home,
    missing codepage or helper program, or other error
    In some cases useful info is found in syslog - try
    dmesg | tail or so
    3、确定错误类型: dmesg | tail
    EXT4-fs (dm-2): bad geometry: block count 226699264 exceeds size of device (200484864 blocks)
    错误类型是文件系统块数超过设备块数。
    主要的错误来自于我再缩小逻辑卷空间的时候没有事先缩小文件系统。这是个致命的错误。
    4、构思
    网上很多兄弟都说数据肯定没了,特别是我这种逻辑卷组已经没有空间给我还原之前的大小。后来综合了网上的资料和同僚讨论,拿一个移动硬盘去做成pv,加入vg。再按量分给home逻辑卷组,就挂上home盘,然后再按照正确的顺序把移动硬盘腾出来。这里我在腾讯互移动硬盘的时候先把home挂载上去,主要是不知道后面的操作风险多大,先把资料备份出来。
    5、恢复操作
    a、插入移动硬盘,执行fdisk -l|tail查看磁盘信息。
    可以看到sdb一有已经建好的分区,提供直接使用。
    b、创建物理卷,pvcreate /dev/sdb1
    c、加入逻辑卷组, vgextend VolGroup /dev/sdb1
    d、查看信息。vgs
    vg已经像计划中变大。
    e、扩大home逻辑卷。lvextend -L +55G /dev/mapper/VolGroup-lv_home
    实质上是恢复home原有的容量。
    f、把home挂在起来。mount /dev/mapper/VolGroup-lv_home /home
    资料全部都在,有些文件夹损坏。赶紧备份数据了,后面还有更高风险的操作。
    四、移除移动硬盘
    1、卸载home盘。umount /home
    没报错。
    2、查看pv的使用情况。pvscan
    3、检查修复损坏的逻辑卷。e2fsck -f -y /dev/mapper/VolGroup-lv_home
    4、缩小文件系统。resize2fs -p /dev/mapper/VolGroup-lv_home 500G
    压缩成功。
    5、缩小逻辑卷。lvreduce -L 500G /dev/mapper/VolGroup-lv_home
    6、移除pv。vgreduce VolGroup /dev/sdb1
    7、检查有没有移除成功了。vgs&&lvs&&pvs
    以上看来,移除都操作全部顺利
    8、销毁物理卷。pvremove /dev/sdb1
    9、复检物理卷。pvs
    没有/dev/sdb1,我就放心拔移动硬盘了。
    10、测试自动挂载。mount -a
    五、总结
    其实就一个简单的步骤,既然磁盘有问题,那就回复原来的状态,没什么问题。但是,我这里的情况是,reduce了空间,又extend了/root,然后只能借助外力了。

    转载于:https://www.cnblogs.com/hodge01/p/9037530.html

    展开全文
  • LVM 输入/输出错误修复1,LVM 输入/输出错误修复 1,LVM 输入/输出错误修复 # lvmdiskscan | grep LVM /dev/lvm_01/lv01: read failed after 0 of 4096 at 0: 输入/输出错误 /dev/lvm_01/lv01: read failed after ...

    LVM 输入/输出错误修复

    1,LVM 输入/输出错误修复

    # lvmdiskscan | grep LVM
      /dev/lvm_01/lv01: read failed after 0 of 4096 at 0: 输入/输出错误
      /dev/lvm_01/lv01: read failed after 0 of 4096 at 4096: 输入/输出错误
      /dev/sdb: read failed after 0 of 4096 at 0: 输入/输出错误
      /dev/sdb: read failed after 0 of 4096 at 8001563131904: 输入/输出错误
      /dev/sdb: read failed after 0 of 4096 at 8001563213824: 输入/输出错误
      /dev/sdb: read failed after 0 of 4096 at 4096: 输入/输出错误
      /dev/sdc         [      <7.28 TiB] LVM physical volume
      /dev/sdd         [      <7.28 TiB] LVM physical volume
      /dev/sde         [      <7.28 TiB] LVM physical volume
      /dev/sdf         [      <7.28 TiB] LVM physical volume
      /dev/sdg         [      <7.28 TiB] LVM physical volume
      /dev/sdh         [      <7.28 TiB] LVM physical volume
      /dev/sdi         [      <7.28 TiB] LVM physical volume
      /dev/sdj         [      <7.28 TiB] LVM physical volume
      8 LVM physical volume whole disks
      0 LVM physical volumes
    
    # vgscan 
      Reading volume groups from cache.
      WARNING: Device /dev/sda has size of 0 sectors which is smaller than corresponding PV size of 15628053168 sectors. Was device resized?
      One or more devices used as PVs in VG lvm_01 have changed sizes.
      Found volume group "lvm_01" using metadata type lvm2
    
    展开全文
  • 重装win8,发现fedora无法引导,用EasyBCD也无能为力。在多方搜索后,找到了一种手动修复LVM管理的Linux系统的引导项的方法。

    首先,吐槽一下标题的长度,接下来就是正文了(^_^)

    背景

    由于本人Win7系统已经卡到了不能忍受的地步,所以决定重装win8,但安完后发现引导项并没有我的fedora,用EasyBCD也无法找到fedora的引导。
    在多方搜索后,发现我安装时使用了LVM逻辑卷管理方式(LVM是什么这里就不多说了,大家可以百度),并不像一般的分区那样/boot恰对应一个/dev/sda?(?表示具体的分区号),而是所有空间一起对应一个/dev/sda?,而在其中,通过/dev/mapper/(mapper实际上是LVM卷组的逻辑名,这里应该是fedora的默认名称) 具体分配挂载位置。知道了这点,我们就可以用刻好的linux引导盘来手动修复grub了。
    不会的同学可以参考Arch Linux安装手册,只用看挂载分区,和建立grub两部分就好。

    步骤

    1. 准备一个linux引导盘,只要是linux系统都可以,我用的是刻有Ubuntu14.04的U盘。
    2. 重启,按F12(这个具体看个人电脑),选择Boot方式从usb设备启动
    3. 进入linux环境的命令行模式,或是图形界面的terminal终端。
    4. fdisk -l 找到Linux所在的盘。输入命令后,会显示/dev/mapper/各LVM逻辑卷的信息,找到root,
    5. 挂在找到的root分区。

      sudo mount /dev/mapper/root /mnt
    6. 挂载/dev,/proc,/sys,/run,/var。如果不挂载,你会发现你在chroot后的系统中,这些文件都为空。

      sudo mount -o bind /dev /mnt/dev
      sudo mount -o bind /proc /mnt/proc
      sudo mount -o bind /var /mnt/var
      sudo mount -o bind /sys /mnt/sys
      sudo mount -o bind /run /mnt/run
    7. chroot进入目标环境

      chroot /mnt /bin/bash
    8. 建立grub的启动项

      grub2-install --target=i386-pc --recheck /dev/sda
      //默认的grub2-install /dev/sda好像也可以,但为了保险起见,还是写全点吧

      这里可能会报错

      bash-4.3# grub2-install --target=i386-pc --recheck /dev/sda
      Installing for i386-pc platform. 
      /run/lvm/lvmetad.socket: connect failed: No such file or directory 
      WARNING: Failed to connect to lvmetad. Falling back to internal scanning. 
      /run/lvm/lvmetad.socket: connect failed: No such file or directory 
      WARNING: Failed to connect to lvmetad. Falling back to internal scanning. 
      /run/lvm/lvmetad.socket: connect failed: No such file or directory 
      WARNING: Failed to connect to lvmetad. Falling back to internal scanning. 
      Installation finished. No error reported. 

      我查了下资料,在https://wiki.archlinux.org/index.php/GRUB找到了解释

      Warning when installing in chroot
      When installing GRUB on a LVM system in a chroot environment (e.g. during system installation), you may receive warnings like /run/lvm/lvmetad.socket: connect failed: No such file or directory or WARNING: failed to connect to lvmetad: No such file or directory. Falling back to internal scanning. This is because /run is not available inside the chroot. These warnings will not prevent the system from booting, provided that everything has been done correctly, so you may continue with the installation.

    所以,按上面的说法,我们不用去管这个警告,可以重启去检查结果了。如果顺利,这时就能看见熟悉的fedora的grub引导界面了。

    结论

    虽然成功地解决了引导项的修复问题,但这也说明win8是无法直接找到LVM机制下的linux boot分区,从而引导的。所以,只有以grub方式引导才有可能双系统了。当然如果不用LVM卷管理,那就没这么多问题了。

    展开全文
  • 修复虚拟磁盘LVM

    2017-11-07 12:34:00
    今天在一个Xen半虚拟机里编译内核时磁盘不够用了,不过幸亏分区时用了LVM,可以扩展空间。 原先的分区如下: /dev/xvda1 ==> /boot (100M) /dev/xvda2 ==> VolGroup00 ==> root(2.8G) swap(1G) root分区...
  • LVM 灾难修复

    2011-01-24 18:39:50
    http://kb.cnblogs.com/page/86830/ ...
  • lvm磁盘备份、替代、和修复方案
  • 记一次LVM修复过程

    千次阅读 2019-07-20 20:10:28
    进行以下操作前好好搜搜资料,我...也就是说:lvm把一堆硬盘组成一个硬盘组,然后再上面再进一步分逻辑卷。好处是扩展方便。坏处就是我遇到的坏处。 问题:扩展lv的时候执行了lvextend -l +100%FREE /dev/VolGro...
  • 异常关闭linux电源容易导致启动失败进入emergency mode。 进入emergency mode的...如果是lvm卷出现问题,可以用如下方式尝试修复: 1, lvm vgscan查看有哪些vg # lvm vgscan Reading volume groups from cache...
  • 如果是LVM分区,先查看分区 #ls -l /dev/mapper 如果报错中明确告知了哪个分区出错了,比如dm-2,则针对其进行修复,命令如下: #xfs_repair /dev/dm-2 若出现如下提示: 加上-L参数: #xfs_repair -L /dev/dm-2 ...
  • PC 上的 LVM 灾难修复

    千次阅读 2015-03-23 18:43:21
    本文转自: ...   LVM 介绍 LVM 简介 LVM 是逻辑盘卷管理(Logical Volume Manager)的简称,最早是 IBM 为 AIX ...LVM 通过在硬盘和分区之间建立一个逻辑层,可以让多个分区或者物理硬盘作为一个逻辑卷 ( 相当于一个
  • PC LVM修复(2)

    2013-05-08 09:32:07
    Linux LVM 架构图   磁盘损坏  对于普通 PC 而言,多块磁盘的主要目的是扩充存储容量,一般不会采用 RAID 方案来应对磁盘损坏。一旦发生磁盘损坏的情况,用户在承受损坏硬盘上面的所有数据丢失之痛的时候...
  • 原系统安装时采用lvm分区,新系统未使用lvm分区。 修复mbr grub2-install /dev/sda 修复grub grub2-mkconfig -o /boot/grub2/grub.cfg grub.cfg 文件中有关rd.lvm.lv相关的信息始终存在,导致grub.cfg配置不...
  • 解决方案 分析目前情况,发现报错非lvm逻辑卷管理,而为/dev/sdb1 已于服务器管理员沟通可强制修复,故直接执行修复操作测试:   xfs_ repair -L /dev/sdb1 修复后已成功进入操作系统,成功图如下: 转载请标明出处...

空空如也

空空如也

1 2 3 4 5 ... 12
收藏数 226
精华内容 90
关键字:

修复lvm