精华内容
下载资源
问答
  • DASNASSAN存储系统完全分析 DASNASSAN存储系统完全分析 目前磁盘存储市场上存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储封闭系统主要指大型机AS400等服务器开放系统指基于包括...
  • 安装配置磁盘阵列SAN存储系统

    千次阅读 2018-10-23 19:50:01
    安装配置磁盘阵列SAN存储系统 磁盘阵列SAN存储系统在以前是一种昂贵和复杂的系统,往往还牵涉到FC,只有大企业才有能力使用。但随着100M/1G以太网的发展和 iSCSI 技术的成熟,低成本、高速和高可靠性的SAN系统已经...

    安装配置磁盘阵列SAN存储系统

    磁盘阵列SAN存储系统在以前是一种昂贵和复杂的系统,往往还牵涉到FC,只有大企业才有能力使用。但随着100M/1G以太网的发展和 iSCSI 技术的成熟,低成本、高速和高可靠性的SAN系统已经成为可能,就是小微企业也有能力来使用SAN存储系统。

    本文将介绍如何在普通商用硬件设备和Ubuntu建立低成本、高速、高可靠的磁盘阵列SAN系统。


    硬件选择

    本文主要介绍软件设置,硬件配置不多做介绍。

    基本系统配置:
    CPU:Intel Xeon E5 或 E3 处理器
    内存:8G 或 4G
    硬盘:120GB x3 (为系统盘,不含数据盘)
    网口:1000M 或 100M 以太网口
    主板:任意服务器主板

    对中小微企业来说,内部流量不会太大,上述配置的服务器系统完全能满足需求,价格一般在几千到一万左右。


    系统安装和配置


    操作系统

    本示例中使用 Ubuntu 18.04 LTS 作为操作系统,安装在由 3个磁盘组成的RAID1磁盘陈列上,其中2个为活跃磁盘,一个为后备磁盘。有三个磁盘组成的RAID1系统非常可靠,只有在三个磁盘都出错时才会有问题。
    在此对系统的安装不再做介绍,具体安装方式请参见 基于SAMBA4的域控制器安装设置 一文中的 操作系统安装 部分。

    root@lssan1:~# mdadm --detail /dev/md0
    /dev/md0:
               Version : 1.2
         Creation Time : Sat Jun  2 10:14:37 2018
            Raid Level : raid1
            Array Size : 122358784(116.19 GiB 116.89 GB)
         Used Dev Size : 122358784(116.19 GiB 116.89 GB)
          Raid Devices : 2
         Total Devices : 3
           Persistence : Superblock is persistent
    
           Update Time : Thu Oct 18 13:33:46 2018
                 State : clean 
        Active Devices : 2
       Working Devices : 3
        Failed Devices : 0
         Spare Devices : 1
    
    Consistency Policy : resync
    
                  Name : storageOS:0
                  UUID : 2bae87ad:0552c629:e2a73596:5479c044
                Events : 22
    
        Number   Major   Minor   RaidDevice State
           0       8        1        0      active sync   /dev/sda1
           1       8       17        1      active sync   /dev/sdb1
    
           2       8       33        -      spare   /dev/sdc1
    root@lssan1:~# 
    
    

    建立RAID磁盘阵列

    一般情况下,SAN存储设备较为适合使用RAID6或RAID10磁盘阵列。RAID6和RAID10各有其优缺点,可根据需求选择其中之一来建立SAN存储系统。

    RAID类型优点缺点适用场景
    RAID6很高的冗余度,读取性能尤为突出。由于奇偶校验,执行大量写操作会降低性能 。大容量存储服务器和应用服务器。
    RAID10非常高的读写性能和容错能力。可用容量较低/成本较高, 可扩展性受限。执行大量写入操作的服务器/数据库。

    系统上,/dev/sda、/dev/sdb和/dev/sdc 已经被用于操作系统,余下的5个硬盘将被用来建立用于存储设备的磁盘阵列。

    在 /dev/sdd,/dev/sde,/dev/sdf,/dev/sdg和/dev/sdh 上创建 RAID6

    root@lssan1:~# mdadm --create --verbose /dev/md60 --level=6 --raid-devices=4 /dev/sdd /dev/sde /dev/sdf /dev/sdg --spare-devices=1 /dev/sdh
    mdadm: layout defaults to left-symmetric
    mdadm: layout defaults to left-symmetric
    mdadm: chunk size defaults to 512K
    mdadm: size set to 10476544K
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md60 started.
    root@lssan1:~#
    

    检查新建的RAID阵列:

    root@lssan1:~# mdadm --detail /dev/md60
    /dev/md60:
               Version : 1.2
         Creation Time : Thu Oct 18 20:58:00 2018
            Raid Level : raid6
            Array Size : 20953088 (19.98 GiB 21.46 GB)
         Used Dev Size : 10476544 (9.99 GiB 10.73 GB)
          Raid Devices : 4
         Total Devices : 5
           Persistence : Superblock is persistent
    
           Update Time : Thu Oct 18 20:58:54 2018
                 State : clean 
        Active Devices : 4
       Working Devices : 5
        Failed Devices : 0
         Spare Devices : 1
    
                Layout : left-symmetric
            Chunk Size : 512K
    
    Consistency Policy : resync
    
                  Name : lssan1:60  (local to host lssan1)
                  UUID : 6e55fa84:a4212001:ad18a7d2:1b078048
                Events : 17
    
        Number   Major   Minor   RaidDevice State
           0       8       48        0      active sync   /dev/sdd
           1       8       64        1      active sync   /dev/sde
           2       8       80        2      active sync   /dev/sdf
           3       8       96        3      active sync   /dev/sdg
    
           4       8      112        -      spare   /dev/sdh
    root@lssan1:~#
    

    我们可以看到/dev/md60已成功建立。为了在启动时,系统就能操作/dev/md60,我们必须将/dev/md60的相关信息写入initramfs中,启动时系统可以自动重建/dev/md60磁盘阵列。

    一、首先获取/dev/md60的布局信息:

    root@lssan1:~# mdadm --detail --scan
    ARRAY /dev/md/0 metadata=1.2 spares=1 name=storageOS:0 UUID=2bae87ad:0552c629:e2a73596:5479c044
    ARRAY /dev/md/1 metadata=1.2 spares=1 name=storageOS:1 UUID=3531eed2:4a05b3d6:e343fe19:eca8288c
    ARRAY /dev/md60 metadata=1.2 spares=1 name=lssan1:60 UUID=6e55fa84:a4212001:ad18a7d2:1b078048
    root@lssan1:~#
    

    二、将ARRAY /dev/md60 metadata=1.2 spares=1 name=lssan1:60 UUID=6e55fa84:a4212001:ad18a7d2:1b078048 加入文件/etc/mdadm/mdadm.conf

    三、更新initramfs

    root@lssan1:~# update-initramfs -u
    update-initramfs: Generating /boot/initrd.img-4.15.0-36-generic
    root@lssan1:~# 
    

    四、检查系统重启后/dev/md60是否自动重建

    重启系统,然后用mdadm --detail --scan检查磁盘阵列情况。

    root@lssan1:~# mdadm --detail --scan
    ARRAY /dev/md60 metadata=1.2 spares=1 name=lssan1:60 UUID=6e55fa84:a4212001:ad18a7d2:1b078048
    ARRAY /dev/md/0 metadata=1.2 spares=1 name=storageOS:0 UUID=2bae87ad:0552c629:e2a73596:5479c044
    ARRAY /dev/md/1 metadata=1.2 spares=1 name=storageOS:1 UUID=3531eed2:4a05b3d6:e343fe19:eca8288c
    root@lssan1:~# 
    

    /dev/md60磁盘阵列已重建。

    如果要建立RAID10阵列,只需要在创建命令中,将 --level=6 改成 --level=10 即可,其他都一样。


    建立SAN设备

    基于以太网的SAN使用iSCSI协议,我们首先需要在本机上安装TGT(TarGeT framework),支持本机提供iSCSI目标服务。

    root@lssan1:~# apt install tgt -y
    Reading package lists... Done
    Building dependency tree       
    Reading state information... Done
    Suggested packages:
      tgt-rbd
    The following NEW packages will be installed:
      tgt
    0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
    Need to get 214 kB of archives.
    After this operation, 641 kB of additional disk space will be used.
    Get:1 http://mirrors.aliyun.com/ubuntu bionic/main amd64 tgt amd64 1:1.0.72-1ubuntu1 [214 kB]
    Fetched 214 kB in 1s (171 kB/s)
    ......
    ......
    ......
    Setting up tgt (1:1.0.72-1ubuntu1) ...
    Created symlink /etc/systemd/system/multi-user.target.wants/tgt.service → /lib/systemd/system/tgt.service.
    Processing triggers for systemd (237-3ubuntu10.3) ...
    Processing triggers for ureadahead (0.100.0-20) ...
    root@lssan1:~# 
    

    配置 /dev/md60 成为iSCSI目标磁盘陈列

    root@lssan1:~# vi /etc/tgt/conf.d/target-dev-md10.conf

    <target iqn.Oct-18-2018.md60.lssan1.lswin.cn:lun1>
            # iSCSI 目标设备
            backing-store /dev/md60
            # 用户IP地址
            initiator-address 192.168.220.60
            # 用户授权信息
            incominguser lssan1-user-name lssan1-user-passwd
            # SAN授权信息
            outgoinguser lssan1-owner-name lssan1-owner-passwd
    </target>
    

    重启tgt,检查SAN目标情况。

    root@lssan1:~# tgtadm --mode target --op show
    Target 1: iqn.Oct-18-2018.md60.lssan1.lswin.cn:lun1
        System information:
            Driver: iscsi
            State: ready
        I_T nexus information:
        LUN information:
            LUN: 0
                Type: controller
                SCSI ID: IET     00010000
                SCSI SN: beaf10
                Size: 0 MB, Block size: 1
                Online: Yes
                Removable media: No
                Prevent removal: No
                Readonly: No
                SWP: No
                Thin-provisioning: No
                Backing store type: null
                Backing store path: None
                Backing store flags: 
            LUN: 1
                Type: disk
                SCSI ID: IET     00010001
                SCSI SN: beaf11
                Size: 21456 MB, Block size: 512
                Online: Yes
                Removable media: No
                Prevent removal: No
                Readonly: No
                SWP: No
                Thin-provisioning: No
                Backing store type: rdwr
                Backing store path: /dev/md60
                Backing store flags: 
        Account information:
            lssan1-user-name
            lssan1-owner-name (outgoing)
        ACL information:
            192.168.220.60
    root@lssan1:~# 
    

    一般情况下,我们建议将磁盘阵列以原始模式提供目标服务,由用户机决定如何使用。

    使用SAN设备

    在配置SAN时,我们的ACL只允许 192.168.220.60 使用,该IP地址是测试机的IP地址。

    首先在测试机上用 iscsiadm 寻找 TGT,在找到目标服务后,自动形成默认SAN挂载配置文件。

    root@lstest:~# iscsiadm -m discovery -t st -p lssan1.lswin.cn
    192.168.220.30:3260,1 iqn.Oct-18-2018.md60.lssan1.lswin.cn:lun1
    root@lstest:~#
    

    目标服务已经找到,下面按我们的需求修改自动形成的默认SAN挂载配置文件。
    /etc/iscsi/nodes/iqn.Oct-18-2018.md60.lssan1.lswin.cn\:lun1/192.168.220.30\,3260\,1/default
    按下列步骤对上述文件进行修改:
    一、将 node.startup = manual 修改为 node.startup = automatic
    二、将node.session.auth.authmethod = None改为 node.session.auth.authmethod = CHAP
    三、将下列4行内容加在 node.session.auth.authmethod = CHAP 行后

    	node.session.auth.username = lssan1-user-name   
    	node.session.auth.password = lssan1-user-passwd
    	node.session.auth.username_in = lssan1-owner-name   
    	node.session.auth.password_in = lssan1-owner-passwd
    

    挂载前磁盘情况

    root@lstest:~# iscsiadm -m session
    iscsiadm: No active sessions.
    root@lstest:~# lsblk
    NAME                   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
    sda                      8:0    0   40G  0 disk 
    └─sda1                   8:1    0   40G  0 part 
      ├─minisys--vg-root   253:0    0   39G  0 lvm  /
      └─minisys--vg-swap_1 253:1    0  976M  0 lvm  [SWAP]
    sr0                     11:0    1  704M  0 rom  
    root@lstest:~#
    

    挂载SAN(重启iSCSI服务):
    root@lstest:~# service open-iscsi restart

    root@lstest:/var/log# iscsiadm -m session
    tcp: [1] 192.168.220.30:3260,1 iqn.Oct-18-2018.md60.lssan1.lswin.cn:lun1 (non-flash)
    root@lstest:/var/log# lsblk
    NAME                   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
    sda                      8:0    0   40G  0 disk 
    └─sda1                   8:1    0   40G  0 part 
      ├─minisys--vg-root   253:0    0   39G  0 lvm  /
      └─minisys--vg-swap_1 253:1    0  976M  0 lvm  [SWAP]
    sdb                      8:16   0   20G  0 disk 
    sr0                     11:0    1  704M  0 rom  
    root@lstest:/var/log# 
    
    

    我们可以看到SAN存储设备已经被成功挂载到测试机上,并以磁盘(/dev/sdb)形式出现。

    注意:尽量不要再SAN上建LVM!如在SAN上建LVM有可能产生不可预测的问题。

    展开全文
  • 根据北京工业大学视频图象研究中心业务系统的目前应用情况,大恒存储率先采用2套大恒ACCSTOR FS8000光纤磁盘阵列、2套SanRad iSCSI V Switch 3000虚拟存储交换机、3Com千兆数据网络交换机等为平台的IP SAN存储网络...
  • SAN存储系统构架解析

    千次阅读 2013-09-14 10:16:51
    光纤通道网络可配置成交换结构或者冗余环路拓扑结构,其中交换结构是当今SAN存储系统网络的主要和流行结构,采用专业的光纤通道交换机来实现。为了了解光纤通道交换机,我们先来了解它的应用环境——SAN存储系统。 ...
    光纤通道网络可配置成交换结构或者冗余环路拓扑结构,其中交换结构是当今SAN存储系统网络的主要和流行结构,采用专业的光纤通道交换机来实现。为了了解光纤通道交换机,我们先来了解它的应用环境——SAN存储系统。


      光纤通道(Fibre Channel)是一项网络技术,光纤通道是由受ANSI(美国国家标准协会)委托的几个委员会开发的一组集成标准的通用名称。通过光纤实现的一种基于块的数据流传输方式,传输率可达1Gb/秒,多模光纤传输距离为500米,单模光纤距离为1千米。它是为提高存储系统的速度和灵活性而设计的高性能接口标准,适用于服务器、存储通过交换机和点对点连接进行双向、串行数据通讯。光纤通道用于服务器共享存储设备的连接,存储控制器和驱动器之间的内部连接。光纤通道要比SCSI快三倍,它已经开始代替SCSI在服务器和集群存储设备之间充当传输接口。


      SAN存储区网构架


      SAN(存储区域网)是一种类似于普通局域网的一种高速存储网络,它通过专用的集线器或交换机和网关建立起与服务器和磁盘阵列之间的直接连接。SAN 改进了备份和还原功能并减轻了企业局域网 (LAN) 的网络拥塞问题,SAN系统存储方案满足前端用户快速灵活数据访问的要求。现在的SAN多是一种光纤通道 (FC) 网络,由服务器、光纤通道卡、光纤通道交换机和光纤通道存储阵列组成。


      系统之中,采用光纤通道交换机作为SAN 的核心部件,采用双冗余配置,作为高可靠的 SAN 核心设备,提供了必要的安全性与稳定性。每台服务器配置两块光纤通道卡,每块光纤通道卡分别连接到互为冗余的 SAN 光纤通道交换机上。同样的,每台磁盘阵列设备也通两条光纤通道连接到SAN 光纤通道交换机上。高速的连接结构允许用户快速将数据传输到存储备份设备,通过自动备份软件管理备份系统,提供“快速数据访问、数据容灾、备份与恢复能力”。


      SAN存储系统的高性能传输大块数据的能力使其成为理想的备份与恢复解决方案。SAN 将备份与恢复通信移出了 LAN。这可以减少 LAN 拥堵,大幅减少备份时间,并更加有效地利用存储资源。SAN存储系统将业界领先的服务器、存储设备、软件和组网功能融为一体,提供了一个可靠、高性能和经济实用的业务连续性解决方案。SAN存储系统具有分布式网络设计,因此能提供一个高弹性基础架构,故障切换功能可防止系统中断,可以消除单点故障,最大限度提高数据可用性。可实现高性能远程备份、电子存储和在相距很远的数据中心生成镜像。


      SAN存储系统实现了存储设备的集中管理和共享,SAN存储系统中的服务器都可以共享使用存储设备。这提高了存储资源利用率,降低了为获得存储空间而购买新服务器的需求。而它也允许在不中断系统运行的情况下添加存储设备。


      SAN存储系统的核心构件——光纤通道交换机


      光纤通道交换机是专门为SAN服务的一类很特殊的设备,它能为存储设备提供千兆级的串行网络访问能力,为高带宽和低延迟数据通信提供光纤通道切换功能,以提供高速数据传输和数据共享。


      在光纤通道交换机这一市场,当仁不让的莫属非常专业的SAN方案提供商博科(Brocade)通讯系统有限公司推出的产品,许多著名的SAN存储设备提供商都OEM它的产品,如:SUN(促销产品 主营产品)、IBM、LENOVO、SGI、HITACHI、DELL、EMC等等,以之为自己的服务器、磁盘阵列等SAN产品提供配套支持,甚至集成到它们的系统中。如IBM的一些刀片式服务器就提供模块化博科光纤通道交换机插接在机箱里面。几乎能叫得出名字的提供SAN存储系统的大牌公司都是它的OEM合作伙伴,这看起来真的不可思议。


      总结


      大型企业和互联网的数据急速增长,促使拥有超大网络存储容量的SAN出现,很多机构都已开始转向SAN存储系统,集中管理电子商务和其它数据密集型应用产生的信息的快速增长。就算不是大型企业,也可以见到在提供以交易为基础的企业得到运用,如连锁超市。这部分市场中的很多客户已经认识到SAN和光纤通信技术的价值,但是价格因素限制他们采用和实施SAN。


      但我们应看到SAN存储系统是一个高弹性基础架构,可以消除单点故障;提供“快速数据访问、数据容灾、备份与恢复能力;提高存储资源利用率,不再为了获得存储空间而重复投资购买新服务器,而只需要增加存储阵列的硬盘或磁带等这些优势。据业内人士认为,基于光纤通道交换的SAN存储系统网络存储的总拥有成本正在遂年降低,能被中小企业接受的10万以内的方案已经成为可能,这将为中小企业对海量数据的高速存储、备份、灾难恢复提供可能。


    原文出自【比特网】,转载请保留原文链接:http://cloud.chinabyte.com/news/202/12434702.shtml
    展开全文
  • 中科蓝鲸BWRAID是一个以标准存储服务器(x86)为存储硬件、通过软件核心技术构造标准遵从的集群SAN存储系统。 系统对内把存储节点聚合成统一存储池,整体实现存储节点间网络RAID5的冗余保护效果,能保证设备级故障...
  • 现阶段,SAN存储正在发生巨大的改变——它变得越来越简单、易于操作了。多年来,SAN存储对管理员的知识储备要求非常高,其中包括LUN、LUN掩码、卷分配、卷关联、脚本、RAID、容量规划、停机维护时间规划,以及损坏...
  • 广东江门新会区电子政务网系统采用宝德科技推荐的基于Intel 最新iSCSI技术的IP SAN存储管理系统,将下属14个镇府和派出机构分散区域的的信息,按照iSCSI块传输协议,高效、实时的上传到区电子政务信息网络平台,进行...
  • 新会区信息产业局集中存储备份系统采用宝德科技推荐的基于Intel 最新iSCSI技术的IP SAN存储管理系统,将下属14个镇府和派出机构分散区域的的信息,按照iSCSI块传输协议,高效、实时的上传到区电子政务信息网络平台,...
  • 怎么在SAN存储系统部署中考虑冗余性、高可用性? 要求描述得多一点,是一道简答题,谢谢!
  • DAS、NAS、SAN存储系统分析

    千次阅读 2012-12-19 16:43:41
    DAS、NAS、SAN存储系统分析 目前磁盘存储市场上,存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux...

    DAS、NAS、SAN存储系统分析


    目前磁盘存储市场上,存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;开放系统的存储分为:内置存储和外挂存储;开放系统的外挂存储根据连接的方式分为:直连式存储(Direct-Attached Storage,简称DAS)和网络化存储(Fabric-Attached Storage,简称FAS);开放系统的网络化存储根据传输协议又分为:网络接入存储(Network-Attached Storage,简称NAS)和存储区域网络(Storage Area Network,简称SAN)。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上,因此本文主要针对开放系统的外挂存储进行论述说明。

    表一:
     

    今天的存储解决方案主要为:直连式存储(DAS)、存储区域网络(SAN)、网络接入存储(NAS)。如下表二:

     

    开放系统的直连式存储(Direct-Attached Storage,简称DAS)已经有近四十年的使用历史,随着用户数据的不断增长,尤其是数百GB以上时,其在备份、恢复、扩展、灾备等方面的问题变得日益困扰系统管理员。

    主要问题和不足为:

    直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等),数据流需要回流主机再到服务器连接着的磁带机(库),数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以免影响正常业务系统的运行。直连式存储的数据量越大,备份和恢复的时间就越长,对服务器硬件的依赖性和影响就越大。

    直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。

    无论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Cluster),或存储阵列容量的扩展,都会造成业务系统的停机,从而给企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂商提供,往往受原设备厂商限制。

    存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。SAN经过十多年历史的发展,已经相当成熟,成为业界的事实标准(但各个厂商的光纤交换技术不完全相同,其服务器和SAN存储有兼容性的要求)。SAN存储采用的带宽从100MB/s、200MB/s,发展到目前的1Gbps、2Gbps。

    网络接入存储(Network-Attached Storage,简称NAS)采用网络(TCP/IP、ATM、FDDI)技术,通过网络交换机连接存储系统和服务器主机,建立专用于数据存储的存储私网。随着IP网络技术的发展,网络接入存储(NAS)技术发生质的飞跃。早期80年代末到90年代初的10Mbps带宽,网络接入存储作为文件服务器存储,性能受带宽影响;后来快速以太网(100Mbps)、VLAN虚网、Trunk(Ethernet Channel) 以太网通道的出现,网络接入存储的读写性能得到改善;1998年千兆以太网(1000Mbps)的出现和投入商用,为网络接入存储(NAS)带来质的变化和市场广泛认可。

    由于网络接入存储采用TCP/IP网络进行数据交换,TCP/IP是IT业界的标准协议,不同厂商的产品(服务器、交换机、NAS存储)只要满足协议标准就能够实现互连互通,无兼容性的要求;并且2002年万兆以太网(10000Mbps)的出现和投入商用,存储网络带宽将大大提高NAS存储的性能。

    NAS需求旺盛已经成为事实。首先NAS几乎继承了磁盘列阵的所有优点,可以将设备通过标准的网络拓扑结构连接,摆脱了服务器和异构化构架的桎梏;其次,在企业数据量飞速膨胀中,SAN、大型磁带库、磁盘柜等产品虽然都是很好的存储解决方案,但他们那高贵的身份和复杂的操作是资金和技术实力有限的中小企业无论如何也不能接受的。NAS正是满足这种需求的产品,在解决足够的存储和扩展空间的同时,还提供极高的性价比。因此,无论是从适用性还是TCO的角度来说,NAS自然成为多数企业,尤其是大中小企业的最佳选择。

    NAS与SAN的分析与比较

    针对I/O是整个网络系统效率低下的瓶颈问题,专家们提出了许多种解决办法。其中抓住症结并经过实践检验为最有效的办法是:将数据从通用的应用服务器中分离出来以简化存储管理。

    问题:

     
    图 1

    由图1可知原来存在的问题:每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。

    解决办法:

     
    图 2

    从图2可看出:将存储器从应用服务器中分离出来,进行集中管理。这就是所说的存储网络(Storage Networks)。

    使用存储网络的好处:

    统一性:形散神不散,在逻辑上是完全一体的。

    实现数据集中管理,因为它们才是企业真正的命脉。

    容易扩充,即收缩性很强。

    具有容错功能,整个网络无单点故障。

    专家们针对这一办法又采取了两种不同的实现手段,即NAS(Network Attached Storage)网络接入存储和SAN(Storage Area Networks)存储区域网络。

    NAS:用户通过TCP/IP协议访问数据,采用业界标准文件共享协议如:NFS、HTTP、CIFS实现共享。

    SAN:通过专用光纤通道交换机访问数据,采用SCSI、FC-AL接口。

    什么是NAS和SAN的根本不同点?

    NAS和SAN最本质的不同就是文件管理系统在哪里。如图:



    图3

    由图3可以看出,SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。换句话说:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。

    NAS是将目光集中在应用、用户和文件以及它们共享的数据上。SAN是将目光集中在磁盘、磁带以及联接它们的可靠的基础结构。将来从桌面系统到数据集中管理到存储设备的全面解决方案将是NAS加SAN。

    展开全文
  • [b]1 SAN存储系统[/b] 存储区域网络(Storage Area Network,SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主要,建立专用于数据存储的区域网络。 1.1 EMC2CX500存储系统的...


    [b]1 SAN存储系统[/b]
        存储区域网络(Storage Area Network,SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主要,建立专用于数据存储的区域网络。
        1.1 EMC2CX500存储系统的体系结构
        EMC2CX500是一款中端2Gbps光纤通道RAID阵列,可用于SAN或直接连接到服务器。EMC2CX500包括1个2Gb/s磁盘处理器机箱(Disk Processor Enclosure,DPE)和可选2Gb/s磁盘阵列机箱(Disk Array Enclosure,DAE)和/或ATA磁盘阵列机箱(DAE2-ATA),其中DPE2以单一3U机箱提供了2块存储处理器板SP(Storage Processor,SP,SP a,SP b)、最多15个2.54cm光纤通道磁盘驱动器以及冗余、热交换风扇与UPS电源,可为每个子系统添加最多7个DAE2和/或DEA2-ATA扩展机箱,每个机箱最多可支持15个磁盘驱动器,从而单一DPE2最多可配置120个驱动器。如果使用146GB FC磁盘驱动器,这相当于17.5Tb原始存储容量;而当使用DAE2-ATA机臬时,CX500的总体原始存储容量可以扩展到28.4Tb。
        1.2 EMC2CX500存储系统的特点及优点
        特点为:(1)4个1.6GHz CUP,4GB缓存内存,120 000IO/s,760MB/秒,4个前端2GB光纤通道主机端口,4个后端2GB光纤通道磁盘端口,每个CX500有1 024个LUN,可扩展到120个驱动器(SAN/直接连接/无交换机群集);(2)通过“数据就地”升级轻松升级到CX700,完全冗余体系结构,无单点故障、模块化体系结构、电源、冷却、数据通路、UPS(与电源之间通过数据线进行连接,当电源突然掉电,UPS会自己启动为存储系统供电);(3)CLARalert Phone Home(CLARalert电话求助,系统故障会通过MODEM自动呼叫救护中心,救护中心会根据故障情况进行远程会诊);(4)无中断故障切换的双I/O通路,发生电源故障时将写缓存降级到DISK;(5)SNiiFFER:扇区检查实用程序;(6)Navisphere管理套件、SnapView、MirrorView、SAN Copy等阵列软件;(7)光纤通道RAID,混合RAID级别,RAID级别0、1、0+1、3、5;(8)磁盘光纤通道:36GB 15K、73GB 10K、146GB 10K,ATA:250GB 5.4K;(9)主机:Windows、Linux、NetWare、Solaris、IBM AIX、HP-UX、HP Tru64。
        优点为:(1)直接连接。在直接连接配置中,EMC2CX500能够为最多4台直接连接服务器或1个群集服务器组合提供存储能力。(2)储区域网络。在SAN环境中,EMC2CX500可与最多128台冗余连接服务器主动通信。
        1.3 EMC2CX500存储系统的方案设计
        (1)服务器的应用。三河电厂共有4台服务器与EMC2CX500存储系统进行连接,分别是BFS++设备管理软件服务器、PI实时数据软件服务器(双机热备)、档案管理软件服务器、燃料管理软件服务器。(2)磁盘容量。EMC2CX500存储系统包括1个2Gbps磁盘处理器机箱(DPE2),在磁盘处理器机箱内置了8块146GB光纤通道磁盘,其中前驱块磁盘采用了RAID 5磁盘冗余技术,第8块磁盘总容量为6块146GB磁盘容量的总和。(3)设备连接。EMC2CX500存储系统共采用2台8口光纤交换机(可扩充到24口)构成核心的存储环境,以存储设备为中心,支持数据存储服务功能。通过光纤通道SAN的架构,4台应用服务器连接到磁盘阵列,每台服务器配备2块主机光纤通道适配器(Host Bus Adapter,HBA),构成服务器与阵列之间通道连接;同时配置EMC PowerPath软件,为主机通道实现负载均衡及故障切换,充分保障主机系统的高可用性(见图1)。
    [img]http://www.makingstoragesimple.com.cn/STOR_IMAGES/2005-07-17/4323.gif[/img]
        1.4 EMC2CX500存储系统的安装、调试过程
        1.4.1磁盘阵列配置
        Navisphere Manager是基于Java的代码,驻留在阵列上并向LAN或WAN上任何浏览器提供图形用户界面(GUI),通过Web方式进行远程管理为创建RAID Group、LUNS和Storage Group,然后把对各存储组成LUN的访问权限对应到各应用服务器上。在PC管理机浏览器地址栏中键入SP主机的IP地址,键入用户名和密码进行登陆(SP a、SP b的IP地址与PC管理机的IP地址为公司内容网络IP地址)。
        (1)建立RAID Group。根据存储系统磁盘的块数,把相应的磁盘按照一定的规则组织在一起,形成一个组。在磁盘处理器机箱内放置了8块146GB光纤通道磁盘,其中前7块磁盘采用了RAID 5磁盘冗余技术,第8块磁盘做主机热备磁盘使用,因此共建立2个RAID Group。RAID 1做为存储系统的数据盘,RAID 0做为主机热备磁盘(见表1)。
        (2)划分逻辑单元LUN(Logical Unit Number,LUN)。1个RAID Group最多可以划分128个LUNS;每个磁盘隈列最多可以支持1024个LUNS;每个LUN在同一时间只能被1个SP管理。4台应用服务器所需要的磁盘空间分别为120GB、180GB、100GB、380GB,另外1块200MB的磁盘空间做为PI实时数据服务器双机热备临时文件的存储磁盘空间(见表2)。
        (3)建立Storage Group。Storage Group能决定1个LUN可被哪些主机访问;1个Storage Group的LUN不能被其他Storage Group的主机访问,对LUN访问进行封装映射,控制LUN的访问权限。
        (4)添加LUN到Storage Group。把新建的5个LUN加入到新建的Storage Group组里。
        (5)加入主机到Storage Group组里(见表3)。具体过程参见图2。
    [img]http://www.makingstoragesimple.com.cn/STOR_IMAGES/2005-07-17/4324.gif[/img]
        1.4.2光纤交换机的配置
        (1)使用PC机(或笔记本)通过Console线与光纤交换机的Console口相连,打开浏览器,在地址栏中键入光纤交换机的内部IP地址(10.1.1.10),在登陆窗口输入用户名和口令即可登陆(使用webtools要求系统安装java插件1.3.1以上)。(2)在2台光纤交换机上分别建立Zone组,并向新建的Zone组里添加HBA卡成员。划分Zone组的目的是为减少数据包在光纤交换机内的广播,减少光纤交换机端口之间的干扰,提高设备访问速度及安全性。每块HBA卡都有唯一的WWN号,在应用服务器上安装HBA卡后,应用软件Navisphere agent把HBA卡的WWN号与应用服务器名称绑定后的信息传送到SP内。把LUN和Storage Group组进行对应,实际上就是把应用服务器的名称填加到Storage Group组里,从而保证了LUN的存储单元能被相应服务器访问。这样,根据10块HBA卡的WWN号在2台光纤交换机上分别建立10个Zone组,从而建立了HBA卡与交换机端口之间的访问对应关系。
        1.4.3 HBA卡驱动程序和应用软件安装配置
        (1)关闭各应用服务器电源,把HBA卡插入应用服务器内的PCI插槽内;打开各应用服务器的电源,为各应用服务器安装HBA卡驱动程序,简单设备后,重新启动应用服务器,HBA卡安装完成(每台应用服务器有2块HBA卡)。(2)通信软件Navisphere Agent和CLI安装。通信软件Navisphere agent和Naviphere cli全部采用默认安装,安装完成后在弹出的对话框中点击add添加特权用户,user id为system,system name为SP的IP地址。安装完成后agent服务自动启动,HBA卡自动与SP进行通信。(3)负载均衡软件Power path安装。负载均衡软件Power path采用默认安装,在弹出的license对话框中键入license的序列号,安装完成后,重新启动机器,安装完成。安装Power path应用软件,保障应用服务器上2条HBA卡与SP之间线路数据正常传输;负载均衡2条线路上数据;当一条线路故障时,把故障线路上将要传输的数据正确转移到另一条线路上去。
        1.4.4 逻辑盘的建立
        EMC2CX500存储系统各设备及应用软件安装、调试完成后,需要把划分的Storage Group与各应用服务器进行对应,从而保证各应用服务器访问LUN单元数据的正确性。通过Windows 2000操作系统的磁盘管理工具来启动新分配的磁盘驱动器,新分配的磁盘驱动器与本地磁盘驱动器一样,可对其进行任意磁盘大小的划分,划分后进行格式化即可使用。 
    展开全文
  • http://biz.chinabyte.com/128/2300128.shtml
  • 惠普(HP)公司最近推出了首款专用刀片存储系统——HP StorageWorks SB40c,为客户提供快速、高效的存储扩展,在IT基础设施内实现更大灵活性。  惠普公司还推出了两款HP StorageWorks Enterprise Virtual Array...
  • 为了确保基于存储区域网络(Storage Area Network,SAN)的异地容灾系统在主系统发生意外灾难后实现同城异地的数据容灾,采用SAN作为数据存储模式,通过光纤通道将生产数据中心和备份数据中心连接起来,使用跨阵列磁盘镜像...
  • HCNP-Storage_SSAM 第三章 SAN存储系统性能测试和调优 V1.0.ppt HCNP-Storage_SSAM 第二章 SAN可靠性 V1.0.ppt HCNP-Storage_SSAM 第五章 SAN存储系统故障诊断与排除 V1.1.pptx HCNP-Storage_SSAM 第八章 SAN...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 28,183
精华内容 11,273
关键字:

san存储系统