精华内容
下载资源
问答
  • 全息术:下一代存储技术
  • 文章经授权转载自中国电子报(ID:cena1984)眼下的存储市场正处于多种技术路线并行迭代的关键时期。一方面,应用极为广泛的DRAM和NAND Flash,是目前存储市...
        

    640?wx_fmt=gif


    文章经授权转载自中国电子报(ID:cena1984)


    640?wx_fmt=jpeg


    眼下的存储市场正处于多种技术路线并行迭代的关键时期。一方面,应用极为广泛的DRAM和NAND Flash,是目前存储市场上当之无愧的主流产品,但都面临制程持续微缩的物理极限挑战,未来持续提升性能与降低成本变得更加困难。另一方面,3D XPoint、MRAM(磁阻式随机存取存储器)、RRAM(可变电阻式存储器)等下一代存储技术加快开发并且进入市场应用,但尚未实现规模化与标准化,成本过高成为其入市的主要阻碍。下一代存储器何时方能实现规模化发展成为业界关注的焦点之一。


    2020年是市场机会点?


    3D XPoint、MRAM、RRAM等下一代存储器与DRAM相比,具有非易失性(不需加电后重新载入数据),以及更好的抗噪性能,与NAND闪存相比又具有写入速度更快、数据复写次数更高等优势,在DRAM和NAND Flash面临技术发展瓶颈的情况下,发展下一代存储器受到业界的普遍重视。为了抢占这一领域的技术优势,全球各大公司均投入大量人力和资源,持续开展前沿技术研发。然而,由于下一代存储器尚未规模化与标准化,因此成本较高,所以目前下一代存储器大多停留在少数特殊应用领域,量少价高,尚难大规模普及成为市场的主流。


    不过近日集邦咨询发布报告认为,下一代存储器有望于2020年打入市场。因为从市场面来看,当前的DRAM与NAND处于供过于求的状态,使得现有存储器价格维持在低点,这自然会导致用户采用新型存储器的意愿降低,不利于下一代存储技术进入和占领市场。但集邦咨询预测,随着超大规模数据中心的成长,将带动存储器需求增加,DRAM与NAND的价格有望在2020年止跌反弹。这将增加用户采用新型存储器的意愿,2020年也就有望成为下一代存储器切入市场一个良好的切入点。


    对此,集邦咨询资深协理吴雅婷表示,市场在未来的几年间,在特殊领域用户将逐渐增加对于下一代代存储器的考量与运用,下一代存储器有望成为现有存储解决方案的另一个新选项。下一代存储技术解决方案有机会打入市场。


    三巨头大举投入研发


    市场价格的涨跌只是下一代存储器快速发展的诱因之一,更主要的原因在于存储大厂对其的支持与开发。目前英特尔、美光、三星与台积电等半导体大厂皆已大举投入下一代存储器的开发。


    早在2006年英特尔即与美光联合成立了IM Flash Technologies公司,共同生产NAND闪存。该厂同时也在开发下一代存储器3D Xpoint,即目前英特尔重点推广的傲腾存储器。英特尔在其云计算解决方案中,将3D Xpoint和3D NAND整合在单一模块当中,作为HDD硬盘、3D NAND与DRAM内存之间的一个新的层级。由于傲腾硬盘的容量是DDR4内存的10倍,断电也不丢失数据,将增加存储系统的整体性能。英特尔中国研究院院长宋继强告诉记者:“将DRAM、NAND Flash和傲腾技术相结合,在缓存和DRAM存储之间插入第三层,填补内存层级上的空白,使存储结构间的过渡更加平滑,对于提高系统性能非常有利。


    三星虽然是全球最大的DRAM和NAND Flash厂商,但是对下一代存储器的开发同样非常积极。年初之时,三星便宣布已经开始大规模生产首款可商用的eMRAM产品。eMRAM采用基于FD-SOI的28nm工艺,在韩国器兴厂区率先进入大规模生产。三星计划年内开始生产1千兆的eMRAM测试芯片。


    三星代工市场副总裁Ryan Lee表示:“在克服新材料的复杂挑战后,我们推出了嵌入式非易失性存储器eMRAM技术,并通过eMRAM与现有成熟的逻辑技术相结合,三星晶圆代工继续扩大新兴的非易失存储器工艺产品组合,以满足客户和市场需求。


    台积电同样重视下一代存储器的开发。2017年台积电技术长孙元成首次透露,台积电已开始研发eMRAM和eRRAM,采用22nm制程。这是台积电应对物联网、移动设备、高速运算电脑和智能汽车等四领域所提供效能更快速和耗电更低的新存储器。台积电共同执行长刘德音日前在接受媒体采访时表示,台积电不排除收购一家存储器芯片公司,再次表达了对下一代存储技术的兴趣。


    中国大陆亦应提前布局


    全球三大半导体厂商同时关注下一代存储器的开发,表明了下一代存储器规模化发展的时期正在逐渐临近。中国大陆在发展存储器产业的道路上已经迈出第一步。2016年紫光集团与国家集成电路产业投资基金股份有限公司共同出资成立长江存储,重点发展3DNAND闪存技术。合肥长鑫公司于2016年宣布在合肥,重点生产DRAM存储器。


    中科院微电子所研究员霍宗亮指出,除了主流闪存技术的研发外,中国企业还需积极开展新型结构、材料、工艺集成的前瞻性研究,在下一代技术中拥有自主知识产权,为我国存储器产业的长期发展提供技术支撑。


    同时,有专家也指出,我国目前在新型存储产业投入较少,主要是科研院所进行研究,企业介入程度较低,产业化进程滞后;同时,新型存储器类型多,产业化进程各不相同,产业路径和模式还不明确。如何基于国内已有的技术和人才资源,合理进行专利战略谋划与布局,在新型存储时代逐步实现我国存储产业的自主可控是目前亟待解决的问题。


    640?wx_fmt=gif

    以上文章为转载,不代表本报观点

    640?wx_fmt=jpeg

    展开全文
  • 作者简介惠春阳, Intel 软件工程师, 主要从事SPDK开发和存储软件性能优化的工作。随着存储技术的发展,对存储性能的不懈追求,高性能存储开始探索向内存通道的迁移。在...
        

    作者简介

    惠春阳, Intel 软件工程师, 主要从事SPDK开发和存储软件性能优化的工作。

    随着存储技术的发展,对存储性能的不懈追求,高性能存储开始探索向内存通道的迁移。在这样的情况下, NVDIMM 技术便应运而生了。

    NVDIMM (Non-Volatile Dual In-Line Memory Module) 是一种可以随机访问的,非易失性内存, 又被称作PMem (Persistent Memory)。在之前的

    SPDK 在 17.10 中开始引入对于Pmem的支持。Pmem在SPDK的bdev层暴露为一个块设备, 使用快设备接口和上层进行通信。如图(1)所示。

    640?wx_fmt=png

    图(1)

    从图中我们可以看到libpmemblk 把块操作转换成了字节操作。它是怎么做到的呢? 在介绍libpmemblk 和 它背后的PMDK之前, 我们了解一下基础知识。

    mmap和DAX

    首先,我们来看传统的I/O方式, 即缓存I/O (Buffered I/O). 大多数操作系统默认的IO操作方式都是缓存IO。该机制使IO数据缓存在操作系统的page cache 中, 也就是说, 数据会被先拷贝到操作系统的内核空间的缓冲区中,然后才会从内核空间的缓冲区拷贝到指定的用户地址空间。

    640?wx_fmt=png

    图(2)

    在Linux 中, 这种访问文件的方式就是通过read/write 系统调用来实现,如图(2)。接下来, 我们比较一下内存映射IO mmap().

    接下来, 我们比较一下内存映射IO mmap().

    640?wx_fmt=png

    图(3)

    通过mmap获得了对应文件的一个指针,然后就像操作内存一样进行赋值或者做memcpy/strcpy.  这种我们称之为load/store操作(这种操作一般需要msync、fsync来落盘)。

    mmap因为建立了文件到用户空间的映射关系, 可以看作是把文件直接拷贝到用户空间,减少了一次数据拷贝。但是, mmap依然需要依靠page cache。

    640?wx_fmt=png

    图(4)

    讲完了mmap, 那么DAX是什么呢?DAX即direct access,这个特性是基于mmap的。而DAX的区别在于完全不需要page cache. 直接对存储设备访问。 所以它就是为了NVDIMM而生的。应用对于mmap的文件操作, 是直接同步到NVDIMM上的。DAX目前在XFS, EXT4, Windows的 NTFS 上都已经支持。需要注意的是, 使用这个模式, 要对应用程序或者文件系统进行修改。

    640?wx_fmt=png

    图(5)

    NVM Programming Model

    NVM Programming Model 大致定义了三种使用方式。

    640?wx_fmt=png

    图(6)

    1. 最左边Management 主要是通过driver提供的API对NVDIMM进行管理, 比如查看容量信息, 健康状态, 固件版本, 固件升级, 模式配置等等。

    2. 中间, 作为存储快设备使用, 使用支持NVDIMM driver 的文件系统和内核, 应用程序不用做任何修改,通过标准文件接口访问NVDIMM。

    3. 第三种, 基于文件系统的DAX特性,通过load/store操作,不需要page cache, 同步落盘。没有系统调用, 没有中断。这也是NVM Programming Model 的核心, 能够充分释放NVDIMM的性能优势。但它的缺点在于,应用程序可能需要做一下改变。

    PMDK

    libpmemblk 实现了一个驻留在pmem中的同样大小的块的数组。里面每个块对于突然掉电,程序崩溃等情况依然保持原子事务性。libpmemblk是基于libpmem库的。

    libpmem是PMDK中提供的一个更底层的库, 尤其是对于flush的支持。它能够追踪每次对pmem的store操作,并保证数据落盘为持久性数据。

    除此以外, PMDK 还提供了其他编程库, 比如libpmemobj, libpmemlog, libvmmalloc 等。感兴趣的同学可以访问http://pmem.io/pmdk/ 获取更多信息。

                     SPDK实战

    bdevperf测模拟NVDIMM性能

    (1) 创建一个虚拟的Pmem bdev

    ./configure --with-pmdk

    make

    PMDK 已经在一些新的Linux发行版中被引入。如果configure出错,请到https://github.com/pmem/pmdk 自行安装PMDK库。

    接下来, 我们可以通过SPDK RPC命令来建立一个pmem_pool。

    rpc.py create_pmem_pool /path/to/pmem_pool  <TotalSize (MB) >  <BlockSize>

    这里假设我们没有一个真正的NVDIMM做测试, 所以pmem_pool的路径就随便选择一个就好。比如:

    rpc.py create_pmem_pool /mnt/pmem  128  4096

    我们也可以用pmem_pool_info来获取创建pmem_pool的信息:

    rpc.py pmem_pool_info /path/to/pmem_pool

    或者,删除刚创建的pmem_pool:

    rpc.py delete_pmem_pool /path/to/pmem_pool

    然后, 我们在我们创建的pmem_pool上, 建立一个bdev块设备:

    rpc.py construct_pmem_bdev /path/to/pmem_pool -n pmem_bdev_name

    (2) 更新配置文件

    更改/path/to/spdk/test/bdev/bdev.conf.in, 只保留Pmem配置的部分。

    [Pmem]

    Blk <pmemblk pool file name> <bdev name>

    Example:

    [Pmem]

    Blk  /mnt/pmem-pool  pmem-bdev

    (3) bdevperf 测试

    ./bdevperf -c ../bdev.conf.in -q <iodepth> -t <time> -w <io pattern type: write|read|randwrite|randread>-o <io size in bytes>

    Example command:

    ./bdevperf -c ../bdev.conf.in -q 128 -t 100 -w write -o 4096

    ./bdevperf -c ../bdev.conf.in -q 1 -t 100 -w randwrite -o 4096

    结语

    至此, 对于NVDIMM硬件和软件上的不同, 大家都有了一个大致的认识。Intel 在2018年5月发布了基于3D XPoint™ 技术的Intel® Optane™ DC Persistent Memory, 引发了NVDIMM爆点。如果你对NVDIMM的用法很感兴趣,或者对于NVDIMM的应用有好的想法, 欢迎通过私信或者在评论区评论交流。希望大家继续关注NVDIMM和SPDK技术。

    640?wx_fmt=png

    640?wx_fmt=jpeg

     推荐阅读 


    640?wx_fmt=jpeg

    展开全文
  • 作者介绍惠春阳, Intel 软件工程师, 主要从事SPDK开发和存储软件性能优化的工作。随着存储技术的发展, 对存储性能的不懈追求, 高性能存储开始探索向内存通道的迁移...
        

    作者介绍

    惠春阳, Intel 软件工程师, 主要从事SPDK开发和存储软件性能优化的工作。

    随着存储技术的发展, 对存储性能的不懈追求, 高性能存储开始探索向内存通道的迁移。 在这样的情况下, NVDIMM 技术便应运而生了。

    NVDIMM (Non-Volatile Dual In-line Memory Module) 是一种可以随机访问的, 非易失性内存。非易失性内存指的是即使在不通电的情况下, 数据也不会消失。因此可以在计算机掉电 (unexpected power loss), 系统崩溃和正常关机的情况下, 依然保持数据。  NVDIMM 同时表明它使用的是 DIMM 封装, 与标准DIMM 插槽兼容, 并且通过标准的 DDR总线进行通信。考虑到它的非易失性, 并且兼容传统DRAM接口, 又被称作Persistent Memory。

    01

    种类

    目前, 根据 JEDEC 标准化组织的定义, 有三种NVDIMM 的实现。分别是:

    NVDIMM-N

    指在一个模块上同时放入传统 DRAM 和 flash 闪存。  计算机可以直接访问传统 DRAM。 支持按字节寻址, 也支持块寻址。通过使用一个小的后备电源,为在掉电时,  数据从DRAM 拷贝到闪存中提供足够的电能。当电力恢复时, 再重新加载到DRAM 中。

    640?wx_fmt=png

    图1 NVDIMM-N示意图

    NVDIMM-N 的主要工作方式其实和传统 DRAM是一样的。因此它的延迟也在10的1次方纳秒级。 而且它的容量, 受限于体积, 相比传统的 DRAM 也不会有什么提升。

    同时它的工作方式决定了它的 flash 部分是不可寻址的。而且同时使用两种介质的作法使成本急剧增加。 但是, NVDIMM-N 为业界提供了持久性内存的新概念。目前市面上已经有很多基于NVIMM-N的产品。

    NVDIMM-F

    指使用了 DRAM 的DDR3或者 DDR4 总线的flash闪存。我们知道由 NAND flash 作为介质的 SSD, 一般使用SATA, SAS 或者PCIe 总线。使用 DDR 总线可以提高最大带宽, 一定程度上减少协议带来的延迟和开销。 不过只支持块寻址。

    NVDIMM-F 的主要工作方式本质上和SSD是一样的。因此它的延迟在 10的1次方微秒级。它的容量也可以轻松达到 TB 以上。

    NVDIMM-P

    这是一个目前还没有发布的标准 (Under Development)。预计将与DDR5 标准一同发布。按照计划,DDR5将比DDR4提供双倍的带宽,并提高信道效率。这些改进,以及服务器和客户端平台的用户友好界面,将在各种应用程序中支持高性能和改进的电源管理。

    NVDIMM-P 实际上是真正 DRAM 和 flash 的混合。它既支持块寻址, 也支持类似传统 DRAM 的按字节寻址。 它既可以在容量上达到类似 NAND flash 的TB以上, 又能把延迟保持在10的2次方纳秒级。

    通过将数据介质直接连接至内存总线, CPU 可以直接访问数据, 无需任何驱动程序或 PCIe 开销。而且由于内存访问是通过64 字节的 cache line, CPU 只需要访问它需要的数据, 而不是像普通块设备那样每次要按块访问。

    Intel 公司在2018年5月发布了基于3D XPoint™ 技术的Intel® Optane™ DC Persistent Memory。可以认为是NVDIMM-P 的一种实现。

    640?wx_fmt=png

    图2  Intel® Optane™ DC Persistent Memory

    02

    硬件支持

    应用程序可以直接访问NVDIMM-P, 就像对于传统 DRAM那样。这也消除了在传统块设备和内存之间页交换的需要。但是, 向持久性内存里写数据是和向普通DRAM里写数据共享计算机资源的。包括处理器缓冲区, L1/L2缓存等。

    需要注意的是, 要使数据持久, 一定要保证数据写入了持久性内存设备, 或者写入了带有掉电保护的buffer。软件如果要充分利用持久性内存的特性, 指令集架构上至少需要以下支持:

    写的原子性

    表示对于持久性内存里任意大小的写都要保证是原子性的, 以防系统崩溃或者突然掉电。IA-32 和 IA-64 处理器保证了对缓存数据最大64位的数据访问 (对齐或者非对齐) 的写原子性。 因此, 软件可以安全地在持久性内存上更新数据。这样也带来了性能上的提升, 因为消除了copy-on-write 或者 write-ahead-logging 这种保证写原子性的开销。

    高效的缓存刷新(flushing)

    出于性能的考虑, 持久性内存的数据也要先放入处理器的缓存(cache)才能被访问。经过优化的缓存刷新指令减少了由于刷新 (CLFLUSH) 造成的性能影响。

    a. CLFLUSHOPT 提供了更加高效的缓存刷新指令

    b. CLWB (Cache Line Write Back) 指令把cache line上改变的数据写回内存 (类似CLFLUSHOPT), 但是无需让这条 cache line 转变成无效状态(invalid, MESI protocol), 而是转换成未改变的独占状态(Exclusive)。CLWB 指令实际上是在试图减少由于某条cache line刷新所造成的下次访问必然的cache miss。

    提交至持久性内存

    (Committing to Persistence)

    在现代计算机架构下, 缓存刷新的完成表明修改的数据已经被回写至内存子系统的写缓冲区。 但是此时数据并不具有持久性。为了确保数据写入持久性内存, 软件需要刷新易失性的写缓冲区或者在内存子系统的其他缓存。 新的用于持久性写的提交指令 PCOMMIT 可以把内存子系统写队列中的数据提交至持久性内存。

    非暂时store操作的优化

    (Non-temporal Store Optimization)

    当软件需要拷贝大量数据从普通内存到持久性内存中时(或在持久性内存之间拷贝), 可以使用弱顺序, 非暂时的store操作 (比如使用MOVNTI 指令)。 因为Non-temporal store指令可以隐式地使要回写的那条cache line 失效, 软件就不需要明确地flush cache line了(see Section 10.4.6.2. of Intel® 64 and IA-32 Architectures Software Developer’s Manual, Volume 1)。

    03

    总结

    本期我们介绍了NVDIMM 的几种实现方式, 以及为了发挥NVDIMM-P 的性能所做的硬件上的优化和支持。后面我们会继续介绍软件方面的支持, 包括编程模型, 编程库, SPDK方面的支持等。敬请期待。

    参考文献

    [1] Intel® Architecture Instruction Set Extensions Programming Reference

    [2] JEDEC 

    https://www.jedec.org/category/technology-focus-area/main-memory-ddr3-ddr4-sdram  

    [2] The SSD Guy 

    https://thessdguy.com/

    [3] Wikipedia 

    https://www.wikipedia.org/

     推荐阅读 

    送!京东电子卡

    活动规则带文字本文转发至朋友圈,并将截图至公众号后台,小编将随机抽取四位幸运读者

    一等奖1名,送50元京东电子卡

    二等奖1名,送30元京东电子卡

    三等奖2名,送10元京东电子卡

    领取方式:后台发送卡号及卡密。

    640?wx_fmt=jpeg

    展开全文
  •  新一代存储技术显现  “多、快、省”特点  MRAM是一种非易失性磁性随机存储器。它拥有静态随机存储器(SRAM)的高速读取写入能力及动态随机存储器(DRAM)的高集成度,基本上可以无限次重复写入。其设计原理...
  • 随着互联网技术的快速发展,数据的爆炸式增长,存储系统的软硬件紧耦合设计严重地限制了存储技术的发展,也越来越无法满足移动互联网和大数据时代,对存储系统快速、多变的需求。软件定义存储(SDS)作为一种新的...
  • 此外,不同的应用对闪存的要求都不相同,如引导代码存储需要高可靠性、应用程序存储需要高读写性能、数据日志记录需要擦写次数、海量数据存储需要高密度……"在日前举办的第三届中国国际医疗电子技术大会(CMET2010...
  • 1 下一代存储系统简介 1.1云存储系统简介 信息处理技术、互联网技术、云计算技术的诞生与成长对各行各业产生着潜移默化的影响。互联网时代,数据采集手段纷繁复杂,形态五花八门,半结构化与非结构化数据体量...

    1 下一代云存储系统简介

    1.1云存储系统简介

    信息处理技术、互联网技术、云计算技术的诞生与成长对各行各业产生着潜移默化的影响。互联网时代,数据采集手段纷繁复杂,形态五花八门,半结构化与非结构化数据体量日趋增大,传统的储架构已经逐渐显现出自身的固有局限。

    在传统数据中心中,以OLTP和OLAP为代表的数据库应用占据了昂贵但又低效率的在线存储设施,交易记录、分析性数据则消耗了大量的后端存储空间。异构的存储设备难以应对大数据浪潮带来需求浪潮,无法及时利用数据支撑业务决策,并在“大、智、云、移”的时代提供多样化服务。

    下一代云存储系统融合分布式存储技术,利用标准化硬件设施构造存储池,虚拟化已有存储设施空间,互联互通,打破数据调度壁垒;在统一的系统下提供了对象、块、和文件存储服务;并且具有可靠性高、管理简便的优点。同时,下一代云存储系统具有灵活的扩展性,能够提供PB到乃至EB级的存储能力。

    1.2云存储系统设计目标

    下一代云存储系统从行业切实需求出发,面向数据中心私有云场景,实现大规模、大容量的存储资源池,整合替代现有存储设施,支撑各类OLTP或OLAP业务应用。为了能够对各类决策支撑系统、研发测试系统提供有效支撑;突破随机访问海量数据的性能瓶颈;解决数据安全性、存储平滑扩容的问题,下一代云存储系统在规划建设过程中具有以下几点目标:

    1.高性能

    下一代云存储系统首先需要有能力提供足够的性能,能够覆盖到用户大部分业务需求,满足高并发或大量的业务数据分析等需求。

    2.高可用性

    下一代云存储系统需要满足更高要求的高可用性。存储和数据高可靠性是业务活动连续开展的基础支撑。在存储发生故障时候,有相应的高可用机制来支撑和保障数据的自动恢复和动态迁移。

    3.资源动态扩展

    下一代云存储系统能够支撑资源的动态伸缩以及资源池的动态扩展,能够按需分配,弹性扩展。在系统扩容的时候,能够做到性能和容量的线性扩展,避免资源的浪费。

    4.服务、接口的多样性

    下一代云存储系统能够提供多样的存储服务,包括块设备服务来满足数据库类型的存储要求;文件系统、对象等存储服务来满足半结构化数据和非结构化数据的存储要求。因此,这就要求存储能够提供丰富的标准接口,包括文件系统接口(NFS、CIFS)、块接口(iSCIS、FC)或者对象接口(S3、SWIFT)以及对内能够提供标准的管理接口。

    5.高可管理性

    下一代云存储系统在日常部署、管理、监控的环节能够实现自动化和可视化,提高存储资源服务的可管理性,包括资源分配、资源监控、故障告警等多方面的内容,提高运维管理人员的管理效率;并且逐步支持智能化的采集和分析,高效地利用现有资源,包括对存储IOPS、存储吞吐量以及存储容量的使用进行动态的监测和预测,方便管理人员对存储现有情况进行了解和及时对未来存储的扩容进行规划。

    2 下一代云存储系统架构

    2.1云存储系统总体方案架构

    下一代云存储系统的核心是统一管理存储资源,面向云平台,提供多样化的数据服务。下一代云存储系统将应用与底层存储解耦,不依赖于传统设备和应用厂商的绑定。在未来数据中心全面转型,整体上云的过程中,实现存储与计算、网络资源的联动,顺应数据价值链向服务转移。

    图 2-1 下一代云存储系统架构示意图

    下一代云存储系统主要由基于分布式架构的软件定义存储系统和轻量化异构存储统一管理组件构成。

    基于分布式架构的软件定义存储运行在标准的X86服务器之上,利用虚拟化技术,将集群中的存储资源虚拟化为存储池,并向上提供块设备、文件和对象存储服务。同时,软件定义存储具有高性能,能够轻松应对各类高负载管理的要求,其中包括业务关键型应用与核心业务系统;多副本及强一致性技术的应用提供高可用特性;极强的横向扩展能力则为业务扩张带来的管理维护提供了极大的灵活性和便利。

    轻量化异构存储统一管理组件实现了分布式存储和集中式存储的统一自动化管理,分布式软件定义存储通过面向存储统一管理组件开放存储系统的控制接口,实现存储系统的监控与运维。通过开放的接口,异构存储统一管理组件可以实现分布式存储系统的资源划分与服务编排,并对集中式存储设备划分基于不同QoS策略的虚拟卷服务于云平台,实现与计算、网络的联动。

    2.2系统组件及功能

    2.2.1基于分布式架构的软件定义存储系统

    基于分布式架构的软件定义存储技术集中提供包括对象、块、和文件在内的多种存储服务,并且具有可靠性高、管理简便的优点,并且具有灵活的扩展性,能够提供PB到乃至EB级的存储能力。

    基于分布式架构的软件定义存储技术把所有服务器的硬盘虚拟化成为若干个资源池,提供虚拟卷的创建/删除和快照等功能,提供北向虚拟卷形式的存储服务。

    软件定义存储系统分为硬件设备层、引擎驱动层、特性功能层、服务接口层以及监控管理层五个层面,具体的功能架构图如下所示:

    图 2-2 软件定义存储系统层级示意图

    1.硬件设备层

    基于分布式架构的软件定义存储系统通基于标准的X86服务器,配以不同的磁盘介质,包括传统的机械磁盘HDD、SATA-SSD以及PCIE-SSD等,来提供不同等级的IOPS和带宽等服务性能,同时10GE网卡的广泛应用也让系统在传输和重建过程中具有更快的速度。

    2.驱动引擎层

    基于分布式架构的软件定义存储系统采用分布式算法(例如CRUSH、DHT等)将数据趋近于随机的分散于集群中的所有磁盘中,避免了数据存储热点的产生。数据的存放通过多副本提供高可用性,每个副本分散于不同的服务器上,并且根据业务需求能够遵循强一致性。单个硬盘或节点的故障不影响业务的连续性,一旦发生故障,系统会自动重建。

    3.特性功能层

    基于分布式架构的软件定义存储系统能够实现精简配置,即支持提前划分存储卷的大小,但是加分配时按照数据写入的规模自动增长,节省可用存储空间。在卷级层面可以实现实时QoS,调整附加在卷上的限制属性,同时为了业务的需要,系统也支持在线扩容和缩容,保证其他卷能够获取足够的空间。除此之外,还有快照、容灾、备份等功能。

    4.服务接口层

    基于分布式的软件定义存储系统能够提供多样化的存储服务,支持基于开放Linux平台的SCSI设备输出,支持iSCSI接口协议,支持FC接口协议和基于FC的硬件。

    5.运维管理层

    基于分布式架构的软件定义存储系统能够通过向用户提供可视化交互界面来完成系统的自动化配置、在线升级、告警、监控和日志等功能。包括系统日志和操作日志。系统日志记录重要的系统事件,操作日志记录操作员行为,便于排错、审计以及跟踪。

    2.2.2轻量化异构存储统一管理组件

    轻量化异构存储统一管理组件基于Openstack Cinder组件,实现了对后端存储资源的统一管理,来提供业务驱动、自动化的数据服务。轻量化异构存储统一管理组件将应用与底层存储解耦,解除设备厂商的绑定,打破异构存储设备之间的壁垒,将存储功能应用化,支持文件、块、对象等类型存储资源分配服务。

    在云计算应用场景下,从租户的角度看来,将不同架构的存储封装起来,无论是传统的集中式存储还是分布式存储都进行统一管理并向上提供服务。

    图 2-3轻量化异构存储统一管理组件架构示意图

    轻量化异构存储统一管理组件向下可以将各设备中可提供相同能力的存储资源聚集起来,进行统一管理。这一功能基于Openstack的Cinder组件,通过不同存储厂商提供的面向OpenStack的Cinder的驱动来获取不同存储设备的基本信息,包括磁盘类型、空间大小、服务能力等。在获取不同的存储设备信息之后,将性能、服务相近的存储设备进行编排、分组,以供后续使用。

    轻量化异构存储统一管理组件可以实现业务部署自动化、运维监控智能化。其中,业务部署自动化是指支持运维人员编辑保存服务模板,目的是为了简化创建调用存储的流程。在申请存储资源的过程中,仅需要输入存储容量和卷的数量即可完成资源的申请,统一管理组件会根据事先编排好的模板自动调用不同模块来完成具体工作。同时该组件也支持运维监控的智能化,即针对不同的存储池,不同的虚拟卷,都能够实时监控性能与故障,对存储卷进行有效性、空间、数据可用性等方面进行的监控管理;支持在存储系统的各级软硬件产生故障时,由控制台向管理员告警提示;支持卷级的QoS编排,保证不同租户之间的服务质量。

    轻量化异构存储统一管理组件北向通过REST接口与虚拟化平台或者容器云平台完成兼容,实现存储资源服务的统一发放。OpenStack的不同组件如Cinder、Nova等与异构存储管理组件,完成卷的划分与挂载,实现云硬盘的分配或者虚拟机实例创建在云硬盘中;Kubernets中Persist Volume 存储系统则通过Cinder提供的插件,实现应用和服务的状态保存。

    3 下一代云存储系统特性

    3.1高性能

    下一代云存储系统基于主流的开源分布式存储技术以及开源云平台中的存储管理模块,充分满足国内企业自主可控的要求。下一代云存储系统能够胜任高并发、高效率的需求,与主流NVMe闪存相结合,突破单点性能瓶颈,适应多种场景需求。

    3.1.1 I/O并行提升性能

    下一代云存储系统提供了类似于条带化技术的并行I/O功能,满足支持业务开展的高性能需求。独立存储设备的吞吐量限制,极大影响了存储的性能和伸缩性,所以存储系统一般都支持把连续的信息分片存储于多个设备以增加吞吐量和性能。在下一代云存储系统中,数据会均匀分布到存储池中所有的硬盘上。当某台应用服务器进行读写时,集群中所有的节点都会对其提供服务,这样能很好地保证IO并发。

    3.1.2闪存的应用与分级存储

    下一代云存储系统支持各类接口闪存介质,通过闪存介质的使用,来提供高性能的IO。当前闪存存储开始进入开始逐渐进入数据中心市场,如表3-1所示,闪存相比HHD具有如下差别:

    表 3-1 闪存与HDD特性对比

    固态闪存SSD作为新的存储技术,相比HDD具有超快的数据访问速度,随机数据访问速度比HDD快100多倍,响应时间从毫秒级缩短到亚毫秒级(0.1ms),将IOPS从HDD的200-300提升至数万。SSD的高性能充分满足了存储系统I/O负荷瓶颈带来的困扰。

    SSD在下一代云存储系统中的应用有两种不同的方式,均能提升性能,一是作为读写缓存,二是作为数据盘直接存储数据。

    在第一种情况下,下一代云存储系统采用缓存算法对热点数据进行优化,使热点数据尽可能驻留在高速闪存存储上,以提升系统性能;而对于访问不频繁的数据则从高速存储中迁移到低速机械磁盘做持久化存储。这种方式对于大量读取场景下的业务系统具有较大的提升;或者将高速存储设备作为全局缓存,数据先写入高速存储中,在适当的时机再将数据同步入后端存储中,这种方式同样可以在满足性能要求的前提下明显降低存储成本。

    图 3-1 下一代云存储系统的多级缓存

    面对对性能有强烈需求的业务场景,第二种全闪存模式能够大幅度增强对各类高要求负载的管理,其中包括业务关键型应用、核心业务系统等等。这种情况下,可以充分发挥闪存存储的高性能读写,但是成本较高。

    3.2高可靠性

    3.2.1数据多副本存储

    下一代云存储系统采取多副本备份机制替换传统的RAID模式来保证核心数据的完整性。同一个数据,在系统的不同节点的不同磁盘上会有大于等于三个副本的存储,这样,当节点或者磁盘产生故障的时候,数据可以从冗余的副本中读取并恢复。同时所有的数据均匀的分布在所有的节点上以达到负载均衡的效果,避免局部热点的出现。在下一代云存储系统具体部署时,所有的副本采取跨机架同步分布策略,确保单一机架掉电后的数据可用性。

    3.2.2保持数据一致

    下一代云存储系统支持强一致性和最终一致性两种模型,面向不同的业务场景需求。保证租户成功写入一份数据时,几个副本都保持一致,在读取数据时,无论从任何一个副本上进行,都能够保证取到最新的、可用的数据。强一致性情况下,保证对副本的读写操作会产生交集,从而保证可以读取到最新版本;无论更新操作实在哪一个副本执行,之后所有的读操作都要能获得最新的数据。最终一致性情况下,保证用户最终能够读取到某操作对系统特定数据的更新,针对的是读写都比较频繁的场景,是一个比较折中的策略。

    3.2.3服务质量保证(QoS)

    无论任何行业,业务的连续性与高质量是主流需求,下一代云存储系统提供了多种场景下的服务质量保证手段:

    1、提供面向卷级的服务器访问QoS,充分避免非关键应用占用过多带宽;

    2、在数据较长时间处于不一致的状态时,自动触发数据重建,在此过程中支持QoS,保证重建过程中占用过多带宽,避免影响关键业务的稳定运行。

    3.2.4副本安全边界

    规模庞大的分布式系统,必须考虑多故障的安全隐患,以统计学的规律和概率分布来看,磁盘数量越多,磁盘发生故障的概率越大,甚至几个磁盘同时发生故障。不断的故障会造成系统大部分资源都用于数据重建,影响业务的稳定运行。因此,下一代云存储系统中,为保证系统达到预期的可靠性目标,必须在保证高并发的前提下,尽量缩小副本分布的磁盘范围,即设定安全边界,以防止数据丢失的风险陡然上升。

    副本安全边界有两种模式,一是基于池级的安全边界管理,设定存储池最大跨越的磁盘数量;二是基于卷级的安全边界管理,即设定虚拟卷最大跨越的磁盘数量。

    3.3可扩展性

    下一代云存储系统支持大规模扩展,最低三节点,直至上千节点,随着存储设备数量的增长,整个系统的吞吐量和IOPS等性能指标也同时会随之增长。并且容量和性能呈线性扩展。一旦需求有所变化,即可通过模块化的方式添加更多的存储资源和计算资源。在扩容和缩容的过程中间,分布式算法保证了数据的负载均衡,结合自动的QoS策略,在用户无感知的情况下,保证不会与现有业务产生影响,保障系统的稳定运行。

    图 3-2下一代云存储系统的横向扩展

    3.4易管理性

    3.4.1兼容第三方管理监控接口

    业界主流Web管理界面主要包括SOAP和REST标准,其中后者架构更为轻便,新生系统多采用后者。VMware体系至今仍以SOAP标准为主,而面向OpenStack的接口则遵循REST标准。下一代云存储系统所提供的接口能够兼容这两种标准。

    3.4.2虚拟化和私有云应用支持

    下一代云存储系统支持主流操作系统,可以部署在RedHat、SUSE、CentOS以及Ubuntu上。虚拟化平台则支持VMware、Hyper-V以及KVM等。支持通过RESTful API标准接口与OpenStack 的Cinder组件和SWFIT组件进行交互,向私有云应用提供存储支持。

    3.5高级功能

    3.5.1自动精简配置

    下一代云存储系统支持自动精简配置功能,在创建逻辑卷时,并不真实占用实际物理资源,而是在逻辑卷使用过程中,按需实时分配实际物理空间资源,节约了存储资源,简化了存储规划难度。在存储系统的使用过程中,租户在资源申请阶段往往无法准确预估在业务广泛展开后的具体需求,因而会多申请部分的存储空间作为缓冲,而这部分资源往往无法做到物尽其用,存在了大量的浪费现象。在实际使用中,可以设置容量阈值,当剩余存储容量低于阈值时,进行提示。

    图 3-3 下一代云存储精简配置

    3.5.2卷级快照和链接克隆

    下一代云存储系统提供卷级的快照功能,进行增量备份,并能根据需要快速恢复到每一个备份点,对业务中断后提供快速的恢复功能保证,加强系统整体的连续性,提供了业务质量保证的手段与方法。

    同时此系统还支持链接克隆的机制,基于一个快照创建出多个克隆卷,创建出来的克隆卷与原始卷中的数据内容一致,克隆卷的修改不会影响原始卷,用户既可以通过快照来还原卷以恢复丢失的数据,也可以从快照来创建模板,直接启动新的虚拟机以保证业务的连续性。

    图 3-4下一代云存储系统采用增量快照

    3.5.3全局负载均衡

    下一代云存储系统采用的分布式架构使得数据的IO操作均匀分布在不同服务器的不同硬盘上,避免了局部热点的出现,实现全局的负载均衡。

    系统将数据块打散存放在不同服务器的不同硬盘上,冷热不均的数据均匀分布在不同的服务器上,不会出现集中的热点;数据的分配算法保证主副本与其余副本在不同服务器和不同硬盘上均匀分布;同时,在节点或者硬盘故障时,在数据重建的过程中,也实现全局负载均衡。

    4 下一代云存储系统部署方案

    4.1部署拓扑

    数据中心内部系统的核心要求是“稳定可靠”,一是指系统在运行过程中有能力提供连续可靠的服务,长时间无故障运行;二是指当故障发生之后,有能力快速定位,及时排查,故障范围不蔓延。

    分离式部署的方式,使得系统与云平台系统相独立,避免了计算和存储争抢CPU/内存/网络等物理资源,一旦某一方资源需求骤升导致的另一方资源枯竭,从而影响性能并在整个基础架构中产生的涟漪效应;和在超融合部署方式在集群规模较大后,网络、硬盘、服务器发生故障的概率都会增大;以及数据重删、压缩、加密纠删码等功能、故障的自修复和数据功能实现都会消耗一定的系统资源,导致性能下降和抖动等问题。

    分离式部署相比超融合方式的优点:

    表4-1分离式部署与超融合的对比

    从业务稳定、系统可靠的角度出发,下一代云存储系统采用分离式部署的方式,即存储系统服务器独立于计算资源服务器。这一部署方式使得存储与计算相独立,因而两者之间的故障不会相互影响,易于后期运维故障排查;并且计算与存储的配比可以根据业务场景的需求自行调配,灵活程度高,如果需要扩展资源的话,也可以单独对存储进行扩展;同时,计算与存储分层管理,也清晰了管理权限。具体部署架构如下所示:

    图4-1下一代云存储系统物理部署方案

    其中,存储管理节点需要在两个以上的节点上部署以保证高可用,同样,轻量化异构存储统一管理组件也需要在两个节点上进行部署来提供高可用。

    4.2硬件规格

    下一代云存储系统基于标准的X86服务器,软硬件解耦,解除厂商绑定,支持设备利旧,保护历史投资。下一代云存储系统对硬件平台具有如下基本要求:

    1.运行在标准的X86服务器上;

    2.基于分布式架构的软件定义存储系统集群内部服务器硬盘数量必须一致;

    3.软件定义存储正常运行需要占用单个服务器的处理器的核心数量需大于

    4+N(N是硬盘个数,一个硬盘对应一个核心),例如:单个服务器5个硬盘,共计需要4+5=9个核心,则服务器需配置12核处理器;轻量化异构存储统一管理服务需要8核以上的处理器;

    4.软件定义存储正常运行的服务器的物理内存需满足如下条件:

    大于10GB +(N*2GB)(N是服务器上所有硬盘总计存储容量,单位TB),例如:单个服务器5个硬盘,每个硬盘4TB,则共计需要10GB+20GB*2=40GB,服务器需要配置64GB物理内存;轻量化异构存储统一管理服务需要16GB以上的物理内存;一般情况下,随着内存容量的增大,性能也会越好;

    5.分布式架构的存储集群性能很大程度上取决于存储介质的有效选择。下一代云存储系统内部服务器须有板载PCIe插槽,支持使用快速的SSD硬盘作为缓存来为HDD加速,或者直接采用全闪存架构。使用SSD作为缓存加速的场景下,通常建议一个SSD对应3~4块HDD。使用PCIe/NVMe SSD作为缓存加速的场景下,通常建议一个SSD对应8~10块HDD。

    6.服务器需要四个网口支持双平面,并且两两绑定(配置网口聚合(Bond),模式为802.3ad(Bond模式为4),此模式提供了容错性,提供高网络连接的可用,同时提供了相当的性能。具体的存储平面带宽要求不低于10Gbps。

    4.3组网方案及网络规划

    由于数据的机密性与敏感性,业务相互之间的隔离对于在数据中心内部非常重要。在数据中心内部,数据的访问需要受到严格控制,必须进行业务与管理的网络相互隔离。管理网段与租户网络三层互通,租户通过管理网段访问下一代云存储系统的Portal界面并下发增、删、检、查等管理指令;业务网段则负责业务数据的传输,当存储空间以卷的形式通过业务网段挂载给前端业务系统,并在此网段上提供服务。

    按照分布式存储的范式,下一代云存储系统的管理和业务分属两个网段,互相独立,互不影响,数据传输只在业务网段上进行,管理与业务通过服务器通信,无法通过网络互访。

    图4-2下一代云存储系统网络拓扑示意图

    在业务网段上,规划每个服务器由两根网线分别连接到两台交换机。在管理网段上,规划每个服务器由两根网线分别连接两台交换机。通过节点级的双网卡主备以及集群级的交换机主备来提供网络高可靠性。两个网段使用独立的物理网卡进行隔离,在条件不满足的情况下使用不同VLAN隔离。

    依据木桶效应,一个系统的整体性能上限往往是由系统中的薄弱环节决定。当集群采用混合存储的配置时,标准的10Gbps高速网络能够满足相当规模的集群在负载均衡、数据重建时的压力;然而,当集群采用全闪存架构时,硬盘性能将大幅提升,此时标准的10Gbps网络有可能会成为系统中的短板,56 Gbps InfiniBand网络乃至更高速的100 Gbps网络,近似无阻塞通信,突破存储系统内部交换的瓶颈。在InfiniBand网络中,通信时延控制于纳秒级,计算存储信息及时传递,配合SSD的高速读写,具有可观的性能。

    5 下一代云存储系统应用场景

    5.1下一代云存储系统和虚拟化平台

    OpenStack提供标准的API接口来管理整个底层架构资源。OpenStack 提供块设备存储服务的组件Cinder,本质上是一个资源管理组件,将后端不同的存储设备进行封装,向外提供统一的API,本质上并不是一个存储系统,而是使用插件的方式,结合不同后端存储的驱动提供存储服务,核心是对卷的各种操作与管理。包括通过虚拟卷的方式为虚拟机提供云硬盘,或者可以用于存储并启动虚拟机实例。在虚拟机的各个生命周期中,具体能够实现如下几种操作:

    1、在创建虚拟机的时候,需要对卷进行创建和挂载操作;

    2、在使用虚拟机的时候,需要对卷进行扩展、备份操作;

    3、在删除虚拟机的时候需要对卷进行分离、删除操作。

    通过Cinder组件,用户可以方便、高效地管理虚拟机数据。下图展示了Cinder组件使用后端存储的示意图。计算虚拟化组件Nova与存储管理组件Cinder之间通过RabbitMQ消息队列进行通信。:

    具体的调用流程如下:

    1、用户通过页面或者命令行发出存储管理请求,并通过Cinder-API发出;

    2、Cinder-API通过RabbitMQ消息队列将此消息加入Cinder-scheduler中,依次进行调度;

    3、Cinder-scheduler通过RabbitMQ消息队列与Cinder-Volume通信,将创建、挂载等卷管理请求进行传递;

    4、Cinder-volume收到存储资源请求之后,向后端的下一代云存储系统通信,进行操作,执行请求。

    自此,完成了用户的一个存储资源管理操作请求

    图5-1下一代云存储系统在OpenStack中的应用

    5.2下一代云存储系统与容器云平台

    容器虚拟化技术已经成为一种被大家广泛认可的服务器资源共享方式,容器技术可以在按需构建容器技术操作系统实例的过程当中为系统管理员提供极大的灵活性。容器技术为应用程序提供了隔离的运行空间,每个容器内都包含一个独享的完整用户环境空间,并且一个容器内的变动不会影响其他容器的运行环境。

    下一代云存储系统通过容器引擎卷插件或者编排调度的API接受北向的创建、删除、加载、卸载和迁移数据卷等实际的存储操作请求,并传递给底层的数据平面去实现。Kubernetes作为其集群管理工具,基于其插件化的设计,将有状态的数据保存在以 Persistent Volume(PV)为基础的存储系统。

     

    转自:http://stor.51cto.com/art/201711/556003.htm

    展开全文
  • 而传统存储技术相对滞后的发展速度显然已经很难满足现实的需求,市场急需新一代存储技术的出现。  当前在下一代存储芯片的研发当中,除了Intel、镁光基于PCM相变存储技术研发的3DXPoint芯片之外,最知名的恐怕就是...
  • 在日前举办的第三届中国国际医疗电子技术大会(CMET2010)上,恒忆嵌入式系统事业部亚洲市场部业务拓展经理祁峰为我们带来了医疗应用市场对闪存的要求以及恒忆存储器技术的介绍。
  • 10月27日,2017中国计算机大会(CNCC2017) 技术论坛“下一代数据中心存储技术与系统”在福州举行。围绕论坛主题,众多学术界顶尖学者与企业界重磅嘉宾现场对新型存储器件、多核服务器、高速网络等新硬件的发展以及...
  • 超级内存NVDIMM:下一代数据中心存储关键技术 1.背景介绍 连接到互联网的设备数量不断增长,到2015年,将达到150亿之多。而数据中心的压力也随之增加,唯有采用新的技术才能进一步提升其效率和性能。 相比于HDD...
  • 全球最大的纯闪存解决方案供应商Spansion日前宣布计划开发下一代数据存储产品系列,MirrorBit:registered: ORNAND:trade_mark:架构。基于Spansion专有电荷捕获技术的新型MirrorBit ORNAND2:trade_mark:架构将在连接...
  • 1.前言 为什么要使用集中存储?使用集中存储有个很大的优势是数据安全和统一管理,和集群完美配合。产品集成存储经历过几个阶段: 1....集群节点使用集中存储(其背后可以是单一存储也可以是分...
  • UFS--新一代高速存储

    2020-04-28 05:22:29
    下一代存储技术介绍-UFSUFSUniversal Flash Storage,即就是UFS。此内存扩展标准是UFSHCI标准JESD223的扩展。UFSHCI标准定义了UFS驱动程序和UFS主机控制器之间的接口。除寄存器接口外,它还定义了系统内存中的数据...
  • 高性能硬件的快速发展,诸如多核 CPU 、高带网络、高性能 SSD以及各种智能芯片,为新一代性能型全闪 SDS 提供了发展机遇,裸金属云存储应运而生。全闪 SDS 基于全用户态设计(kernel bypass)、polling 模型、专核...
  • 【51CTO.com综合消息】随着三项新兴的关键软件技术的出现,传统的IT数据保护模式逐渐被人们摒弃,取而代之的是下一代数据保护(next-generation data protection,NGDP)方法。这三项技术是数据缩减、虚拟磁带库(VTL...
  • 为了弄清楚这一点,我们调查了 648 名中小企业的 IT 专业人员,询问他们有关当前容器的使用情况,用户对容器技术的具体需求,以及到底是什么阻挡了公司进行更大规模的部署?得到的答案非常具有启发性: 你认为通过...
  • 名叫忆阻器的下一代存储技术在惠普科学家的努力下有了一个小的突破。忆阻器,有人认为 它极有可能是今日被广泛使用的Flash和DRAM技术的替代品。在周一发布的杂志《纳米技术》一页中,科学家报告,他们已经绘制出了...
  • 作为社交巨头,Facebook数据增长的速度可想而知,因此,在选择了适合的技术后,他们还必须根据业务需求、数据增长情况等不停的优化,因此就有了之前的WebScaleSQL。而本次我们要说的是该公司HBase内部衍生版本...
  • 我们-SSCC技术团队成员(不好意思,我们可能是一个中本聪)认为一波数字交易市场的牛市必须靠实实在在,能落地、有基本技术面和估值模型的项目支撑才有价值,靠讲故事空气币的时代已经一去不返了。 Spatial sto...
  • 近些年,随着NVME闪存等存储技术的发展,单存储设备IO带宽已达到GB/S,延迟降低至微秒数量级,而下一代内存级非易事存储介质如Intel 3D XPoint将进一步提升存储介质性能。从整体上看,数据中心已经由传统的机械硬盘...
  • 点击上方关注我们!华为全联接2020已落帷幕,作为全程参与大会报道的记者,从聆听专家演讲到现场参观技术展台,我从华为提出的新战略中感受到了新的变化。五年来,从提出“智能社会”愿景到发布...
  • 基于分布式存储人工智能的下一代医疗区块链系统搭建的商业计划书 项目背景 国务院印发新一代人工智能发展规划规划明确到2020年人工智能总体技术和应用与世界先进水平同步到2025年人工智能基础理论实现重大突破部分...
  • 著名的木桶效应告诉我们:“一只水桶能盛多少水取决于最短的那块木板”。在企业纷纷走上数字化转型的过程中,底层支撑的IT基础设施服务能否跟得上企业发展的节奏是关键。过去几年,计算能力通过...除此之外,下一代...
  • 随着云计算、大数据、区块链的快速发展,带动了数据的爆发式增长,并且对数据存储、计算提出了新的需求,传统的存储方式已经无法满足现阶段企业的发展,数据存储逐渐向去中心化、分布式方向发展,区块链技术正在影响...
  • 过去几年,计算能力通过 GPU、FPGA 等硬件发生了巨大的突破,存储性能也随着 SSD 固态硬盘的普及大幅提升,作为 IT 基础架构重要组成部分的网络如何利用 SDN、IPv6 等技术进行改革,才能避免成为阻碍企业数字化转型...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 635
精华内容 254
关键字:

下一代存储技术