精华内容
下载资源
问答
  • nvmeUbuntu上使用

    千次阅读 2019-10-13 02:04:16
    设备一般是/dev/sdc 然后lsblk,然后按下面来 https://www.cnblogs.com/okgogo2000/p/9086666.html

    设备一般是/dev/sdc

    然后lsblk,然后按下面来

    https://www.cnblogs.com/okgogo2000/p/9086666.html

    展开全文
  • 关于nvmeubuntu无法识别硬盘的问题

    千次阅读 2018-11-15 21:58:00
    本人用的电脑是外星人15,之前一直用legency启动,直到重装了下系统,并设为uefi启动,在这之后,在安装ubuntu的时候就识别不出固态硬盘了,,,我换了deepin和fedora都失败了,在选择安装位置的时候,尽管我已经给...

    本人用的电脑是外星人15,之前一直用legency启动,直到重装了下系统,并设为uefi启动,在这之后,在安装ubuntu的时候就识别不出固态硬盘了,,,我换了deepin和fedora都失败了,在选择安装位置的时候,尽管我已经给ubuntu在固态中准备了100G空间,但是它压根连这个盘都读不出来,请问下可爱的吧友大大们这个问题怎么解决呀

    转载于:https://www.cnblogs.com/ronnielee/p/9966367.html

    展开全文
  • nvme ssd在ubuntu16.04上的使用

    千次阅读 2019-10-08 16:00:12
    重新再用 Ubuntu 的 installer 開起來找問題, dmesg 的最後面其實是有偵測到 NVMe 的訊息,但是遇到 APST(Autonomous Power State Transitions)的錯誤訊息,導致 device node 沒有成功出現。用這段錯誤訊息在網路上...

    重新再用 Ubuntu 的 installer 開起來找問題, dmesg 的最後面其實是有偵測到 NVMe 的訊息,但是遇到 APST(Autonomous Power State Transitions)的錯誤訊息,導致 device node 沒有成功出現。用這段錯誤訊息在網路上找尋解法,發現 Samsung 的 960 EVO 也曾出現類似的狀況,在 Arch LinuxWiki 上的解法是在系統啟動時加上 Kernel 參數 nvme_core.default_ps_max_latency_us=5500

    1. 在 Ubuntu installer 開到 GRUB 選擇開機模式時,先按 e 編輯設定,找到有 quiet splash 等字串的那一行,在其後面補上nvme_core.default_ps_max_latency_us=5500 開機後 installer 就能偵測到 NVMe SSD 了。
    2. 因為 Ubuntu 預設是不會出現 GRUB 選單,會自動進入系統,所以安裝完第一次開機時要按住 shift 強制讓 GRUB 出現,再次加上 nvme_core.default_ps_max_latency_us=5500 參數開機,如果不加上還是能進系統,但會隨機遇到系統完全 hang 住無法動彈,只能強制重新開機的狀況,例如執行 lscpi uname 等指令都有可能引發。
    3. 成功第一次穩定進入系統,要去編輯 /etc/default/grub 把 nvme_core.default_ps_max_latency_us=5500 參數加上去,再執行 sudo update-grub 更新 GRUB 設定。

    以上三步驟完成後就能成功安裝完 Ubuntu 並且能持續穩定成功重新開機了。

    總覺得都已經 2018 年了,Linux 對於各種硬體的識別應該都要很無痛方便才對,使用者不需要去處理這種問題,不知道要根治這個問題,讓使用者完全不用介入,到底是由 Linux Kernel,Distribution 發行商、SSD vendor 更新 firmware、主機板更新 firmware 哪邊修正才對?

    以下兩個是 Arch Linux Wiki 上 SSD NVMe 的條目,寫得還蠻清楚的

    https://wiki.archlinux.org/index.php/Solid_state_drive?source=post_page-----504a519ab729----------------------

    https://wiki.archlinux.org/index.php/Solid_state_drive/NVMe?source=post_page-----504a519ab729----------------------

     

    https://blog.csdn.net/denlee/article/details/89405993

    展开全文
  • NVMe基础架构和概念详解>电子书已经上线,可通过点击“商品详情”选购或查看详情。商品详情​weidian.comNVMe传输是一种抽象协议层,旨在提供可靠的NVMe命令和数据传输。为了支持数据中心的网络存储,通过NVMe ...

    d86cc18af5fb7d2388b7511a2446b3a2.png

    Hardy 架构师技术联盟

    <NVMe基础架构和概念详解>电子书已经上线,可通过点击“商品详情”选购或查看详情。

    商品详情weidian.com


    NVMe传输是一种抽象协议层,旨在提供可靠的NVMe命令和数据传输。为了支持数据中心的网络存储,通过NVMe over Fabric实现NVMe标准在PCIe总线上的扩展,以此来挑战SCSI在SAN中的统治地位。NVMe over Fabric支持把NVMe映射到多个Fabrics传输选项,主要包括FC、InfiniBand、RoCE v2、iWARP和TCP
    然而,在这些Fabrics选项协议中,我们常常认为InfiniBand、RoCE v2(可路由的RoCE)、iWARP是理想的Fabric,其原因在于它们支持RDMA。

    • InfiniBand(IB):从一开始就支持RDMA的新一代网络协议。由于这是一种新的网络技术,因此需要支持该技术的网卡和交换机。
    • RDMA融合以太网(RoCE):一种允许通过以太网进行RDMA的网络协议。其较低的网络头是以太网头,其上网络头(包括数据)是InfiniBand头。这允许在标准以太网基础架构(交换机)上使用RDMA。只有NIC应该是特殊的,并支持RoCE。
    • 互联网广域RDMA协议(iWARP):允许通过TCP执行RDMA的网络协议。在IB和RoCE中存在功能,iWARP不支持这些功能。这允许在标准以太网基础架构(交换机)上使用RDMA。只有NIC应该是特殊的,并支持iWARP(如果使用CPU卸载),否则所有iWARP堆栈都可以在SW中实现,并且丢失了大部分的RDMA性能优势。


    那么为什么支持RDMA在选择NVMe over Fabric时就具有先天优势?这要从RDMA的功能和优势说起。
    RDMA是一种新的内存访问技术,RDMA让计算机可以直接存取其他计算机的内存,而不需要经过处理器耗时的处理。RDMA将数据从一个系统快速移动到远程系统存储器中,而不对操作系统造成任何影响。RDMA技术的原理及其与TCP/IP架构的对比如下图所示。

    e17f2c0dcedd0612728b32756cc8b60b.png


    因此,RDMA可以简单理解为利用相关的硬件和网络技术,服务器1的网卡可以直接读写服务器2的内存,最终达到高带宽、低延迟和低资源利用率的效果。如下图所示,应用程序不需要参与数据传输过程,只需要指定内存读写地址,开启传输并等待传输完成即可。RDMA的主要优势总结如下:
    1) Zero-Copy:数据不需要在网络协议栈的各个层之间来回拷贝,这缩短了数据流路径。
    2) Kernel-Bypass:应用直接操作设备接口,不再经过系统调用切换到内核态,没有内核切换开销。
    3) None-CPU:数据传输无须CPU参与,完全由网卡搞定,无需再做发包收包中断处理,不耗费CPU资源。
    这么多优势总结起来就是提高处理效率,减低时延。那如果其他网络Fabric可以通过类似RD6MA的技术满足NVMe over Fabric的效率和时延等要求,是否也可以作为NVMe overFabric的Fabric呢?下面再看看NVMe-oF和NVMe的区别。
    NVMe-oF和NVMe之间的主要区别是传输命令的机制。NVMe通过外围组件互连Express(PCIe)接口协议将请求和响应映射到主机中的共享内存。NVMe-oF使用基于消息的模型通过网络在主机和目标存储设备之间发送请求和响应。
    NVMe-oF替代PCIe来扩展NVMe主机和NVMe存储子系统进行通信的距离。与使用本地主机的PCIe 总线的NVMe存储设备的延迟相比,NVMe-oF的最初设计目标是在通过合适的网络结构连接的NVMe主机和NVMe存储目标之间添加不超过10 微秒的延迟。
    此外,在技术细节和工作机制上两者有很大不同,NVMe-oF是在NVMe(NVMe over PCIe)的基础上扩展和完善起来的,具体差异点如下:

    • 命名机制在兼容NVMe over PCIe的基础上做了扩展,例如:引入了SUBNQN等。
    • 术语上的变化,使用Capsule、Response Capsule来表示传输的报文
    • 扩展了Scatter Gather Lists (SGLs)支持In Capsule Data传输。此前NVMe over PCIe中的SGL不支持In Capsule Data传输。
    • 增加了Discovery和Connect机制,用于发现和连接拓扑结构中的NVM Subsystem
    • 在Connection机制中增加了创建Queue的机制,删除了NVMe over PCIe中的创建和删除Queue的命令。
    • 在NVMe-oF中不存在PCIe架构下的中断机制。
    • NVMe-oF不支持CQ的流控,所以每个队列的OutStanding Capsule数量不能大于对应CQ的Entry的数量,从而避免CQ被OverRun
    • NVMe-oF仅支持SGL,NVMe over PCIe 支持SGL/PRP


    先谈谈博科一直推崇的FC Fabric,FC-NVMe将NVMe命令集简化为基本的FCP指令。由于光纤通道专为存储流量而设计,因此系统中内置了诸如发现,管理和设备端到端验证等功能。
    光纤通道是面向NVMe overFabrics(NVMe-oF)的Fabric传输选项,由NVMExpress Inc.(一家拥有100多家成员技术公司的非营利组织)开发的规范。其他NVMe传输选项包括以太网和InfiniBand上的远程直接内存访问(RDMA)。NVM Express Inc.于2016年6月5日发布了1.0版NVMe-oF。
    国际信息技术标准委员会(INCITS)的T11委员会定义了一种帧格式和映射协议,将NVMe-oF应用到光纤通道。T11委员会于2017年8月完成了FC-NVMe标准的第一版,并将其提交给INCITS出版。
    FC协议(FCP)允许上层传输协议,如NVMe,小型计算机系统接口(SCSI)和IBM专有光纤连接(FICON)的映射,以实现主机和外围目标存储设备或系统之间的数据和命令传输。
    在大规模基于块闪存的存储环境最有可能采用NVMeover FC。FC-NVMe光纤通道提供NVMe-oF结构、可预测性和可靠性特性等与给SCSI提供的相同,另外,NVMe-oF流量和传统的基于SCSI的流量可以在同一FC结构上同时运行。

    90e4a29a5b28a45086453bb37ae84bca.png


    基于FC标准的NVMe定义了FC-NVMe协议层。NVMe over Fabrics规范定义了NVMe-oF协议层。NVMe规范定义了NVMe主机软件和NVM子系统协议层。
    要求必须支持基于光纤通道的NVMe才能发挥潜在优势的基础架构组件,包括存储操作系统(OS)和网络适配器卡。FC存储系统供应商必须让其产品符合FC-NVMe的要求。目前支持FC-NVMe的主机总线适配器(HBA)的供应商包括Broadcom和Cavium。Broadcom和思科是主要的FC交换机供应商,目前博科的Gen 6代FC交换机已经支持NVMe-oF协议。
    NVMe over fabric白皮书明确列出了光纤通道作为一个NVMeover Fabrics选择,也描述了理想的Fabrics需要具备可靠的、以Credit为基础的流量控制和交付机制。然而,基于Credit的流程控制机制是FC、PCIe传输原生能力。在NVMe的白皮书中并没有把RDMA列为“理想”NVMe overFabric的重要属性,也就是说RDMA除了只是一种实现NVMeFabric的方法外,没有什么特别的。
    FC也提供零拷贝(Zero-Copy)技术支持DMA数据传输。RDMA通过从本地服务器传递Scatter-Gather List到远程服务器有效地将本地内存与远程服务器共享,使远程服务器可以直接读取或写入本地服务器的内存。
    接下来,谈谈基于RDMA技术实现NVMe over fabric的Fabric技术,RDMA技术最早出现在Infiniband网络,用于HPC高性能计算集群的互联。基于InfiniBand的NVMe倾向于吸引需要极高带宽和低延迟的高性能计算工作负载。InfiniBand网络通常用于后端存储系统内的通信,而不是主机到存储器的通信。与FC一样,InfiniBand是一个需要特殊硬件的无损网络,它具有诸如流量和拥塞控制以及服务质量(QoS)等优点。但与FC不同的是,InfiniBand缺少发现服务自动将节点添加到结构中。
    最后,谈谈NVMe/TCP协议选项(暂记为NVMe over TCP),在几年前,NVMe Express组织计划支持传输控制协议(TCP)的传输选项(不同于基于TCP的iWARP)。近日NVM Express Inc.历时16个月发布了NVMe over TCP第一个版本。该Fabric标准的出现已经回答了是否满足承载NVMe协议标准的Fabric即可作为NVMe over fabric的Fabric的问题。
    但是TCP 协议会带来远高于本地PCIe访问的网络延迟,使得NVMe协议低延迟的目标遭到破坏。在没有采用RDMA技术的前提下,NVMe/TCP是采用什么技术达到类似RDMA技术的传输效果呢?下面引用杨子夜(Intel存储软件工程师)观点,谈谈促使了NVMe/TCP的诞生几个技术原因:1. NVMe虚拟化的出现:在NVMe虚拟化实现的前提下,NVMe-oF target那端并不一定需要真实的NVMe 设备,可以是由分布式系统抽象虚拟出来的一个虚拟NVMe 设备,为此未必继承了物理NVMe设备的高性能的属性 。那么在这一前提下,使用低速的TCP协议也未尝不可。2. 向后兼容性:NVMe-oF协议,在某种程度上希望替换掉iSCSI 协议(iSCSI最初的协议是RFC3720,有很多扩展)。iSCSI协议只可以在以太网上运行,对于网卡没有太多需求,并不需要网卡一定支持RDMA。当然如果能支持RDMA, 则可以使用iSER协议,进行数据传输的CPU 资源卸载。 但是NVMe-oF协议一开始没有TCP的支持。于是当用户从iSCSI向NVMe-oF 转型的时候,很多已有的网络设备无法使用。这样会导致NVMe-oF协议的接受度下降。在用户不以性能为首要考量的前提下,显然已有NVMe-oF协议对硬件的要求,会给客户的转型造成障碍,使得用户数据中心的更新换代不能顺滑地进行。3. TCP OffLoading:虽然TCP协议在很大程度上会降低性能,但是TCP也可以使用OffLoading,或者使用Smart NIC或者FPGA。那么潜在的性能损失可得到一定的弥补。总的来说短期有性能损失,长期来讲协议对硬件的要求降低,性能可以改进。为此总的来讲,接受度会得到提升。4. 相比Software RoCE:在没有TCP Transport的时候,用户在不具备RDMA网卡设备的时候。如果要进行NVMe-oF的测试,需要通过Software RoCE,把网络设备模拟成一个具有RDMA功能的设备,然后进行相应的测试。其真实实现是通过内核的相应模块,实际UDP 包来封装模拟RDMA协议。有了TCP transport协议,则没有这么复杂,用户可以采用更可靠的TCP协议来进行NVMe-oF的一些相关测试。 从测试部署来讲更加简单有效。
    NVMe/TCP(NVMe over TCP)的协议,在一定程度上借鉴了iSCSI的协议,例如iSCSI数据读写的传输协议。这个不太意外,因为有些协议的指定参与者,也是iSCSI协议的指定参与者。另外iSCSI协议的某些部分确实写得很好。 但是NVMe/TCP相比iSCSI协议更加简单,可以说是取其精华。
    本文分享就到这里了,更多NVMe相关知识已整理成“NVMe基础架构和概念详解”电子书,请通过原文链接获取电子书详情(以下是电子书目录介绍)。

    商品详情weidian.com

    53b214a9d2f0b238aacbb7b42b4c04e4.png

    f26d628fb83d30458563ac34c62a8758.png
    展开全文
  • 使用NVMe PCIE的SSD安装UBuntu 16.04存在以下几个问题,导致无法进入桌面: (1) Couldn't get size: 0x8000000000000000e (2) radeon 0000:01:00.0: Invalid PCI ROM header signature: excepting 0xaa55, got ...
  • Vanadium:戴尔G3 3579笔记本电脑更换NVMe固态硬盘与加内存​zhuanlan.zhihu.com最近有一些工作需要大量使用Ubuntu系统,我本身非常害怕装双系统翻车,因此一直都用的虚拟机,然而最近一位持同机型的朋友给我分享了...
  • Vanadium:戴尔G3 3579笔记本电脑更换NVMe固态硬盘与加内存​zhuanlan.zhihu.com最近有一些工作需要大量使用Ubuntu系统,我本身非常害怕装双系统翻车,因此一直都用的虚拟机,然而最近一位持同机型的朋友给我分享了...
  • Ubuntu监测nvme ssd温度及健康状况

    千次阅读 2019-03-17 16:18:49
    1. 安装nvme-cli sudo apt-get install nvme-cli 2. 查看nvme硬盘列表 sudo nvme list 3. 查看nvme硬盘详细信息 sudo nvme smart-log /dev/nvme0 sudo nvme smart-log /dev/nvme0 | grep &amp;amp;amp;quot;^...
  • 1块nvme接口250G的ssd硬盘,1块2TB的sata接口机械硬盘。 nvme的ssd硬盘分三个区: 首先解释一下基本概念:nvme0是你的ssd硬盘的主控芯片,nvme0n1是你的ssd硬盘的主存储器。 分区表类型为GPT。nvme0n1下再设置三个...
  • 1个500GB的M.2 PCIE NVMe SDD硬盘 SATA硬盘是通过legacy boot进入,已有1个windows10系统。在此硬盘里分配了80G的空间用于安装ubuntu18.0.4系统。 NVMe硬盘是通过UEFI进入,装有另一个windows10系统。 安装ubuntu...
  • <p>autotest on ubuntu18 , This issue was reported before, for some reason it had been closed. whatever due to the kernel issue or code setting, it blocks me from autotest on ubuntu. So re-report an ...
  • <p>SPDK 19.01 discovery over RDMA is giving error root:/home/ubuntu/nvme-cli-1.7# nvme discover -t rdma -a 10.201.40.37 -s 4420 Failed to write to /dev/nvme-fabrics: Invalid argument <h2>Expected ...
  • Ubuntu系统安装 1. 插入启动U盘,正常安装。然后重启,进入grub,按e编辑配置 2. 在有Linux的那一行末尾加上 nouveau.modeset=0 前后都有空格,F10进入系统 3. 在第一次进入系统后,sudo gedit /etc/default/grub, ...
  • 00:07:28.842 07:36:12 # fio_nvme /git_repos/spdk_repo/spdk/examples/nvme/fio_plugin/example_config.fio '--filename=trtype=PCIe traddr=0000.00.06.0' 00:07:28.842 07:36:12 # local ...
  • 不要选择ubuntu,选择ubuntu高级选项 可以看到有多个版本 选择之前旧的版本打开ubuntu,问题解决 { https://www.cnblogs.com/carle-09/p/11504544.html 内容包括: 禁止更新现在使用的内核 删除不用的内核 禁止系统...
  • 1.查看显卡driver版本信息 // 若无信息输出,说明有问题 # cat /proc/driver/nvidia/version...# ubuntu-drivers devices 4.安装 # sudo apt-get install nvidia-driver-460 //我的是nvidia-driver-460 # reboot ...
  • 起因: 我是在windows下格式化了ubuntu的盘,然后重新安装ubuntu就出现了这种问题。卸载ubuntu的正确姿势,要去查一下,千万不要直接格式化。解决方法:1. 先使用ls命令,找到ubuntu的安装在哪个分区:grub rescue&...
  • NVME RDMA timeouts

    2020-11-29 00:37:25
    <p>Target machine: Ubuntu 18.04.2, 32 cores, 132 GB memory Initiator machine: CentOS Linux 7 (Core), 12 cores, 32 GB memory SPDK version: current tip of master, as of filing this ticket (commit <code>...
  • [nvme-cli] nvme.c:4134 crash

    2020-12-26 17:16:25
    GNU gdb (Ubuntu 8.0.1-0ubuntu1) 8.0.1 Copyright (C) 2017 Free Software Foundation, Inc. License GPLv3+: GNU GPL version 3 or later <http:> This is free software: you are free to change and ...
  • one is formatted NTFS by ubuntu and run fio plugin successfully. the other want to be used evaluate performance of protection information mechanism(metadata), so we create specific namespace and ...
  • 从昨晚开始,ubuntu开机就卡在 /dev/nvme0n1p2: clean, xxxxx/xxxxxxx files, xxxxxx/xxxxxxxxx blocks,一直进入不了图形界面。到现在也没搞明白具体是为什么,但经过了一阵子面向csdn debug,倒是解决了这个问题。...
  • 写博客先写背景: 年初因为要买个新电脑作为学习和开发工具所以看上了5520,因为喜欢大电池...nvme的硬盘在较新版本的ubuntu上并不是被很好的支持,所以先去找了些资料,看看5520他哥5510该怎么装: 1.https://askub
  • 所以笔者最近升级了下电脑固态硬盘,并趁机将Ubuntu也装进固态里,过程比较坎坷,特此记录一下。 Windows镜像 参看此博客 笔者通过上文方法中的保留正版系统的方法,制作了windows系统镜像 Ubuntu镜像 笔者使用的是...
  • Processing triggers for initramfs-tools (0.130ubuntu3.11) ... update-initramfs: Generating /boot/initrd.img-5.4.0-48-generic I: The initramfs will attempt to resume from /dev/nvme0n1p3 I: (UUID=297bb...
  • 转载学习:https://blog.csdn.net/snowpang/article/details/76900738 打开终端 sudo su 进入root模式 ... 建立一个临时挂载文件夹) mount -o ro /dev/nvme0n1p3 /media/snow/OS_tmp 即可成功挂载设备...
  • 1. 问题描述: 因为目前正在进行的一个项目里需要用到 2. 解决方案 方案1:卸载之前安装的驱动,重新安装nvidia驱动,无效 重装驱动 方案2: 修改文件 进入命令行模式,执行下面的命令(命令行模式按ctrl+alt+F1~F6...
  • Ubuntu 18.04.1 installed on a local hard disk (sda) and a separate NVMe data-disk. <p>Version details: kernel - 4.15.0-43-generic nvme-cli version 1.5 <p>Steps: 1. Create a partition (fdisk /dev/nvme...
  • <p>RHEL 8.2 or Ubuntu 18.4 provision on nvme disk: <pre><code> [get_install_disk]Contents of /proc/partitions: major minor #blocks name 259 0 1562813784 nvme0n1 259 1 8192 nvme0n1p1 259 2 1048576 ...
  • 2. ubuntu 14.04.5 kernel 4.1.10 <p>steps to reproduce 1. make && make install 2. nvme list --output-format=json 3. returns "Segmentation fault" <p>dmesg [ 2947.885599] nvme[26026]...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 459
精华内容 183
关键字:

nvmeubuntu