精华内容
下载资源
问答
  • InfiniBand网络

    2020-10-15 11:44:35
    InfiniBand网络 优点:吞吐量高,速度快、延时低 缺点:价格昂贵,软件支持比较少 适用场景:在高速网络环境中适用

    InfiniBand网络

    		优点:吞吐量高,速度快、延时低
    		缺点:价格昂贵,软件支持比较少
    		适用场景:在高速网络环境中适用
    
    展开全文
  • InfiniBand 网络

    千次阅读 2013-01-17 22:26:23
    当前光纤通道和以太网已经能够支持 10Gbps和更高的速率。因此,在计算机中的主机 I/O总线必须能够以同样的速率发送数据。然而,与所有的并行总线一样,... 事实上,基于网络架构的 PCI 总线带宽要达到双向 2

    转自David 博客:http://blog.csdn.net/tianlesoftware/article/details/6214232


    当前光纤通道和以太网已经能够支持 10Gbps和更高的速率。因此,在计算机中的主机 I/O总线必须能够以同样的速率发送数据。然而,与所有的并行总线一样,PCI总线限制了网络速度的进一步提高。  事实上,基于网络架构的 PCI 总线带宽要达到双向 2 Gbps 都很困难

           InfiniBand代表一种新兴的 I/O技术,它很有可能在高端服务器中取代PCI总线。作为一种介质,InfiniBand定义了各种铜电缆和光导纤维线缆,它为铜缆和光缆指定的最大长度分别是  17m  和   10 000m;也可以在使用导轨的线路板上直接实现InfiniBand

           在InfiniBand 网络中的端点称作通道适配器。lnfiniBand使用两种通道适配器:主机通道适配器 (HCAHost  Channel Adapter)目标通道适配器 (TCATarget ChannelAdapter)

           HCA在InfiniBand网络和连接到CPU和RAM的系统总线之间起桥梁作用。     TCA在InfiniBand网络和通过SCSI、光纤通道或以太网连接的外部设备之间起连接作 用。与PCI 比较,HCA对应于PCI桥接芯片,TCA对应于光纤通道主机适配卡或以太网卡。

          

           InfiniBand有可能完全改变服务器和存储设备的体系结构,需要考虑的是,网卡和主机总线适配卡可能被放置在 100m距离之外。这就意味着,配有CPU和内存的母板、网卡、主机总线适配卡和存储设备都作为物理上分离的非耦合的设备单独安装。这些设备都通过一个网络连接在一起。现在还不明朗,TCA 连接存储设备、光纤通道或以太网这 3种传输技术中的哪一种将会在这一领域中占主导地位。

           智能磁盘子系统的功能正在变得越来越强大,而 InfiniBand 有助于在服务器和减少了 CPU负荷的存储设备之间快速通信。因此至少在理论上,诸如文件系统的缓存和共享磁盘文件系统的锁定同步这类子功能可以直接实现在磁盘子系统中或特别的处理机上。

     

           InfiniBand发展的初衷是把服务器中的总线网络化所以 InfiniBand除了具有很强的网络性能以外还直接继承了总线的高带宽和低时延。人们熟知的在总线技术中采用的DMA(Direct Memory Access,直接内存访问)技术在InfiniBand中 以 RDMA(RemoteDirect Memory Access,远地直接内存访问)的形式得到了继承。

         RDMA 通过网络把数据直接传入计算机的存储区域将数据从本地系统快速移动到远程系统的存储器中。它消除了外部存储器复制和文本交换操作,因而能腾出总线空间和 CPU周期用于改进应用系统性能。日前通用的做法是由系统先对传入的信息进行分析,然后再存储到正确的区域。

           当一个应用执行RDMA读或写请求时,不执行任何数据复制。在不需要任何内核内存参与的条件下,RDMA 请求从运行在用户空间中的应用中发送到本地网卡,然后经过网络传送到远程网卡。RDMA 操作使应用可以从一个远程应用的内存中读数据或向这个内存写数据。用于操作的远程虚拟内存地址包含在RDMA信息中。远程应用除了为其本地网卡注册相关内存缓冲区外,不需要做其他任何事情。远程节点中的 CPU完全不参与输入的RDMA操作。这项技术在网卡中实施可靠的数据传输协议,并通过减少对带宽和处理器的开销降低了时延。

           这种优化了的性能是通过在网卡的硬件中支持零复制技术和内核内存旁路技术实现的。零复制技术使网卡可以直接与应用内存相互传输数据,从而消除了在应用内存与内核内存之间复制数据的需要。内核内存旁路技术使应用无需执行内核内存调用就可向网卡发送命令。在不需要任何内核内存参与的条件下,RDMA 请求从用户空间发送到本地网卡,并通过网络发送给远程网卡,这就减少了在处理网络传输流时内核内存空间与用户空间之间的环境切换次数,从而降低了时延。

     

    展开全文
  • 基于InfiniBand网络的MPI实现研究,冯云,周淑秋,近年来,利用普通PC和高速网络搭建集群已经成为构建高性能计算环境的一种趋势。虽然InfiniBand在高性能计算领域还是相对比较新的技术
  • 在以太网和InfiniBand网络中Oracle集群私有网络所用到的网络协议

    再加上一个文章:Oracle Grid Infrastructure: How to Troubleshoot Missed Network Heartbeat Evictions (Doc ID 1534949.1)

    展开全文
  • 默认情况下,Oracle Secure Backup备份软件走管理网进行数据备份,如果需要Infiniband网络进行备份,则必须设置Preferred Network Interfaces功能。 下面,以介质服务器为例,介绍如何设置Infiniband网络优先,具体...

    默认情况下,Oracle Secure Backup备份软件走管理网进行数据备份,如果需要Infiniband网络进行备份,则必须设置Preferred Network Interfaces功能。

    下面,以介质服务器为例,介绍如何设置Infiniband网络优先,具体如图所示。

    在IP interface name(s):这一栏中同时填管理网的IP地址和Infiniband网的IP地址,两个IP地址之间使用逗号分隔开,点击Apply按钮保存设置。

    IP地址保存成功后,再次选中该主机,点击edit按钮进行编辑,出现如图所示的界面,点击Preferred Network Interfaces按钮。

    此刻,出现如图所示的界面,在Interface下拉菜单中,选择Infiniband网络所对应的IP地址,在Clients中选择网络对端的主机名。最后点击Add按钮,即将该网络IP设置成优先网络接口。

    同理,需要将数据库主机也设置成Infiniband网络优先。

    此时,我们再次发起数据库备份,同时测试介质服务器和数据库主机的网卡流量。介质服务器网卡流量监测信息如下所示。

    # sar -n DEV 2 1000

    08:39:16 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s

    08:39:18 PM lo 0.00 0.00 0.00 0.00 0.00 0.00 0.00

    08:39:18 PM eth0 0.57 0.57 0.04 0.27 0.00 0.00 0.00

    08:39:18 PM eth1 1469.71 44.00 2142.73 2.84 0.00 0.00 0.00

    数据库服务器网卡流量监测信息如下所示。

    # sar -n DEV 2 1000

    08:39:54 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s

    08:39:56 PM eth0 0.52 0.52 0.03 0.29 0.00 0.00 0.00

    08:39:56 PM eth1 72.68 2285.05 13.21 6217.84 0.00 0.00 0.00

    08:39:56 PM eth2 0.00 0.00 0.00 0.00 0.00 0.00 0.00

    08:39:56 PM lo 3.09 3.09 4.92 4.92 0.00 0.00 0.00

    可以看出,当设置了Preferred Network Interfaces功能后,就可以优先选择使用哪个网卡进行网络数据传输。

     

    转载于:https://www.cnblogs.com/missyou-shiyh/p/10258602.html

    展开全文
  • Infiniband网络测速

    2020-05-20 08:40:25
    基本环境: CPU 内存 硬盘 IB卡 主机名 2*E5-2620 v4 128G 512G Mellanox Technologies MT27500 node01 2*E5-2620 v4 128G ...#在客户端执行(注意:192.168.33.12为服务端的IB网络中的.
  • 监控InfiniBand网络中HCA卡的端口状态

    千次阅读 2016-12-09 15:52:34
    监控InfiniBand网络中HCA卡的端口状态
  • InfiniBand网络简介

    千次阅读 2020-04-07 16:54:28
    IP网络协议如TCP/IP,具有转发丢失数据包的特性,网络不良时要不断地确认与重发,基于这些协议的通信也会因此变慢,极大地影响了性能。与之相比,IB使用基于信任的、流控制的机制来确保连接的完整性,数据包极少丢失...
  • Infiniband网络抓包

    千次阅读 2019-10-21 14:34:29
    在机器上执行以下命令进行抓包 ibdump -w ibdump201910210950_ib_send_bw.pcap # -w 指定保持数据的文件位置 把.pcap文件用wireshark打开,如下图所示:
  • Infiniband 网络性能测试

    千次阅读 2019-01-15 18:10:00
    sed -i 's/SET_IPOIB_CM=.*/SET_IPOIB_CM=yes' /etc/infiniband/openib.conf /etc/init.d/openibd restart #系统参数调优(centos7) systemctl status tuned.service #看看是否启用了tuned服务 tuned-adm ...
  • Linpack使用Infiniband网络 计算时出现如下问题: reg_mr Cannot allocate memory !!! 问了浪潮的工程师,据说是Linpack计算时一个阀值设大了,出现了内存溢出问题。 解决方法: 在ib网的配置文件/etc/...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,265
精华内容 1,706
关键字:

infiniband网络