当前光纤通道和以太网已经能够支持10Gbps和更高的速率。因此,在计算机中的主机I/O总线必须能够以同样的速率发送数据。然而,与所有的并行总线一样,PCI总线限制了网络速度的进一步提高。 事实上,基于网络架构的PCI总线带宽要达到双向2Gbps都很困难。
InfiniBand代表一种新兴的I/O技术,它很有可能在高端服务器中取代PCI总线。作为一种介质,InfiniBand定义了各种铜电缆和光导纤维线缆,它为铜缆和光缆指定的最大长度分别是 17m 和 10000m;也可以在使用导轨的线路板上直接实现InfiniBand。
在InfiniBand网络中的端点称作通道适配器。lnfiniBand使用两种通道适配器:主机通道适配器(HCA:Host ChannelAdapter)和目标通道适配器(TCA:TargetChannelAdapter)。
HCA在InfiniBand网络和连接到CPU和RAM的系统总线之间起桥梁作用。 TCA在InfiniBand网络和通过SCSI、光纤通道或以太网连接的外部设备之间起连接作用。与PCI比较,HCA对应于PCI桥接芯片,TCA对应于光纤通道主机适配卡或以太网卡。
InfiniBand有可能完全改变服务器和存储设备的体系结构,需要考虑的是,网卡和主机总线适配卡可能被放置在100m距离之外。这就意味着,配有CPU和内存的母板、网卡、主机总线适配卡和存储设备都作为物理上分离的非耦合的设备单独安装。这些设备都通过一个网络连接在一起。现在还不明朗,TCA连接存储设备、光纤通道或以太网这3种传输技术中的哪一种将会在这一领域中占主导地位。
智能磁盘子系统的功能正在变得越来越强大,而InfiniBand有助于在服务器和减少了CPU负荷的存储设备之间快速通信。因此至少在理论上,诸如文件系统的缓存和共享磁盘文件系统的锁定同步这类子功能可以直接实现在磁盘子系统中或特别的处理机上。
InfiniBand发展的初衷是把服务器中的总线网络化。所以InfiniBand除了具有很强的网络性能以外还直接继承了总线的高带宽和低时延。人们熟知的在总线技术中采用的DMA(DirectMemoryAccess,直接内存访问)技术在InfiniBand中以RDMA(RemoteDirectMemoryAccess,远地直接内存访问)的形式得到了继承。
RDMA通过网络把数据直接传入计算机的存储区域,将数据从本地系统快速移动到远程系统的存储器中。它消除了外部存储器复制和文本交换操作,因而能腾出总线空间和CPU周期用于改进应用系统性能。日前通用的做法是由系统先对传入的信息进行分析,然后再存储到正确的区域。
当一个应用执行RDMA读或写请求时,不执行任何数据复制。在不需要任何内核内存参与的条件下,RDMA请求从运行在用户空间中的应用中发送到本地网卡,然后经过网络传送到远程网卡。RDMA操作使应用可以从一个远程应用的内存中读数据或向这个内存写数据。用于操作的远程虚拟内存地址包含在RDMA信息中。远程应用除了为其本地网卡注册相关内存缓冲区外,不需要做其他任何事情。远程节点中的CPU完全不参与输入的RDMA操作。这项技术在网卡中实施可靠的数据传输协议,并通过减少对带宽和处理器的开销降低了时延。
这种优化了的性能是通过在网卡的硬件中支持零复制技术和内核内存旁路技术实现的。零复制技术使网卡可以直接与应用内存相互传输数据,从而消除了在应用内存与内核内存之间复制数据的需要。内核内存旁路技术使应用无需执行内核内存调用就可向网卡发送命令。在不需要任何内核内存参与的条件下,RDMA请求从用户空间发送到本地网卡,并通过网络发送给远程网卡,这就减少了在处理网络传输流时内核内存空间与用户空间之间的环境切换次数,从而降低了时延。
整理自《存储网络技术与应用》
------------------------------------------------------------------------------
Blog: http://blog.csdn.net/tianlesoftware
网上资源: http://tianlesoftware.download.csdn.net
相关视频:http://blog.csdn.net/tianlesoftware/archive/2009/11/27/4886500.aspx
DBA1 群:62697716(满); DBA2 群:62697977(满)
DBA3 群:62697850 DBA 超级群:63306533;
聊天 群:40132017
--加群需要在备注说明Oracle表空间和数据文件的关系,否则拒绝申请
分享到:
相关推荐
Infiniband 网络结构分析 Infiniband 网络结构分析是指对 Infiniband 网络的架构、协议、特性和应用的深入分析。Infiniband 是一种基于交换的架构,提供了一种点对点双向串行链路,通过交换机在节点之间直接创建一...
et)协议是InfiniBand网络中的一种上层协议,设计用于提供可靠的数据包传输服务。RDS在InfiniBand架构中实现了类似TCP的服务,但具有更低的延迟和更高的效率,适合对实时性要求高的应用。它允许应用程序直接访问远程...
数据在InfiniBand网络中的传输以数据包的形式进行,这些数据包组成信息流,可以实现远程直接内存存取(RDMA)操作,多点传送以及信道间的通信。 InfiniBand的硬件部分包括主机通道适配器(HCA)和目标通道适配器...
"InfiniBand 网络结构分析" InfiniBand 是一种网络通信协议,它提供了一种基于交换的架构,由处理器节点之间、处理器节点和输入/输出节点(如磁盘或存储)之间的点对点双向串行链路构成。每个链路都有一个连接到...
InfiniBand网络结构分析 InfiniBand架构是一种高性能的网络技术,设计用于提升服务器平台的I/O性能。它最初旨在将PCI总线技术网络化,因此具备高带宽和低延迟的特点,同时能够支持多达64000个可寻址设备。不同于...
总的来说,InfiniBand网络结构的设计旨在优化高性能计算环境中的数据交换,其高效的数据传输机制、灵活的拓扑结构和多层次的协议栈,共同确保了高效率和低延迟的网络性能,使其成为高性能计算领域的理想选择。
InfiniBand网络结构分析 InfiniBand是一种高性能的计算机网络通信标准,设计用于解决服务器连接问题,尤其适用于数据中心和高性能计算环境。其特点包括高吞吐量、低延迟和近乎无限的设备扩展性。InfiniBand采用128...
在InfiniBand网络中,网关的引入为网络提供了更大的灵活性,可以实现不同网络之间的数据交换。LID(本地标识符)、GID(全局标识符)和GUID(全局唯一标识符)是InfiniBand中用来标识网络中的设备和端点的唯一编号。...
InfiniBand网络架构是一种高性能、低延迟的通信标准,广泛应用于数据中心、服务器集群和存储系统。其设计目标是提供高带宽、低延迟、高可扩展性,以满足不断增长的数据传输需求。 1. 物理层:物理层是InfiniBand...
《网络游戏-一种在龙芯刀片服务器上实现Infiniband网络的方法》 网络游戏,作为现代数字娱乐的重要组成部分,对服务器性能的要求极高。特别是在大规模多玩家在线游戏(MMO)中,稳定、高效的数据传输和处理能力是...
以下是InfiniBand网络结构和协议的详细分析: 1. **物理层**:InfiniBand的物理层定义了硬件接口的电气和机械特性,包括对光纤和铜质媒介的支持。它涵盖了电缆和插座的标准、底板连接器的规格,以及热交换特性。...
Infiniband 网络架构分析 InfiniBand(直译为“无限带宽”技术,缩写为 IB)是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand 也用作...
### InfiniBand网络技术及主流厂商分析 #### InfiniBand技术和协议架构分析 **InfiniBand技术概述:** InfiniBand是一种高性能计算(HPC)领域中的网络互连技术,它通过简化服务器之间的连接以及支持服务器与远程...
InfiniBand 网络技术 InfiniBand 是一种新兴的 I/O 技术,旨在取代传统的 PCI 总线,解决当前服务器中的 I/O 瓶颈问题。InfiniBand 网络采用基于光纤通道和铜电缆的介质,定义了各种铜电缆和光导纤维线缆,最大长度...