3级交换机硬件结构图与3层架构区别

InfiniBand急剧泡沫化专精业者纷纷走避、转型

从IT七大厂联合到纷纷弃退也不过3年时间,当初因看好InfiniBand前景而成立、投入的其它业者却也因此必须走避、改行部分业者也就因此被購并或歇业。

2002年IBA软件业者:Vieo重新定位成数据管理软件方案业者,虽仍持续支持InfiniBand但改专注开发能让信息基础建设自适性管理的软件。

2003年IBA芯片设计业者:JNI由AMCC收并,且不再发展IBA方案

2005年,从事IBA HCA、IBA Switch的InfiniCon Systems公司改名为SilverStorm Technologies(银色风暴)但依然有从事IBA产品及业务,更名的动机官方说法是為了更专注于高效商务运算方案然也承认不希望被刻板定位成纯IBA方案业者。

I/O未来、新世代、次世代等用词对应至今日InfiniBand的发展际遇,似乎反成为一种讽刺

在这些业者中,IBA芯片主要的研发设计业者为MellanoxMellanox除销售自研的IBA芯片外也销售IBA HCA适配卡,但IBA Switch方面仅销售芯片以及提供IBA交换器嘚参考设计范例不亲自涉入IBA Switch的产品,这或许是为了与IBA Switch业者间保持良善关系的必要立场

至于Cisco/Topspin则专注在IBA HCA、IBA Switch及其整体方案,Topspin虽有自行研发IBA芯爿(另也向Mellanox购买)但策略上仅供自用而不外售。SBS则是因自身长年专注在国防、工控等嵌入式电子应用方案IBA技术也多用在此应用领域。PathScale主要是提供集群布建方案但只提供IBA

严格而论,只有Mellanox、SilverStorm、Voltaire称的上是在IBA领域获得成功Cisco/Topspin则因合并不久还有待后续观察,其余业者在IBA方面其实依旧是可进可退甚至可说是可有可无。附带一提的是高阶主机板业者亦有涉入IBA,如美国SuperMicro以及Iwill艾崴、Tyan泰安、Arima华宇等。

附注:从业者所取的公司名称可知在InfiniBand大为看好时“Infini,无穷、无限”字根被频繁使用包括IBM自有的InfiniBand技术亦另称InfiniBlue,InfiniBlue为IBM的注册商标

IBA在HPC、Cluster领域找到一片天,但恏景恐难长

IBA原希望成为运算、通讯、储存等设备的机内、机外标准接口不过IBA一起头就先丧失通讯设备的机内运用可能,因为通讯设备业鍺多半已属意实行Rapid I/O使IBA只能先将目标订于运算及储存设备,但也适逢网络型储存、储域网络(Storage Area Network;SAN)的快速兴起使光纤信道(Fibre Channel;FC)获得成長普及,之后IBA转向运算设备原可望取代PCI,然而PCI-X已先行卡位且PCI-X提出后的不到两年时间Intel再提出接替PCI-X的PCIe,使得IBA用于设备机内的可能微乎其微就连Intel的主要竞争业者:Sun、AMD等也倾向在运算设备机内使用HyperTransport/HTX,而非IBA

所以IBA只能朝机外高速连接的领域发展,虽然PCI、PCIe、Rapid I/O等都尚无机外连接方案但不幸的是FC亦在外接方面开展迅速,IBA必须与FC争抢地盘FC传输表现虽输IBA,但价格却相对低廉加上相近时间内Ethernet从1Gbps进展至10Gbps,且其光纤传输(IEEE 802.3ae)、铜线传输(IEEE 802.3an)标准也先后于2002年、2005年正式定案这也让IBA的持续发展多所推挤、阻碍。

所幸的是近年来整柜、整箱式设计的顶级硬设备發展逐渐走缓,过去业者可以说服用户购买初始成本较高的硬件系统以备未来随业务需求成长而直接原机追加扩充,而今用户连较高的初始成本也不愿预先支出只希望硬件价格、空间、用电都能呈简单线性成长、扩增,此需求迫使硬件业者改发展砖块化、模块式的设备型态并让各模化设备以高速机外连接达到互连沟通、延展扩充,以及一体性运作这使得IBA有些机会。

InfiniBand具有传输通道的虚拟化能力此称為Virtual Lane(简称:VL),可将实体传输进行更细腻的频宽资源分拆与隔离独立运用目前PCI Express 2.0正积极“学习”此一技术机制

Libra大型主机、Cray的XD1超级计算机等,都因应要求而实行模块化的延展架构事实上许多高速网络交换器早就实行此种设计。

可惜的是上述这些模块化发展的硬设备,各业鍺都倾向实行自有独家设计的机外高速联机而非开放标准的IBA,很明显是受各业者门户之见所阻碍不过,同样的模块设计也吹向高效运算(High Performance Computing;HPC)领域HPC领域的超级计算机日益在意造价成本,目前满足此需求的最佳作法即是实行集群(Cluster)组态即是用一致且大量的独立运算計算机,并透过机外联机使之融合为一联机也必须尽可能高速。

所以IBA终于在集群式超级计算机上找到发挥,由于FC只至2Gbps、4Gbps10Gbps Ethernet尚不够成熟,延迟控制也尚待精进放眼望去最合适的便是IBA,IBA低延迟、能以10Gbps为基准单位进行倍增传输使得全球前五百大效能的超级计算机中(参见Top500.org網站)有相当多套系统都使用上IBA,或至少是IBA与其它高速联机的搭配混用

然而,金字塔至顶的五百大超级计算机毕竟是少数其用量规模難以长期支撑IBA产业及其生态永续发展,必须往更普遍的集群运算应用开拓然而从顶级往中下层面推行,依然遭遇到与FC、GbE冲突的课题同時也要面对一些业者的专属特用技术,如Quadrics的QsNet或Myricom的Myrinet。

结尾:IBA的六大隐显竞争者!

前面曾提过即便InfiniBand专心致力于机外高速联机接口的发展,吔都要面临诸多的相近威胁这包括10GbE、FC/10GFC、PCIe External Cabling、QsNet、Myrinet等,然而实际的威胁程度又是如何呢

纯就笔者的观点看,首要威胁依然是10GbE除了速度达10Gbps外,也可弹性选择光纤或铜缆联机这些过去都是InfiniBand独享专拥的特色,如今10GbE虽无法超越但已可追平。不过10GbE依然有诸多环节不如InfiniBand,不光是传輸延迟的反应问题也包括实质数据传量偏少、传输过程中对CPU运算的倚赖度过高、数据复制搬移程序过繁复等。

要补足这些缺失所以才提出TOE与RDMA,在Ethernet传输过程中需要CPU参与运算的部分包括TCP/IP封包的编解运算(约占40%)、传输过程中的数据缓冲复制运算(约占20%)、操作系统参与传輸的软件执行运算(包括内存数据搬移,中断服务因应等约占40%),TOE即在解决编解运算的负荷占用RDMA则在解决操作系统参与的负荷占用,泹即便如此依然有20%左右的占用不易去省

相对的IBA对CPU的参与倚赖仅在3%、4%,两者差距甚远严格说TOE与RDMA即是要拉近10GbE与IBA的差距,少去TOE与RDMA的协助10GbE依嘫难以与IBA相提并论,然而IBA亦有RDMA机制这些都使得10GbE只能接近IBA而无法超越。倘若无法超越那么就必须在价格上取得优势,不过10GbE的硬件亦相当昂贵不见得比IBA低廉,何况IBA已在超级计算机领域获得严苛验证

除了具体技术表现10GbE最逼近IBA外,还有另一项“精神”层面的影响迫使IBA不得不將10GbE视为首要大敌这即是“Ethernet自出道以来从未败过的无敌战绩!”,Ethernet发展历程中击败过无数对手包括IBM的Token Ring、DEC的DECnet、Apple的AppleTalk等,甚至无线转化成的WiFi也擊退五大厂联合的Bluetooth如今不仅用iSCSI与FC竞争,也用RDMA与IBA抗衡战果确实有逐渐扩大的可能,尤其IT产业讲究的是用量规模与规格生态的整体良性循環提升此方面Ethernet拥有最高优势。

其次是FC现有FC为4Gbps,积极从1Gbps/2Gbps进展至4Gbps也是为了摆脱1GbE的价格竞争所不得不为而FC阵营的下一个目标订在10Gbps,很明显囿推挤IBA的意味不过,从4Gbps提升到10Gbps必然是一大挑战且FC不似IBA在传输介质上可弹性选择铜缆或光纤,一律只能实行光纤

然而FC也有其优势,其鼡量、价格、业者生态都较IBA强健传输延迟甚至可低于1mS,胜过IBA的1mS~3mS所以IBA在面对10GbE外,也须将现有的4GFC与未来的10GFC视为威胁至于PCIe External Cabling,目前仍处在艹版阶段即便正式底定,其Repeater、Switch、Router、Gateway等配套都还有待发展所以威胁又低于FC,但由于PCIe有机内主流的优势地位因此也不能小觑。

IBA整体方案業者:SilverStorm(前InfiniCon)公司力倡用IBA Switch作为企业机房与数据中心的骨干网络而非只为集群需求而用,用IBA统合FC与GbE近年来IBA正积极摆脱仅在HPC/Cluster领域使用,期朢进入商务主流运算领域以刺激其用量规模

另外Myrinet、QsNet,此两者面对IBA的最大优势只在于低廉且不如IBA的开放标准立场,Myrinet与QsNet都是业者的独门特規所以IBA只须加紧调降价格即可因应威胁,然而正因为价格因素使Myrinet、QsNet在HPC市场也颇受欢迎IBA也一样必须留意。

最后笔者认为可能还有一个“隐藏”对手,那就是Cray的RapidArrayRapidArray是针对Cray自有的XD1超级计算机所研发的大连接量、高传量、低延迟的光纤联机,RapidArray每一个Link能有2GB/Sec传输此已超越IBA现有单┅Link的10Gbps表现,且每部XD1(亦视为一个节点)可有2或4个Link

专精于超级计算机领域的业者:Cray,针对其XD1的模块化超级计算机而开发了RapidArray的高速光纤联机系统RapidArray的各项技术表现皆超越InfiniBand,只可惜是业者专属技术而非开放标准

更重要的是,RapidArray的延迟超低当其它规格都在计较mS层次的延迟时间,RapidArray嘚延迟已快到仅1.7uS(微秒)不过这是指两节点间的延迟时间,RapidArray在连接拓朴上允许直接连接(Direct Connect)或层树状(Fat Tree)连接直接连接其实也多采立方矩阵方式相连,所以随着树状层次的增多或传输所经节点数的增多,其延迟时间也会拉长然总体而言RapidArray依然比IBA先进、优异,只可惜RapidArray也昰单一业者的独门秘方随XD1超级计算机一并提供,倘若Cray政策转变允许单独输出RapidArray技术,则IBA将大受威胁

前言:网络底层技术进步让iSCSI迅猛发展

谈及“iSCSI”,相信在今日的IT界已是无人不知、无人不晓但各位可曾知道iSCSI也有一段酝酿沈潜的乏问期?事实上早在2001年6月IBM就发表了IP Storage 200i的iSCSI存储設备,同时Cisco也呼应推出SN5420的iSCSI路由器(用于异地备援)但市场及用户反应却极有限。

虽然IBM在发表iSCSI方案产品后也将iSCSI的技术规格提案交付给IETF审議,期望让iSCSI成为Internet的标准但在2001年~2002年间的审议作业阶段,iSCSI仍被人视为是IBM自行提出的特规专属方案直到2003年2月IETF敲定通过iSCSI,并颁布为RFC 3720iSCSI才正式荿为中立超然的网络化存储标准。

不过2003年初的标准通过,也未立即反应至市场原本IDC推估2003年的iSCSI市场规模为2亿1,600万美元,结果同为IDC之后的实際调查却只有1,800万美元相对的Fibre Channel SAN却高达100亿美元,iSCSI虽开始受注视而摆脱乏问但商机依旧清淡。

1.0)这对国内硬件业者可说是一大鼓舞,因为國内硬件业者一向等Microsoft表态后才有跟进意愿接着2004年iSCSI的支持产品数明显增加,今后数年更是不可限量甚至在中程发展上已威胁Fibre Channel(以下简称:FC),远程更可能波及InfiniBand(以下简称:IB)

所以,国内的存储系统设计者必须积极评估及研究iSCSI技术及其设计方式,以因应即将到来的高成長需求对此本文以下将列举与讨论数种iSCSI应用的实现法,望能对各位在参考评估时提供些许帮助

iSCSI是以Ethernet/Internet为实体基础环境,以TCP/IP为运作协定洅往上加搭的SCSI数据传输及SCSI控制指令,使硬盘资源及运用达到通透于LAN/WAN分享的目的

Storage)工作小组进行iSCSI核心协议的研拟。以及由SNIA组织制订iSCSI所需的楿关API

iSCSI相关规格标准

在开始之初,笔者要先向各位提醒除了RFC 3720的iSCSI基础主体规格外,也有许多与其关连的标准规范必须多所了解包括:

上述主要是主体规格的补充、在TCP/IP环境下能用何种方式进行iSCSI装置的探搜、辨识、登入,以及传输编密、远程开机等除此之外,iSCSI也必须支持现囿Internet上常用的权限验证机制及标准包括:

Networking),前者以建议传输隧道(tunnel)的方式实现后者则以各装置皆IP化寻址实现,不过各有缺点前者效能与稳定不佳,后者支持业者过少且要同时传输FCP协议与IP协议,过度耗占频宽因此两种作法都仅被小量使用,如用在异地备援(Disaster RecoveryDR)嘚远程数据传输上(在超出长波光纤的10km以上距离时)。

iSCSI架构中的角色及专词用语

此外还有iSCSI Router(路由器)不过,目前似乎只有Cisco一家提供这昰在需要以iSCSI进行异地备援传输时才会使用。至于iSCSI Gateway(网关器)则在接口转换时才需要例如让iSCSI网络与FC网络接轨,就需要iSCSI-to-FC

iSCSI运作架构中的各种角銫连接与配置

TargetBridge与Gateway等皆属转换功效,只是负责的层级不同一般而言Bridge为低层次转换,Gateway为高层次然有时也经常混称合用,无太大差别

要想实现一个iSCSI Initiator,最简单也最省钱的作法即是在服务器上安装iSCSI Initiator软件并运用服务器原有的GbE卡来收发iSCSI协议。

不过使用iSCSI Initiator软件必须多加权衡,由于咜运用服务器的CPU来进行iSCSI协议的编解运算会折损服务器的本务运算效能(即伺服应用服务的运算),一般而言会折损1、2颗CPU的效能所以不建议在2 CPU的服务器上使用此法,建议在4 CPU以上的服务器才使用且也要多斟酌效能冲击性,也不建议直接以服务器内唯一的GbE网埠来传发iSCSI协议洇为这将阻碍服务器原有对前端服务的能力(即Internet/LAN与SAN的传输交迭影响),所以多会额外加装第二张GbE网卡以另一专属区网(SAN)的作法来传输iSCSI。

使用软件式的iSCSI Initiator不单要考虑CPU、NIC的效能折损也要考虑操作系统支持性及取得成本,操作系统也还要注意硬件架构的差别同样是Windows,在IA-32(即俗称的i386)硬件上与在x64(即x86-64、AMD64、EM64T)硬件上的驱动程序并不相同甚至IA-64硬件上的也不同,Solaris也类似Solaris支持SPARC、IA-32、x64,三者的驱动程序也不相同

NIC,并計划将软件的原始程序代码公布于OpenSolaris.org网站

Daemon(同于Demon,原意是魔鬼但在此是指泛UNIX操作系统的背景常驻执行程序),开发过程中也与Open-iSCSI项目合并目前为4.0.x版。此外还有UNH所释出的“UNH-iSCSI”的开放项目一样是Linux上的iSCSI Initiator软件,目前为1.6.0版

X(收并自PyX公司),但此要付费取得或随SBE的硬件套件方式┅并购买。

至于软件表现的强弱如何此可透过实际的CPU运算占用(占用百分比愈低愈好)、I/O传输表现(每秒完成多少个I/O处理,即IOPS)来评断另外要重视支持的GbE层级、错误修正层级,如10GbE优于1GbE以及ERL2优于ERL1优于ERL0。以及是否支持MPIOMPIO指的是一部服务器内有一张以上的GbE NIC时,可同时运用多張NIC卡进行传输以负载平衡(Load Balance)方式尽快完成传递,或在某一NIC卡故障失效时其工作也可转由其它仍正常运作的NIC卡来接手。

软件法的缺点僦是耗占原有硬件资源及效能所以也有众多业者提出硬件实现法,有的是推出iSCSI控制芯片(如SilverBack Systems)然后由硬件设计者购回芯片以做成iSCSI HBA卡,戓嵌于主机板上让主机板直接具备iSCSI硬件支持,或者有的业者虽有自研的iSCSI控制芯片但视为独门秘方,不对外单售芯片只售使用上自有芯片实现成的iSCSI板卡(如Adaptec、iStor Networks),或芯片与卡都提供(如Alacritech、QLogic、iVivity)

与前述的软件实现法相比,硬件法可就相当复杂多样为避免混淆难懂,须茬正式说明前建立好先前概念才行

首先我们先要了解Ethernet卡的过往,早在1982年Sun的第一部工作站出货时就已具Ethernet功能在Ethernet卡发展的初期,由于计算機CPU效能(此处的计算机指的是工作站、个人计算机)仍不足所以当时的Ethernet卡都有专责处理TCP/IP程序的芯片及电路,不需耗用CPU效能然之后计算機CPU效能跃增,使Ethernet芯片/网卡开始被设计成只负责部分工作而非过去的全部工作,舍去处理的部分改由CPU与执行搭配软件来负责

然而今日iSCSI嘚出现,倘若是使用iSCSI Initiator软件服务器CPU除了要执行iSCSI的传送、接收等程序外,就连GbE NIC的TCP/IP编解工作也是由CPU来负担倘若CPU效能不足,或软件反应不够快(程序撰写不佳或操作系统架构特性使然),过重的负担就会影响iSCSI的传输表现

因此,要加速iSCSI传输第一种作法即是使用iSCSI HBA卡,iSCSI HBA卡主要是擔负iSCSI程序的处理执行如此CPU可以卸下此方面的工作,但仍要执行TCP/IP方面的工作不过已有加速效用,此称为iSOE(iSCSI Offload Engine)第二种作法,是使用“较盡责”的GbE NIC卡(或控制芯片)能完整包办TCP/IP层面的运算,不需CPU操烦CPU可以专心处理iSCSI程序,此称为TOE(TCP/IP Offload Engine)由于仍是个NIC卡/芯片,所以依然需要iSCSI Initiator軟件的辅助但一样有加速效果。

第三种作法则是让iSCSI HBA卡(芯片)既负责TCP/IP工作也负责iSCSI工作那么CPU就更加轻松,也可如第一种作法般地舍去iSCSI Initiator软件加速效果也胜过前两者。

再者如果是重视iSCSI传输安全性者,则希望在TCP/IP环境中再添入IPSec的加密然而IPSec一样要耗用CPU来编解运算,若能用特有芯片来承担此一运算卸除CPU的负担,自然又可以更快此称为SOE(Security Offload Engine)。当然!若不使用IPSec则与第三法无所差别

有了上述概念后,在此就以QLogic的iSCSI芯片为例作说明QLogic的ISP3010芯片只是颗具TOE效果的Ethernet加速芯片,依旧是GbE NIC卡/芯片搭配iSCSI Initiator软件即可加速iSCSI的传输执行,此即是第二法

接着,QLogic的ISP4010芯片是个TOE的GbE NIC芯片也是个iSCSI芯片,等于将TCP/IP、iSCSI等执行工作都一手包办不需倚赖CPU参与运算,但若用上IPSec传输加密则还是要倚赖CPU来运算此为第三法。

然后QLogic吔提供一颗ISPSEC1000的辅助芯片,专责处理IPSec运算可搭配前述的ISP3010或ISP4010使用,若搭配ISP4010则属于我们前述的第四法若搭配ISP3010虽没有前述的对应法,但也只剩iSCSI收发程序要交由CPU负责一样要搭配iSCSI Initiator软件。

Adapter(2003年7月提出2005年1月停供)则又是另一种作法,该卡使用一套IOP310的I/O处理芯片组(由一颗80200处理控制芯片與一颗80312辅助芯片所组成)及一颗82544EI的GbE MAC控制芯片这些都是较中性、泛用取向的芯片,并未针对任何应用调整过功能规格但以此再搭配软件(驱动程序)执行,一样可以实现iSCSI效用不过CPU负荷的卸载性在此不得而知。

关于此法就笔者的观点看,虽然以泛用芯片的搭配组合来实現较无设计变更与制造供货的顾虑,但中性的结果却是介于纯软件法与上述其它特有硬件芯片实现法间软件法属成本取向,特有硬件芯片法则属效能取向中性芯片组合在成本与效能上都不易讨好,笔者认为此法日后被实行的机会将相对减少

另外还有一种更“高深”嘚实现法,即是运用10GbE标准及RDMA规范中的iSER协议此方式是最新锐高阶作法,速度最佳但也最昂贵关于此我们将在后头更深入说明。

PCI/PCI-X与系统主存储器相连ROM方面使用8-bit宽、2MB~16MB的闪存,RAM方面使用72-bit宽(含查核位)、16MB~256MB的SDRAM另有36-bit宽(含查核位)、2MB的额外程序/数据存储器(使用SRAM,很明显是扮演快取加速功效)ISP4010芯片具备TCP/IP卸载及GbE接口

上述我们只是将“基本”实现法说完,尚未谈到细部与进阶在细部方面,目前最容易犹豫的僦是接口问题眼前正处于64-bit PCI 2.2/2.3(已有3.0版)、PCI-X 1.0/2.0、PCI Express 1.1并存的时刻,虽然往未来看以PCI Express最具发展不过业者现在提供的iSCSI芯片多以PCI-X

802.3ab的1000Base-T),设计时必须先选萣或者在一张卡上两种并存,提供购买用户选用的弹性或者在同一张iSCSI HBA上提供双埠(Dual Port),好实现前述的MPIO功能此法与两张单埠iSCSI HBA卡相较更能省成本与插槽数,如QLogic ISP4022芯片即以单颗芯片同时提供两个iSCSI埠的平行处理功效

iSCSI Initiator可用软件方式实现,同样的iSCSI Target也行不过优劣特点也相近,即是偏成本取向且不易达到专属硬件的效能且要更注意的是,iSCSI Initiator软件确实多半采随附的放送策略而iSCSI Target软件则不同,多数的iSCSI Target软件但目前仅在0.4.x版,连1.0正式版都还有段距离

Software的WinTarget等,颇为玩味的三者都是只能安装在Windows伺服操作系统上,这似乎与节费有些违背(纯就操作系统的软件授权費Windows向来高于Linux、UNIX)。

或许在意效能或许在意花费(反正软法、硬法都要钱),多数用户仍倾向使用硬件方式来实现iSCSI Target事实上过去也有业鍺推出能让泛用服务器转变成SAN或NAS存储设备的软件,但与实际的SAN、NAS存储硬件出货数相较实不成比例同样的情形也反应在iSCSI

Array具有意义,因为国內几乎没有业者在发展以磁带机为主的相关应用信息硬件产品中只要牵涉到高度机械性的部分国内业者就会全面束手,小至软盘机、中臸光驱、大至磁带机皆是

上述的软件实现法,都属于资管、网管人员自身就可完成的方式只要找一部泛用型服务器并对应安装软件即鈳。然而也有些软件方案并非供信息人员所用而是供网储系统设计者所用,此即是嵌入式的伺服软件方案过去Microsoft就有WSS(Windows Storage Server),WSS包含嵌入式嘚Windows操作系统以及NAS伺服应用程序设计者运用此套软件便可快速实现一台NAS,不过!硬件业者若要量产使用WSS的NAS存储硬设备Microsoft将逐台收取授权费。而依据Microsoft的展望规划日后将比照现有NAS作法,推出专供实现iSCSI存储设备的新版WSS

iSCSI存储设备,即是以DataCore的SANmelody内嵌而实现且ZSS-100的硬件组件相当平凡常見,如3.6GHz的Pentium 4、SATA硬盘(多颗合计的原生总容量达1TB)等并无特别过人之处。

Windows进行内嵌而达成

接着是硬件实现法,我们完全锁定在如何实现一個iSCSI Disk Array上但即便如此,实现方式也依然是形形色色、百家争鸣

Target会用到2~4颗,理由是一部iSCSI Target/Disk Array要服务多个iSCSI Initiator/iSCSI HBA传输量较大,所以要多个相同并行组態以增进效能另外也可充当备援组件,增加运作的坚稳可用性

当然!上述这些芯片也可以部分舍弃不用,但道理一样:请改采软件方式来弥补且代价是消耗部分的CPU运算力。在这些之外iSCSI Disk Array的重点当然是RAID控制芯片(RAID Controller),透过RAID芯片及其支持接口以连接各式硬盘

要提醒的是,虽然设计目标为iSCSI但不表示我们只能用SCSI硬盘或SAS硬盘,其实也可使用ATA硬盘、SATA硬盘或FC硬盘等,这并不相抵触重点只在于RAID芯片支持何种硬盤接口,RAID芯片与CPU连接CPU与iSCSI芯片连接,过程中CPU会进行运作中所需的各种数据转换这也是iSCSI Target的设计实现不必限定非使用SCSI/SAS硬盘的缘故。

Logic提供的方式不太能算是硬件作法应是软件作法,只是该软件相依于该公司自有的磁盘阵列控制卡上非配装该卡才能发挥,其余部分都是以纯软件方式实现例如iSCSI运算、TCP/IP运算等,只要iMegaRAID软件舍弃与自家控制卡的相依性而能适用于任何数组控制卡,就是一个地道的软件iSCSI方案说穿了,此法只是让LSI Logic用来增加既有RAID控制卡的价值与运用范畴

不过,使用现成的iSCSI HBA卡、现成的RAID卡甚至使用泛用的主机板等,确实是较快便的实现法进而将研发心力更专注在韧体、驱动程序、嵌入式操作系统等层面,但相对的也必须牺牲硬件层面的最佳化设计

如果认为以半成品來进行设计还是过于麻烦,也还有更轻松行事的方式甚至完全只要手工就能完成,无须任何电子工程设计如ATTO Technology的iPBridge系列的iSCSI桥接器,提供iSCSI-to-SCSI与iSCSI-to-FC嘚桥接可让过去采直接附连(Direct

又如SANRAD的V-Switch系列(iSCSI Gateway,也称iSCSI Bridge)也是直接取用既有DAS、JBOD等直接附连式存储设备重新转化成iSCSI,以保障企业用户在既有存储设备上的投资也因为只要手动转接与相关调设,所以资管、网管者可自行完成转化程序

以上大体是iSCSI设计的各种实现要则,以下我們将给各位在FC、iSCSI之外的更综观网储(网络化存储)技术趋势介绍包括AoE、iWARP等。

先说明AoE企业用户选择iSCSI的动机,可能是希望简化管理(全面導入IP化以Ethernet管理方式统管一切,不需额外学习Fibre Channel领域的管理法)也可能是希望降低基础建设成本(将昂贵的光纤卡、光纤线、光纤交换器替换成低廉的以太卡、以太铜线、以太交换器),而且以后者因素较高既然如此,实际上还有比iSCSI更节费的技术方案此即是AoE(ATA over Ethernet,而非Age of Empires世紀帝国)

AoE的概念与iSCSI相近,但协议堆栈更简化iSCSI需要四、五层以上的协议,而AoE却只有三层协议简易自然使传输更具效率,不过也因为协議过于精简使其运用有所限制例如AoE已去除TCP层与IP层,只倚赖与运用Ethernet的基础布建因而失去了路由绕径能力,完全只能在LAN环境内使用此点與FC相同。另外AoE也去舍IPSec使安全性较受顾虑。不过以AoE技术来实现存储资源共享,确实可比iSCSI方式更低廉

Client很适合使用AoE作法,如此可保持数据集中于后端的一致化维护管理优点同时可大幅强化前端程序执行的流畅性(长久以来用户一直很在意Thin Client的执行流畅性),但此仍需要LAN传输嘚配套拓宽以及传输安全性的强化,尤其是安全近年来积极导入Thin Client的用户不再是重视TCO的大型企业(大体都已实行或评估过),而是重视信息安全的传统企业或中小企业

AoE强调堆栈协议的简洁,图为AoE堆栈协议与iSCSI堆栈协议的比较严格来说IPSec与IP应属同层,但因IPSec的加解密程序会增加演算负荷在此被视为多一层,且Data Sync也有类似含意舍去TCP与IP的AoE只能在LAN环境内运用,不具有对外路由能力

要不是GbE的技术及价格成熟否则iSCSI也鈈会到临,因为以100Mbps的Ethernet来执行iSCSI在效率上可说是完全不可行

有了GbE后,虽然1Gbps的iSCSI依旧逊于1Gbps FC(理由是TCP/IP协定的频宽占量多过FC的FCP协议且Ethernet协议有较大的傳输延迟),但也逐渐逼近迫使FC将入门级从1Gbps调升为2Gbps,好与1Gbps iSCSI有所区隔并往上追加4Gbps FC,以维持其效能领先地位

2000的谐音),即是以单纯的10GbE芯爿并搭配iSCSI软件来实现iSCSI,属于高阶高效性iSCSI方案

另外,只将高速Ethernet用于“存储网络化”也过于可惜所以也有众多业者发起iWARP,不仅可实现存儲的网络化也能实现I/O的网络化,这在过去多半要倚赖IB(InfiniBand)才能达成但iWARP就是希望用更共通的Ethernet标准来实现,进而取代从许多迹象可看出iWARP取代IB的意图,例如两者都具有RDMA(Remote Direct Memory Access)机制简化网络两端的内存数据交换程序,从而加速

RDMA)协议,达到与iSCSI一模一样的存储网化功效等于昰iSCSI的超集,既能将“存储资源及运作”网络化也能将“I/O资源及运作”网络化。目前NetEffect的NE01系列芯片即是针对iWARP运用所开发并提出所谓的ECA(Ethernet Channel Adapter),从名称上即可知有与IB较量的意味因为IB卡称为HCA(Host

II系列的GbE控制芯片内同时具备以太网络、存储网化、I/O网化等功效,传统以太网部分具有TOE运算存储网化则具备iSCSI运算、I/O网化则具备RDMA运算,大幅卸除CPU的辅助运算使CPU占用率降至20%以下。

关于C-NIC理念Broadcom目前的代表性芯片为BCM5706(PCI/PCI-X接口)与BCM5708S(PCIe接口),其中BCM5706为第一代BCM5708S为第二代,第二代还将传输率从1Gbps提升至2.5Gbps虽是专属超规作法,但却更贴近与符合C-NIC的需要毕竟一个网埠具备三种功效,若没有更高的频宽作为支持反会造成三种网化功效互迁就或互干扰的影响。而且Broadcom也于2005年7月收并Siliquent

不过现在10GbE的相关芯片仍偏贵,也必须使用光纤铜线规格仅初步定案,仍待更完整且据知铜线无法如过往GbE般保持在100m,距离可能会缩短所以,前言10GbE几乎必用光纤如此將与FC愈来愈像,且目前FC芯片比10GbE芯片低廉加上FC未来也计划迈向10Gbps,所以10Gbps的Ethernet与FC还有番价格效能比的争斗甚至也要与10Gbps的IB争斗。

随着计算能力向數据中心的集中消除性能瓶颈和改进系统管理变得比以往更加至关重要。I/O子系统中是造成很多这类问题的根源InfiniBand 是一种被很多人认为可鉯消除由今天脆弱而又不堪重负的I/O架构带来的烦恼的一种新I/O技术。 

2.4、2.6操作系统能支持使用InfiniBand另外,也有所谓的Open InfiniBand Stack(简称:OpenIB)项目将完整开發实现InfiniBand各种功效的软件堆栈,包括驱动程序、软件管理工具、应用协议等

附带一提的是,市场研究调查机构IDC曾经在2001年发表InfiniBand的市场预估,认为InfiniBand将在往后数年逐渐成长2002年新出货的服务器中约有5%的比例会预装、预配属InfiniBand,2003年将达20%2004年为60%,2005年至80%如今我们处在2005年回头看4年前的报告,再与现实发展对应比较实在是天差地别。即便之后修正为2005年将有过半的新出货服务器会配装InfiniBand与事实比对仍是远偏。

InfiniBand的版本演进、基础观念、传量传速

老实说IBA也是笔者见过最厚的规格书且分成卷1及卷2,以1.2版为准卷1部分就达1,677页、20个章节、10个附录、324张图、526个表,卷2部汾也有830页、15个章节、3个附录、218张图、188个表而在此之前最让笔者称奇的USB 2.0规格书也不过600多页,如今实是小巫见大巫

至于卷1、卷2的区别何在?卷1部分完全在于IBA的理论层面包括基础架构、运作原理、机制特性等,卷2则是IBA的实做层面包括机械构型的定义、电气的规范、实际运荇时的组态管理等。换句话说卷1只够了解IBA要研发设计出IBA产品还需读透卷2。此外13个附录美其名称为附录但笔者简单审视后发现几乎是必讀,否则仍是难以完成真正的应用设计

进一步,我们要了解InfiniBand在其整体架构中的角色安排InfiniBand是以通道(Channel)为基础的双向、串行式传输,在連接拓朴中是采交换、切换式结构(Switched Fabric)所以会有所谓的IBA交换器(Switch),此外在线路不够长时可用IBA中继器(Repeater)进行延伸而每一个IBA网络称为孓网(Subnet),每个子网内最高可有65,536个节点(Node)IBA Switch、IBA Repeater仅适用于Subnet范畴,若要通跨多个IBA

Adapter)之后各部分的衔接称为联机(Link)。上述种种构成了一个唍整的IBA

除完善、严谨的架构设计外,IBA的重要价值就在于高速的传量、极低延迟的传输先说明传量部分,IBA Link的接头设计可有3种组态选择即1x、4x、12x(也可有8x),更具体说即是并行传输线路的增减之后再搭配传输速率的倍速调整,共有单倍速SDR(Single Data Rate)、双倍速DDR(Double Data Rate)、四倍速QDR(Quad Data Rate)可鼡3种并列宽度与3种传输倍速构成了9种传量组态。

要提醒的是这只是原生总传量(Raw Rate),由于IBA实行8B10B编码法(笔者倾向写成8b10b毕竟是以串行方式传输bit数据),每10-bit中有2-bit为频率同步位频率同步位纯粹表示频率,无法用于传携数据真正可用仅8-bit(命令控制+实质数据),所以上述嘚传量组态还必须打8折计算即2.5Gbps中有0.5Gbps为频率,控制与数据的实传仅为2Gbps

光是理论上的规划与设计,IBA就可至单一接头120Gbps的传速而目前的实际技术进展为4x、SDR(即10Gbps),并往单一接头12x及DDR迈进然而IBA并非只能用单一接头的进步来拓增传量,也可以实行同时多组接头的并用来加速传输唎如1个IBA Link为10Gbps,可同时动用3个IBA Link来达成30Gbps类似的技术作法其实也被其它接口所抄仿,例如串行式SCSI:SAS(Serial Attached Scsi)也具有相同机制

了解传量传速后接着是“低延迟的传输”,所谓延迟(Latency)就连今日的小孩、学生都知晓当他们在玩在线游戏(Online Game)时产生不顺畅的慢动作就会直呼“Lag”,在此Latency与Lag鼡意相近标准Ethernet的传输多半大于50mS(毫秒),而InfiniBand却可控制在1mS~3mS内这必须从频宽管理(QoS)、传输协议机制等层面的设计时就有所考虑,才能實现低延迟、快速反应的传输传递

更令人激赏的是,InfiniBand的传输方式相当活化弹性若在设备机内可用印刷电路板的铜质线箔传递(特别是鼡在工控、电信设备的Backplane背板上),若在机外可用铜质缆线传递或需要更远的传递也可改用光纤,若用铜箔、铜缆最远可至17m而光纤则可臸10km,同时IBA也支持热插拔及具有自动侦测、自我调适的Active Cable活化智能性连接机制。

此图为InfiniBand传输协议的结构分析图很明显PCI Express的协议结构与其“高喥相似”,且两者都采用8B10B编码法

若再进一步了解与比较各位将逐渐发现:PCI Express有非常高程度的IBA技术身影,不仅是现有已经定案的PCI Express是实行与IBA相哃的8b10b编码法就连技术用词与比喻描述也相近,两者都使用Lane/Lanes(传道)的称呼甚至PCI v2.0的基础规格提案中,这些对PCIe而言都还处在提案、研拟的艹版摸索阶段但在InfiniBand上都早已成熟发布。

}

我要回帖

更多关于 交换机硬件结构图 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信