目前主流的几个电子数据交换技术术比较?

对目前计算机网络采用的三种数据交换技术方式进行比较?望大哥大姐速帮忙回
长岛的雪丶as
1.电路交换技术
网络交换技术共经历了四个发展阶段,电路交换技术、报文交换技术、分组交换技术和ATM技术.公众电话网(PSTN网)和移动网(包括GSM网和CDMA网)采用的都是电路交换技术,它的基本特点是采用面向连接的方式,在双方进行通信之前,需要为通信双方分配一条具有固定带宽的通信电路,通信双方在通信过程中将一直占用所分配的资源,直到通信结束,并且在电路的建立和释放过程中都需要利用相关的信令协议.这种方式的优点是在通信过程中可以保证为用户提供足够的带宽,并且实时性强,时延小,交换设备成本较低,但同时带来的缺点是网络的带宽利用率不高,一旦电路被建立不管通信双方是否处于通话状态,分配的电路都一直被占用.2.报文交换技术
报文交换技术和分组交换技术类似,也是采用存储转发机制,但报文交换是以报文作为传送单元,由于报文长度差异很大,长报文可能导致很大的时延,并且对每个节点来说缓冲区的分配也比较困难,为了满足各种长度报文的需要并且达到高效的目的,节点需要分配不同大小的缓冲区,否则就有可能造成数据传送的失败.在实际应用中报文交换主要用于传输报文较短、实时性要求较低的通信业务,如公用电报网.报文交换比分组交换出现的要早一些,分组交换是在报文交换的基础上,将报文分割成分组进行传输,在传输时延和传输效率上进行了平衡,从而得到广泛的应用.3.分组交换技术
电路交换技术主要适用于传送话音相关的业务,这种网络交换方式对于数据业务而言,有着很大的局限性.首先数据通信具有很强的突发性,峰值比特率和平均比特率相差较大,如果采用电路交换技术,若按峰值比特率分配电路带宽则会造成资源的极大浪费,如果按照平均比特率分配带宽,则会造成数据的大量丢失.其次是和语音业务比较起来,数据业务对时延没有严格的要求,但需要进行无差错的传输,而语音信号可以有一定程度的失真但实时性一定要高.分组交换技术就是针对数据通信业务的特点而提出的一种交换方式,它的基本特点是面向无连接而采用存储转发的方式,将需要传送的数据按照一定的长度分割成许多小段数据,并在数据之前增加相应的用于对数据进行选路和校验等功能的头部字段,作为数据传送的基本单元即分组.采用分组交换技术,在通信之前不需要建立连接,每个节点首先将前一节点送来的分组收下并保存在缓冲区中,然后根据分组头部中的地址信息选择适当的链路将其发送至下一个节点,这样在通信过程中可以根据用户的要求和网络的能力来动态分配带宽.分组交换比电路交换的电路利用率高,但时延较大.分组交换提供的业务
交换虚电路——指在两个用户之间建立的临时逻辑连接.
永久虚电路——指在两个用户之间建立的永久性的逻辑连接.用户一开机,一条永久虚电路就自动建立起来了.分组交换网络数据报网络是一个面向无连接的网络虚电路网络是一个面向连接的网络为每条连接中的连接维护状态信息.路、报文、分组交换的特点和比较(1)电路交换:由于电路交换在通信之前要在通信双方之间建立一条被双方独占的物理通路(由通信双方之间的交换设备和链路逐段连接而成),因而有以下优缺点.优点:①由于通信线路为通信双方用户专用,数据直达,所以传输数据的时延非常小.②通信双方之间的物理通路一旦建立,双方可以随时通信,实时性强.③双方通信时按发送顺序传送数据,不存在失序问题.④电路交换既适用于传输模拟信号,也适用于传输数字信号.⑤电路交换的交换的交换设备(交换机等)及控制均较简单.缺点:①电路交换的平均连接建立时间对计算机通信来说嫌长.②电路交换连接建立后,物理通路被通信双方独占,即使通信线路空闲,也不能供其他用户使用,因而信道利用低.③电路交换时,数据直达,不同类型、不同规格、不同速率的终端很难相互进行通信,也难以在通信过程中进行差错控制.(2)报文交换:报文交换是以报文为数据交换的单位,报文携带有目标地址、源地址等信息,在交换结点采用存储转发的传输方式,因而有以下优缺点:优点:①报文交换不需要为通信双方预先建立一条专用的通信线路,不存在连接建立时延,用户可随时发送报文.②由于采用存储转发的传输方式,使之具有下列优点:a.在报文交换中便于设置代码检验和数据重发设施,加之交换结点还具有路径选择,就可以做到某条传输路径发生故障时,重新选择另一条路径传输数据,提高了传输的可靠性;b.在存储转发中容易实现代码转换和速率匹配,甚至收发双方可以不同时处于可用状态.这样就便于类型、规格和速度不同的计算机之间进行通信;c.提供多目标服务,即一个报文可以同时发送到多个目的地址,这在电路交换中是很难实现的;d.允许建立数据传输的优先级,使优先级高的报文优先转换.③通信双方不是固定占有一条通信线路,而是在不同的时间一段一段地部分占有这条物理通路,因而大大提高了通信线路的利用率.缺点:①由于数据进入交换结点后要经历存储、转发这一过程,从而引起转发时延(包括接收报文、检验正确性、排队、发送时间等),而且网络的通信量愈大,造成的时延就愈大,因此报文交换的实时性差,不适合传送实时或交互式业务的数据.②报文交换只适用于数字信号.③由于报文长度没有限制,而每个中间结点都要完整地接收传来的整个报文,当输出线路不空闲时,还可能要存储几个完整报文等待转发,要求网络中每个结点有较大的缓冲区.为了降低成本,减少结点的缓冲存储器的容量,有时要把等待转发的报文存在磁盘上,进一步增加了传送时延.(3)分组交换:分组交换仍采用存储转发传输方式,但将一个长报文先分割为若干个较短的分组,然后把这些分组(携带源、目的地址和编号信息)逐个地发送出去,因此分组交换除了具有报文的优点外,与报文交换相比有以下优缺点:优点:①加速了数据在网络中的传输.因为分组是逐个传输,可以使后一个分组的存储操作与前一个分组的转发操作并行,这种流水线式传输方式减少了报文的传输时间.此外,传输一个分组所需的缓冲区比传输一份报文所需的缓冲区小得多,这样因缓冲区不足而等待发送的机率及等待的时间也必然少得多.②简化了存储管理.因为分组的长度固定,相应的缓冲区的大小也固定,在交换结点中存储器的管理通常被简化为对缓冲区的管理,相对比较容易.③减少了出错机率和重发数据量.因为分组较短,其出错机率必然减少,每次重发的数据量也就大大减少,这样不仅提高了可靠性,也减少了传输时延.④由于分组短小,更适用于采用优先级策略,便于及时传送一些紧急数据,因此对于计算机之间的突发式的数据通信,分组交换显然更为合适些.缺点:①尽管分组交换比报文交换的传输时延少,但仍存在存储转发时延,而且其结点交换机必须具有更强的处理能力.②分组交换与报文交换一样,每个分组都要加上源、目的地址和分组编号等信息,使传送的信息量大约增大5%~10%,一定程度上降低了通信效率,增加了处理的时间,使控制复杂,时延增加.③当分组交换采用数据报服务时,可能出现失序、丢失或重复分组,分组到达目的结点时,要对分组按编号进行排序等工作,增加了麻烦.若采用虚电路服务,虽无失序问题,但有呼叫建立、数据传输和虚电路释放三个过程.总之,若要传送的数据量很大,且其传送时间远大于呼叫时间,则采用电路交换较为合适;当端到端的通路有很多段的链路组成时,采用分组交换传送数据较为合适.从提高整个网络的信道利用率上看,报文交换和分组交换优于电路交换,其中分组交换比报文交换的时延小,尤其适合于计算机之间的突发式的数据通信.
谢谢你的回答 那他们三种方式之间的联系嘞?
我还不是太懂,你只说了他们的优缺点
以上三种数据交换技术总结如下。
 电路交换:在数据传送之前需建立一条物理通路,在线路被释放之前,该通路将一直被一对用户完全占有。
 报文交换:报文从发送方传送到接收方采用存储转发的方式。
 分组交换:此方式与报文交换类似,但报文被分成组传送,并规定了分组的最大长度,到达目的地后需重新将分组组装成报文。
为您推荐:
其他类似问题
扫描下载二维码当前位置:
数据中心技术概览
企业网D1Net  
核心提示:
本文的数据中心建设演进之路仅供参考,不能一概而论。无论是互联网企业还是互联网化的其它行业企业,在数据中心建设、升级、优化、改造过程中,需结合自身业务需求特点,按阶段建设出最适合的数据中心,才是我们不断追求的方向。
每一家互联网公司的本质就是一个软件公司,所以每一家互联网企业最重要的就是。可以说数据中心承载着互联网企业的产品、业务、理念和梦想。而在数据中心建设过程中,除了开源软件系统的集群、定制、利用、优化,更多面临的是资源、网络、运维管理等方面的问题。下面我们来一一探讨。
一、机房的类型
互联网所有业务应用都承载在数据中心中,因此互联网数据中心不仅需要快速安全的网络,还有对服务器监管、流量监控等网络管理方面的需求,而且要有高度可靠的、安全的机房网络环境。
这个方式是最为普遍。形式上来说,运营商如联通、电信建设完机房后,大型客户会自己直接洽谈业务,自己亲自运维。特点是柜子多、运营商链路单一、链路带宽大。但对于中小型客户,资源租用(机柜、带宽、ip地址)比较零散,运维管理压力大,所以运营商就会将一部分机柜租给第三方运营商,由第三方负责资源划分、管理、运维及销售。由于第三方运营商身份的特殊性,往往会找一些传输机房,将其他运营商的链路拉通。所以第三方有个天然优势就是多运营商链路,服务好,价格虽高了一点,但链路种类多,质量好,所以很多互联网公司初期均会选择第三方运营商的租用服务。
合建及自建机房
建设机房流程上很麻烦,投入较大。部分第三方运营商会和运营商合作合建机房,也有和企业合作合建机房,也有实力比较强的企业选择自建机房。对于租用机房来说,电不是大问题。因为运营商会限制一个机柜的供电量。一般为10a~13a.但对于合建或自建机房来说,决定一个机房能使用多大规模的因素除了柜子更重要的就是电。例如某银行建设完大型机房园区后,发现机房电量不够,导致1/3的机柜空置;某企业预期20万台server机房,也因为供电问题降为8万台。所以整个行业都开始重视数据中心的功耗问题。一方面考虑设备的绿色节能问题,设备用电越少,可使用的设备数量就越多。另一方面也要考虑数据中心冷热风道的散热问题,所以现在数据中心级别的交换机产品推荐为前后通风设备。从设备级别的可靠性来说,也要考虑设备的风扇模块、电源模块是否冗余,是否支持热插拔(因为除模块外,设备硬件故障率最高的地方就在风扇和电源模块)。
而对于网络建设来说,除了租用公有云服务,无论是租用、合建、还是自建机房,均需要互联网企业自己搭建网络基础架构。每一个互联网企业,无论大小,都会经历以下四个模式数据中心的一种或多种。
二、数据中心的四种建设模式
1.早期的数据中心
在互联网企业中,笔者见到过最"精简"的网络架构如图1所示:一台核心网管/出口设备,上行连接防火墙(若没有防火墙则直接连接至运营商)、下行单链路连接百兆二层接入交换机;百兆接入二层交换机单链路连接至服务器。服务器网关则部署在核心交换机上,整网二层网络环境,核心至运营商之间静态路由即可。防火墙若不启用nat功能则为二层模式部署,若启用nat功能则三层模式部署。
这种单设备单链路的架构唯一的优点就是便宜。缺点却非常明显:单点故障、设备可用性低、资源规划不清。
如图2所示,优化后的数据中心为考虑设备、链路的冗余性,采用了双链路上行、核心设备冗余备份,协议方面使用stp/mst+vrrp/hsrp.至于内外网是否分离问题,从性价比考虑,很多互联网企业都会选择内外网物理合一、逻辑分离。但对于从内网流量数据、外网安全隔离的角度看,游戏型的互联网企业一般会选择内外网物理分离的架构。
以我们现在的技术和思路来看,图2的架构实际已经是大二层网络环境,但无法满足现在大二层网络环境中的链路利用率、故障收敛及运维管理等方面的需求。而这种架构由于网络硬件发展问题,会有设备硬件表项、端口速率、网络收敛比等诸多限制。
2.模块化、区域化数据中心
模块化、区域化数据中心具有高可用、高可靠、高可控、分布式安全部署、易扩展、易管理等好处。从设计角度看很简单,就是业务功能区域划分pod.区域核心设备实际在整张网络架构中属于汇聚层设备(如图3所示)。
这种模型从设计出发,无论是设备表项问题、安全区域防护、还是运维排障(因为三层物理架构下的大二层网络排障是一件极其痛苦的事,很多时候的业务故障只能通过mac逐步排查实现),所以综合考虑各区域网关最好的是部署在汇聚层。核心设备与汇聚设备之间为ip互通,架构上简单的或者是安全防护较高(各区域部署ha防火墙)的情况下,可采用vrrp/hsrp+静态路由的方式,如果不存在上述条件,还是建议采用ospf协议部署。当然,像腾讯、百度的服务器网关均部署在接入交换机,整网均为ospf协议部署。好处是ip层网络通过ecmp的方式,可消除早期stp/mst的链路耗损问题,但带来的问题是会过多的消耗ip地址,也会很难过渡到云就绪网络数据中心,不过这点在现在可通过sdn+overlay数据中心模型解决。
3.云计算数据中心
说起云计算,就要先说说虚拟主机(下文简称"虚机")。虚机最大的优点就是提高物理服务器资源和带宽资源的利用率。中国最早大规模部署虚机的互联网企业就是淘宝,淘宝之所以虚机用的规模最大,实际上也是因为其电商的业务性质导致,毕竟都是网页、文字和图片,服务器利用率很低。不过像百度这种搜索业务的数据中心,服务器利用率很高,且业务应用层面而言早已分布式部署,所以对虚机需求还不高。
从网络建设角度看,实际上由于云计算的产生,传统的设备硬件也好,还是传统的交换路由协议也好,并不能很好的支撑池化后的服务器资源。所以为了支撑云计算,支撑服务器资源池化,作为基础设施的网络设备,从早期园区网设备级别发展到数据中心专业级网络设备,从硬件的clos架构、大缓存、虚拟化、绿色节能、散热风道、高密40ge/100ge、可变长信源流量调度,到软件级别的irf、mdc、vepa、trill、vepa、fcoe、vxlan、nvgre、openflow,再到操作系统的分布式/高可用架构、scm、lipc、dbm、issu、进程级gr等等,从硬件架构、操作系统、交换协议、软件特性均做了重大升级。而网络架构也会根据网络和软件的不同理念发展为云就绪网络数据中心和sdn+overlay数据中心两种。
云就绪网络数据中心的核心发展理念是:虚机的mac封装传递由网络设备负责。所以为了保证虚机之间或与网关通信的mac传递,整张网络为大二层网络环境(如图4所示)。
云就绪网络数据中心从网络层面是一套完整的云计算网络解决方案。但是,随着硬件技术的不断升级、云计算的网络规模不断扩大,对核心网关设备要求越来越高,包括各种表项的要求,刷新率的要求,以及很多生产数据中心需要面对从三层ip网络到大二层网络的过渡瓶颈,所以综上考虑,云就绪网络更适合中小型,较为传统的云计算数据中心。
为了解决云就绪网络数据中心的问题,sdn+overlay数据中心的核心理念是:虚机的mac封装由虚机自行完成,网络作为通道只要ip可达即可。简单来说,就是虚机自行将mac已标签形式封装进ip报文内进行传递,可以理解为虚机之间自行实现tunnel的技术,网络则作为ip通道的大三层,网关在接入交换机上即可。
vxlan是目前主流的overlay技术,但它也只是封装技术,而控制则是通过网关设备&&sdn的contrller(控制器)解决,从而在未来云就绪数据中心条件不满足的情况下,支撑云计算网络的搭建。但目前由于vxlan需要面对来自数据中心中应用stp和vlan带来的限制问题(stp对与端口和网络链路的浪费和vlan的数量限制)以及对于多用户组环境的需要和tor交换机上的流表数量不足的问题,而openflow也需要面对版本不兼容和不稳定的问题,所以"sdn+overlay"数据中心还未正式规模商用。
三、解决互联网访问瓶颈的三种方法
1.多运营商链路机房
如果说跨运营商流量的丢包和延迟是在穿透骨干网时发生的,那么就让流量不穿过骨干网的互联通道就好了。最普遍的做法就是做多线机房。在主营idc架设多运营商链路,拥有支撑多运营商用户的访问能力,避免单线idc中的骨干网穿行流量。这种方式可以提高单个idc多运营商用户的访问能力。但上文中也讲过,对于中国地大物博的现状,如果北京到广州的某个链路质量不稳定的话,也会对该运营商用户的业务访问造成影响。所以对于小型互联网公司,当只有一个机房的情况下,基本上推荐多运营商链路机房。
而对于中大型互联网公司的多机房业务而言,主站业务为保证客户的动态流量及cdn回源流量的访问质量,都会采用多运营商链路机房,某些重要业务机房,也会采用双线机房。
cdn的全称是content delivery network(内容分发网络)。其基本思路是尽可能避开互联网上有可能影响数据传输速度和稳定性的瓶颈和环节,使内容传输的更快、更稳定。通过在网络各处放置节点服务器所构成的,在现有的互联网基础之上的一层智能虚拟网络。cdn系统能够实时地根据网络流量和各节点的连接、负载状况以及到用户的距离和响应时间等综合信息将用户的请求重新导向离用户最近的服务节点上。其目的是使用户可就近取得所需内容,提高用户访问网站的响应速度。通俗理解就是网站加速,cpu均衡负载,可以解决跨运营商,跨地区,服务器负载能力过低,带宽过少等带来的网站打开速度慢等问题。
总体来说,cdn服务优缺点都很明显。优点是cdn服务用于确保快速可靠地分发静态内容。静态内容包括html页面文件、视频文件、js文件、css文件、exe文件、图片文件(jpeg、gif、png)等。虽然现在有ssl卸载及tcp加速等四至七层网络加速技术,但对于动态流量比如实时的聊天、交易数据等等需要访问主站数据库的业务是无能为力的,所以动态内容必须是通过互联网的ip网络来传输。因此要想提供快速的网络体验,满足当今用户的要求,只能通过对互联网流量的独特视角来达到。比如上文中的多运营商链路机房,比如未来的sdn广域网技术。目的是了解通过互联网的最佳路由,充分利用这些最佳路由,加速通过互联网协议的数据通讯。
3.分布式idc
如前文所讲,cdn可以完美解决互联网用户的静态流量访问,且现在已经实现ssl卸载及tcp加速(握手)等技术,但对于动态流量来说,cdn依然存在缺陷,这时就有了第三种方法&&分布式idc.
在城域网建设中,基础链路可选择运营商专线,也可选择裸纤,通过千兆、万兆、40ge长距模块或波分设备实现链路扩容,在建设过程中也可考虑通过二层传输交换机使用vlan、trunk划分逻辑通道,而ip层面城域网的路由协议一般选用ospf协议,如果考虑未来建设广域骨干网启用bgp协议的话,城域网也可考虑选用isis协议。
而骨干网建设中,除了考虑物理专线、波分,在ip层面一般底层路由协议选用isis协议,当然ospf协议也可以,但如果底层选用ospf,则需考虑area0的部署范围。未来如果考虑企业自身的多业务专线,则会在bgp基础上使用mpls vpn或vpls.如果骨干网规模很大,下一步将考虑mpls te.但目前互联网公司中自建广域骨干网的企业很少,使用mpls te的更少。在光纤资源稀缺的现状下,全网的分布式idc使用裸纤连接从成本考虑是不现实的。所以很多互联网企业早期也会使用gre vpn、ipsec vpn实现基于广域网链路的三层互通。而在云计算如火如荼的今天,现在也有evi、otv等各厂商私有协议实现基于广域网链路的二层互通。本文只是描述分布式数据中心建设的思路,而具体的城域网、骨干网详细的网络架构设计思路在此不再展开。
四、非互联网企业的借鉴思路
本文阐述了互联网企业其数据中心发展过程中内部、外部面临的问题,并提出了解决的思路与建议。对于需要互联网化转型的其它行业企业而言,由于前期自身已建设好办公网及数据中心,在转型的时候需要考虑以下两个方面:
一、大多数企业的数据中心初期建设时,主要为办公和自有业务而建。互联网化转型时需要优化、改造其原有数据中心。而一步跨度到云计算数据中心比较有难度。所以从功能性考虑出发,在转型过程中建议过渡到到模块化、区域化数据中心(各层面的网络设备均采用irf虚拟化技术),如图6所示,将原有业务及办公业务通过汇聚层设备隔离,从安全性考虑在各个模块中部署相应安全设备。数据中心模块化、区域化后,互联网业务模块为保证业务访问质量、网络访问安全性等方面,建议采用独立出口区域。
二、如文章开篇时所讲,互联网企业的本质是软件开发公司,所以软件开发、自研能力很强。某些大型互联网企业也会自研防ddos攻击的黑洞设备。而这样的软件开发、自研能力并不是一蹴而就的,需要长时间的摸索和累积。所以传统企业面临互联网化转型时,结合其自身软件开发人员的综合素质考虑,像负载均衡、防火墙、ips和cdn等方面,在商用设备达到性能和性价比瓶颈之前,在数据中心建设时推荐使用成熟稳定的商用产品。
五、结束语
本文的数据中心建设演进之路仅供参考,不能一概而论。无论是互联网企业还是互联网化的其它行业企业,在数据中心建设、升级、优化、改造过程中,需结合自身业务需求特点,按阶段建设出最适合的数据中心,才是我们不断追求的方向。
关注官方微信:或微信号: 我们将定期推送IDC产业最新资讯
首届 "攻城狮"IDC运维知识竞赛邀您来战,最强团队,最强技能,最强比拼,万元大奖等您拿!
Copyright 2001 - 2013 Chinaitlab Group All Rights Reserved. 京公网安备14号当前位置: →
核心交换机:数据中心网络最为关键的节点
数据中心核心交换机业界动态
核心交换机是数据中心网络最为关键的节点。随着云计算、虚拟化和大数据等趋势逐渐走俏,数据中心网络的建设也出现新的变化。因为企业需要不断面对IT系统日益复杂、设备数量日益增多,数据大集中和计算能力走高的诸多挑战。核心交换机面临很大的数据交换压力,由此也推动了核心交换机技术在近几年的跨越式发展,关于技术标准、性能、架构、大二层网络构建、虚拟机网络策略迁移、SDN的讨论,更是呈现百家争鸣的态势。在这期间,万兆技术标准成为主流,40G、100G逐渐走向商用;Spine-Leaf架构已经赢得共识;SDN、NFV还未尘埃落定。每年我们都能看到技术标准博弈的不断演进,性能不断超越的惊艳,数据中心网络市场走向繁荣的步伐,以及各家战略、策略和产品的角力。
从2008年开始,业界主流的网络设备供应商&你争我赶&的推出了自己的数据中心核心交换机产品。迄今为止,4家在数据中心网络市场举足轻重的供应商,思科、华为、H3C和Arista先后推出了新一代数据中心核心交换机产品,分别是Nexus 7700系列、CloudEngine 12800系列、H3C S12500-X系列、Arista 7500E系列。与上一代各家的数据中心核心交换机产品,华为S9700、思科N7000、H3C S12500、ARISTA 7500相比较,这4大系列产品在硬件架构、性能、功能等各方面都有了质的飞跃,共同站在了目前核心交换机产品的最前端。同时,数据中心网络市场所酝酿的火药味越来越浓,所涉及的话题,已不是局限于谈谈趋势,聊聊技术标准那么简单,因为真正决定客户选择的,是技术、创新、质量和服务等硬条件。
在各大企事业的招标设备技术规格要求中,核心交换机的性能、通风散热、系统可扩展性要求首当其冲:
在性能要求方面,要求核心交换机能够支持足够大的交换容量,在业务槽位数、单板带宽等方面也有具体的要求;
在通风散热方面,要求核心交换机遵循数据中心机房前进风、后出风的严格散热风道建设规范,以保证在长期高速运行下的可靠性;
在系统可扩展性方面要求核心交换机具有持续的带宽升级能力以及相匹配的散热方面的扩展能力,从而保护其在数据中心方面的投资。
如果单从性能上看,思科、华为等四家的核心交换机似乎没有太多的区别,不论在线卡、整体交换容量等方面都可以满足客户网络建设的需求,甚至还可保证未来5-10年的扩展性需求。但如果我们深入到产品内部,看一看各家核心交换机内部的实现,就会发现各家在基础架构的散热风道、冷热风道隔离、带宽扩展性等实现方面存在细节上的不同,那么给用户所带来的价值也就不同。
正交架构下的散热通道设计理念
正交架构已经成为数据中心核心交换机设计的共识,上述4大系列产品都不约而同的选择了正交架构。正交架构可将背板高速链路走线长度有效降低,以获得更加理想的误码率,从而在性能方面有了很大的提升。
但正交架构带来性能优势的同时,也带来散热设计的难度。因为在正交架构中,线卡与网板垂直对插,整个机框通过背板被分隔成两个独立的空间,散热时两个空间需要绝对隔离,并都保持前进后出的风道,这对散热设计带来了挑战。而交换机遵循数据中心机房的前进风、后出风的散热通道标准是国际数据中心通行做法,更是各大企事业标书明确提到的指标要求。如何实现在正交架构下做到冷热风道隔离,并适配数据中心机房的前进风、后出风的散热通道的设计,是对各家设备供应商的基础架构设计能力的考验。
为了更好的落地正交基础架构的设计理念,这4大系列产品在实现细节和技术上都采用了不同的做法。主要包括三大类:1)直通风前后风道/级联风道解决方案,思科Nexus 7700系列和Arista 7500E系列采用这样的做法;2)直通风前后风道/区域独立散热风道,华为CloudEngine 12800系列所采用的专利方案;3)直通风Z型散热风道/横向散热通道混合使用,H3C S12510-X和S12516-X分别采用了不同的散热通道做法。接下来让我们详细了解下4款系列产品,采用不同设计理念下的差异。
直通风前后风道/级联风道
Nexus7700系列是思科最新一代的数据中心核心交换机产品,采用正交架构设计,为了遵循严格的前进风、后出风的散热风道,思科大胆的采用了直通风/级联风道的散热方案,即直接在线卡面板上开孔进风,在背板上打孔,风流直接穿过背板到达网板,网板的面板上开孔,风扇框安装在机箱的后面,进行抽风散热。同时,风扇系统可根据设备温度自动调速,允许风扇系统热插拔。当网板故障时,要拔出风扇框更换网板,但严格要求用户在3分钟内更换完网板,以免风扇停止散热后造成系统掉电。而这样的直通风设计,使得线卡散热和网板的散热风道并未隔离,交换网板始终处于高温工作状态,不得不面对级联风道热积累效应带来的可靠性问题。
Arista 7500E也采用了直通风/级联风道的散热方案,但设计上更加大胆,直接将风扇集成在了交换网板上,而风扇属于机械容易损坏部件,如果风扇出现故障需要更换,意味着交换网板也要随之进行更换,这样的集成无疑将使用户的后期维护成本大大提高。
直通风前后风道/区域独立散热风道
华为CloudEngine 12800系列采用了直通风前后风道/区域独立散热风道的解决方案,在风道设计上拥有专利技术。将交换机的散热区域分成了线卡区域和网板区域,线卡区域的散热是面板进风,后面出风;网板区域的散热是机箱前面下部进风,机箱后面上部分出风;两个区域经过背板严格的隔离,这样形成了两个完全独立的前进风、后出风的散热风道。严格遵循风道设计的前提下,可有效规避风道级联所带来的可靠性问题。
直通风Z型散热风道/横向散热通道混合
H3C在正交架构的散热风道设计上,尝试了两种解决方案。H3C S12510-X采用了Z型散热风道,遵循前进后出风道和冷热风道分离原则,进风口集中在机箱下部,出风口在机箱的后上部,线卡竖插,风道从下到上问题不大,但交换网板和主控板横插,阻碍了风道流向,因此需要在交换网板和主控板上两边开孔形成风道,这样做会造成单板面积浪费,同时孔洞叠加形成的风道会产生风阻,导致散热效率降低。思科也曾在其上一代的Nexus 7000系列产品中使用过Z型风道设计,但在Nexus 7700系列中并未沿用这一风道设计思路。H3C S12516-X在散热风道设计上反其道而行,并未遵循目前主流的前进风、后出风的通道设计,而是采用了&复古&的横向散热通道,横向散热通道会带来热风回流和走线空间不足的问题,目前并不适用于数据中心的机房环境,值得商榷。
带宽、散热能力的可扩展性
之所以大笔墨的详述了4家厂商正交架构下散热风道的设计思路,是因为正交架构代表了目前核心交换机基础架构的方向,基于正交架构的散热风道设计、正交连接器的选择决定了交换机单板的散热和带宽扩展能力。这些不仅代表了厂家在核心交换机研发的技术领先性,更关乎用户在未来的数据中心网络整体的扩展性、维护成本和系统可靠性。
连接器是核心交换机的基础架构部件,伴随着产品的整个生命周期,因此连接器选择至关重要。在具有正交架构的交换机中,正交连接器决定了交换机的带宽可扩展性和单板兼容性,因为正交连接器决定高速链路能不能升级到更高速率的重要因素,目前这4款最前沿产品的正交连接器选择分成了两个方向。思科Nexus 7700系列和华为CloudEngine 12800系列都选择了ATCS的Xcede正交连接器;H3C S12500-X系列和Arista 7500E系列都选择了Molex的上一代Impact正交连接器。Xcede正交连接器是新一代的连接器,是面向25G高速链路设计的,在高速连接、串扰和连接密度等方面已经考虑了更高速率的支持,所以可以应用在演进到更高速率的核心交换机上。
同时,每槽位的散热能力的高低决定了单板端口密度的高低,而这与散热通道设计的领先性息息相关。最具优势的散热风道设计,将直接影响交换机是否能支持48*40GE单板和48*100GE单板所带来的千瓦功耗,单板的扩展能力越高则需要首先考虑系统能否带来更好的散热设计。所以,就目前的散热风道设计而言,华为的直通风前后风道/区域独立散热风道思路,对于单板散热可扩展性最具竞争优势。
结语:正交架构,前进风、后出风的散热风道设计标准已经成为了数据中心核心交换机的标准,而在技术的细节实现上,不同厂商各显其能。作为数据中心基础架构的核心组件,它每一个细微的技术实现差异,也许就会给数据中心网络的整体性能、未来的扩展性、可靠性,甚至是业务实现带来差异。所以在企业数据中心网络建设中,将供应商在硬件基础架构方面的技术积累、设计理念和用户投资、运维成本等方面的价值体现作为考量因素至关重要。
关注官方微信
扫一扫分享本文到朋友圈
联系我们:
&(发送邮件时,请把#换成@)
投稿信箱:
&(发送邮件时,请把#换成@)
企业网版权所有}

我要回帖

更多关于 主流数据库技术与发展 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信