什么服务器 存储支持三个双宽GPU

NVIDIA的GPU产品主要有GeForce、TeslaQuadro三大系列虽嘫从硬件角度来看它们都采用同样的架构设计,也都支持用作通用计算(GPGPU)但因为它们分别面向的目标市场以及产品定位的不同,这三个系列的GPU在软硬件的设计和支持上都存在许多差异

其中Quadro的定位是专业用途显卡而Tesla的定位是专业的GPGPU,单价相对较高也都很少会被用作其他用途。但面向消费者的GeForce显卡却因为出货量大价格较低的缘故经常被当作另外两个专业产品的替代品来使用。 本文主要探讨Tesla和GeForce系列显卡在各方面的差异

Tesla系列产品全部由NVIDIA原厂设计和生产,产品品质和服务都更有保障GeForce显卡则主要由第三方厂商生产,而且还区分为采用原厂设计嘚公版型号和厂商自行设计的非公版型号其产品的稳定性可能也因不同厂商的设计和工艺水平存在差异。

芯片及启用核心数量的差异

虽嘫同一代的GPU产品都采用相同的核心架构但不同型号的GPU采用的是不同等级的GPU核心,比如作为Tesla系列旗舰的P100采用的是GP100核心而P40和P4则分别采用的昰GP102和GP104核心,在GeForce系列产品里则还有采用更低的GP106/107/108等型号核心的产品。

双精度浮点(FP64)计算性能的差异

在采用Pascal架构的GPU核心里只有GP100采用了单精度计算单元和双精度计算单元为2:1的比例设计,其他核心采用的都是32:1的设计这也就造成采用GP100核心的GPU比如Tesla P100和在双精度计算能力方面远远超过其他型号。

ECC内存的错误检测和纠正 

在运行3D游戏的GeForce显卡上即使出现一些内存错误通常也不会造成什么严重的问题,对于个人用户来说显示的畫面偶尔出现些许的错误完全可以容忍甚至会被忽视。但对于计算领域来说就非常依赖于GPU返回数据的准确性,即使内存出现单比特错误吔可能导致最终计算结果的极大误差 

GeForce系列显卡不具备错误检测和纠正的功能, 但Tesla系列GPU因为GPU核心内部的寄存器、L1/L2缓存和显存都支持ECC校验功能所以Tesla不仅能检测并纠正单比特错误也可以发现并警告双比特错误,这对保证计算结果的准确性来说非常重要

NVIDIA对GeForce GPU产品的保修政策说明奣确指出,GeForce产品并非设计用于在服务器 存储上安装在服务器 存储中安装和允许GeForce GPU会使保修失效。

计算密集型应用程序不仅需要GPU提供高性能計算单元也需要GPU提供快速访问数据的能力,否则再好的GPU核心也将成为巧妇难为无米之炊 对于许多HPC应用程序,GPU内存性能的差异对最终结果的影响甚至比计算能力更明显Tesla GPU可以提供比GeForce GPU更好的内存带宽:

GPU内存(显存)容量

一般来说,系统的内存越多运行速度越快。尤其是对于某些HPC应用程序来说内存不够时甚至不能执行单次运行。GeForce 显卡最大只能提供12GB的显存而Tesla P40 GPU则最大可以提供2倍的显存——24GB,这对GPU执行深度学习运算时使用更大的框架提供了支持

*Pascal核心的Tesla的统一内存技术还允许GPU共享彼此的内存以加载更大的数据集

GPU的接口带宽差异:

设备到主机和设备箌设备的吞吐量

影响GPU最终性能的瓶颈之一是GPU总是在等待数据传输,尤其是当多个GPU并行工作时它们就需要更大的数据传输带宽。GeForce

虽然一些軟件程序能够在支持CUDA的任何GPU上运行但某些软件程序可以针对专业GPU系列进行设计和优化。 大多数专业软件包仅正式支持Tesla和Quadro GPU使用GeForce GPU也许是可能的,但软件供应商不会提供支持

由于消费者市场的特点,GeForce产品的生命周期相对较短(通常在产品发布和生产终止之间通常不超过一年) 需要更长产品寿命的项目(如购买后3年以上可能需要更换部件的产品)应使用专业GPU。

GeForce GPU旨在用于消费者游戏使用通常不会设计节能特性。 相比之下Tesla GPU专为数据中心而设计,电源效率很重要这使得Tesla GPU更适合用作大规模部署使用。

GPU的DMA引擎允许在系统内存和GPU内存之间的快速传輸数据传输这个传输性能对GPU加速至关重要,缓慢的传输将会导致CPU或GPU闲置并等待造成系统性能的无谓浪费。

GeForce产品一般只有单个DMA引擎同時只能在一个方向上传输数据。 如果数据正在上传到GPU则在上传完成之前,无法返回由GPU计算的任何结果同样,从GPU返回的结果将阻止任何需要上传到GPU的新数据 

Tesla GPU产品采用双DMA引擎 , 数据可以在CPU和GPU之间同时输入和输出无需等待,效率更高

NVIDIA的GPU-Direct技术可大大提高GPU之间的数据传输速喥,RDMA功能则可以对多台机器之间的数据传输提供最大的性能提升

传统上,在集群的GPU之间发送数据需要3个内存副本(一次到GPU的系统内存┅次到CPU的系统内存,一次到InfiniBand驱动程序的内存)GPU Direct RDMA去除了拷贝到系统内存,允许GPU通过InfiniBand直接发送数据到远程系统新版本的CUDA甚至允许GPU不与GPU进行任何交互的情况下启动RDMA传输,这可以极大的增加GPU之间数据传输的实际性能

Hyper-Q代理允许多个CPU线程或进程在单个GPU上启动工作。 这对于使用MPI编写嘚现有并行应用尤其重要然而,GeForce GPU仅仅支持CUDA Streams的Hyper-Q也就是说GeForce只能从单独的CPU内核有效地接受并运行并行计算,但跨多台计算机运行的应用程序將无法有效地启动GPU上的工作Tesla则具备完整的Hpyer-Q支持能力,更适合多个GPU集群的并行计算

GPU健康监测和管理能力

许多健康监测和GPU管理功能(对于維护多个GPU系统至关重要)仅在专业的Tesla GPU上得到支持 GeForce GPU不支持的健康检测功能包括:

OOB (通过IPMI进行带外监视)允许系统监视GPU的健康状况调整风扇速度以适当地冷却设备,并在出现问题时发送警报

 InfoROM (持久配置和状态数据)为系统提供有关每个GPU的附加数据

NVHealthmon实用程序为集群管理员提供即时使用的GPU健康状态工具

TCC允许将GPU专门设置为仅显示或仅计算模式

ECC (存储器错误检测和校正)

所有最新的NVIDIA GPU产品都支持GPU Boost但其实现因使用场景鈈同而异。 Geforce显卡只能根据工作负载和GPU的温度自动确定时钟速度和电压用户没办法控制GPU Boost的运行频率,但是Tesla GPU则可以用户指定的时钟频率运行因为HPC环境中的加速器通常需要彼此同步。Tesla GPU还支持同步增压组内的自动升压 当启用自动升压功能后,每组GPU会增加时钟速度 该组将保持時钟彼此同步,以确保整个组中的匹配性能

深圳市立尔讯科技有限公司致力于为大数据,云计算信息安全等应用领域提供基础硬件定淛化解决方案的服务器 存储平台供应商,具有高度的自主研发能力和生产能力公司产品广泛应用于人脸识别,数据存储移动互联,人笁智能深度学习,超级计算智能医疗等前端科技领域。

立尔讯具有完善的产品研发设计生产加工和质量检测的一体化研发生产体系,产品目前已经扩展到服务器 存储管理软件服务器 存储准系统,存储服务器 存储完整系统信息安全系统等多个系列平台,已经成功为哆家上市企业准上市企业,行业龙头企业提供深度定制服务并获得客户的高度认可。


}

三、特别播报:GK 110的那些事儿

我在寫这个东西的时候正赶上GK110的发布在即,临时决定在这里加入这么一个部分

本来想另起一篇,后来想想正好原GPU篇的GPU策略烂尾了这个讨論这个时候正好作为一种补充。

关于性能架构等的东西不做论述了GPU篇已经讲的很清楚了,这里只谈谈其他我想到的事情

GK110自打从坊间流傳开始就一直处于热议之中,众说纷纭

实际上GK110有可能是ATI/NVIDIA对决历史上最特殊的产品,这种特殊性不是它的性能、架构而是有可能对双方研发周期产生影响。

在开普勒发售之前对GK104还是GK110作为旗舰显卡的消息就在不停的出现当然最后GK104作为旗舰单核心来面对ATI的Tahiti。

于是有这样一种說法就是原本就不存在GK110,GK104就是最高版本

这个说法肯定是不准确的,按照NVIDIA的芯片设计策略GK104无论是位宽、晶体管规模、核心面积都不是旗舰GPU的风格,也不可能先设计一个GK104然后再设计一个ALU规模更大的GK110

还有一种说法是GK110被NV雪藏的原因是因为Tahiti的性能没有达到NV的预期,所以他们使鼡甜点级型号作为旗舰型号发售这恐怕是溢美之词。

Tahiti的相比Cayman的性能跨度完全达到了一代显卡应有的高度而且其衍生型号70等,市场表现非常好

而且GK104的对应高端型号应该叫GK100而不是GK110,在一开始曝光的时候它已经叫GK110了所以更有可能的情况是。

GK100被首先研制出来后出现了费米時代的情况,它由于过于复杂而受限于制程所以为了避免出现局促局面NV决定加快速度放出GK104,然后以较短间隔前后发布类似GF104救GF100的场。

但囸如我在GPU一章说过现在ALU数量规格太高,前段单元压力巨大开始出现短板,造成了单个ALU效率远不如以前的情况

其实对比7970和7870的性能跨度吔可以发现,7970的性能跨度远没有达到其流处理器规模的跨度他们也有这种情况,甚至Tahiti比GK系列更加严重

由于上述原因,加之GK100过于复杂功耗发热很大,频率提升困难NVIDIA的工程师发现,GK100比GK104的性能提升不大而GK104通过高频率和Tahiti性能非常接近。

于是出现了GPU史上相当吊诡的一幕一個甜点级核心作为旗舰型号发售,而且它竟然成功的战平了对手的大核心旗舰

而GK100被命名为GK110等待制程成熟,再度出山

我绘制了一张不怎麼严谨的表格来附文说明A/N对决史上的值得一说的几个时刻,以及这些事件对双方研发周期和核心策略变化的影响


NV30架构失败,发热极高性能坑爹,而且非常不幸的遭遇了ATI史上第一款长研发周期大核心产品此战被虐的相当不轻。

NV紧急调整NV30并修复其短板至NV38已经经历2次改进,ATI直接用RV300小改和衍射型号轻松应对

这场战斗的高度压制给ATI带来了超好的自我感觉,也尝到了大核心策略的甜头而且为他赢得了长达18个朤的研发周期。

而NV这边对NV30的不断改进疲于应付的同时也在加紧研发下一代产品,卧薪尝胆而且通过艰难的调整也获得了和ATI相当的研发周期。

于是双方第一次“憋大”技能发动对决。

由于RV300太成功ATI错误的估算了形势,他们研发了一个虽然规格很高性能很强的产品也就昰RV430.

但是他竟然不支持DX9.0C,更倒霉对手憋大也憋了个超级成功产品NV40对比上代产品的提升非常之大,这次被干翻在地的是ATI了

整个RV430和其衍生型號,ATI发动了多种救市手段:

模仿前代9800SE的免费开管打造定位类似9550的X550,RV430以及其高端衍生型号的大幅降价(旗舰显卡价格头一次如此诱人)强調SM3.0不是必须SM2.0尚可一战。

可是中端型号的高度缺乏不得得靠高端型号来面对NV40的丰富产品线,那一年ATI过的很难

之后,NV发布了NV40的规格扩充版夲G70命名习惯变更,性能提升幅度常规级别对阵RV520。

一年后RV580发布单管三纹理的架构,在当时性能极度狂野AA+HDR加持,NV的应对呢

G71~ 一个高频蝂G70,完全无力对付RV580而且还做了一个7950GX2出来。NV为什么要这么做我当时也觉得很奇怪,似乎是无力应对不想好的感觉

G71是个小核心显卡,功耗低成本低,主流型号性能相当不错而且在低端显卡也就是7300GT引入了8管这种高规格,当时7300GT和7600GS是NV的主要利润点

NV用小核心策略对应对面的夶核心很类似于RV770面对GT200的情况,不过几乎NV没有消耗任何研发周期来做这种布局

NV当时这么做的目的只有一个,等待技能“憋大”CD以及90nm工艺足够制造一款疯狂规格产品。

ATI因为遭遇收购在DX10的研发上慢了一步而且当时ATI也在“憋大”,第二次“憋大”技能即将对决

在RV430的DX版本事件の后,ATI都一直高度更随DX来更新产品一朝被蛇咬十年怕井绳啊。在NV这边在高端市场被RV580压制的时候,NV的工程师反倒是兴奋的

他们对即将偠发出的外星科技级别显卡无别激动,NV也确实迎来了其最辉煌的一页

至此DX9时代的3次核心结束,双方各有一次憋大一次新核心加一次改進或者规格扩充。

G80立项很早通过基本放弃DX9.0c最后一代产品,用G71试水90nm技术为其赢得18个月研发周期,创造了第一代统一渲染架构GPU兼顾科学計算和游戏性能,加入CUDA

即使其发热高功耗高也无人诟病,因为它是在太强了

G80迫使媒体测评室开始购买1200W级别的电源,其架构一些设计思蕗被沿用至今

由于收购导致产品推迟的ATI在6个月后放出了它第二次大核心产品,R600

超高的规格,极度复杂完全全新的架构并且让512bit这种恐怖位宽回归。基于80nm的R600功耗甚至不输90nm的G80可见其复杂程度。

R600由于ROPs出现BUG抗锯齿性能跌幅过大,这对一个旗舰产品是致命的更麻烦的是作为主要利润点的中端产品ATI过于匮乏,造成了连8800GTS 320M都卖到天价的局面

傲视群雄的8800GTX SLI首发价格更是到达19999附赠800W电源的地步,后期高频版也就是8800ultra直到停產都没有被击败

这个事情对ATI的大核心策略产生了影响,此后ATI就没这么干过了

G80的接任者G92是新制程的改进版,位宽减少略微改进了纹理單元依靠较高频率完成基本达到了接近G80的性能,G92核心的效率很高寿命也很长。

这次也是比较少见的核心换代而性能没有提升的一次

而苴更加有趣的是ATI也是如此,RV670是R600的精简型号ringbus取消ROPs初步修复,ALU规模保持不变依靠新工艺和高频率也有了不错的性能,而且就算是全规格的蝂本卖的也很便宜

在G92对阵RV670阶段,AIT需要用全规格的RV670才能对抗G92的9600GSO平均利润非常糟糕。

这给nvidia对ATI下一代产品性能产生了误判

由G92规格扩充产生嘚型号G200,功耗核心面积很大位宽高达512bit显卡制造成本极高,性能彪悍而且本代显卡公版做工极其强悍,直到现在P651还在论坛被热捧

这次對决我之前分析过这里不再赘述,我们只要知道RV770太神了nvidia这次伤的不轻,心灵上的~

下一战ATI的改变策,紧跟DX进度为RV770架构增加DX11能力并且进荇规格大幅扩容,CYPRESS抢先发布

NV则按照习惯进行架构变更,而且费米变更较大结构先进复杂,于是完美难产本代独立显卡市场份额,ATI终於超过了NVIDIA

借由cypress的市场抢先占领,ATI有了时间进行架构转换Cayman的结构有了初步改进,VLIW4出现单个ALU效率提升,也为ACE单元的设计提供了经验

GF110只昰工艺进步版本的GF100,但依旧有能力抗衡Cayman从整个DX11前2次战斗看,波澜不惊ATI的策略造成了自身研发周期的变更,NV则拆招应对

由于费米架构較为先进,NV又来了一次G71方式如果cypress是新架构,Cayman是Cypress是扩容版GF110的日子就不会这么好过了。

ATI这么做的原因是为了GCN研发赢得时间同样的nvIDia也获得叻一次较长的时间来更新架构。

为什么说这么多其实是为了大致说明下,两家在研发上是有规律可循的

基本是3代产品里有一次新架构,一次扩容一次小改,具体怎么安排则受到制程市场以及对手产品策略的影响

而且由于DX11的生命周期比DX9和10都要长,他们事先知道所以夲代的新品规格变更与往常略有不同。

通常一点来说cypress是新架构cayman是扩容,tahiti是改进版这样的话下一代新品研发周期大致是cayman只有就可以开始,tahiti可以用来试水制程

NVIDIA的话GK100应该是GF110的扩容版,而不是全新架构说到底是DX11生命周期长,产品策略要做些调整

只是由于GK104的意外强大给双方嘚研发周期带来了一个混乱,而且这次有利于nvidia我来说明一下。

如果GK100和tahiti的性能接近那么GK110应该是GK100的扩容版,GK100已经非常巨大GK110必须改进前端外加有可能再度受困于制程而消耗6个月的研发周期。

或者模仿G71的方式依靠GK114来保障利润但由于DX11首战不利,情况会比G71时期要糟糕的多

而现茬非常少见的依靠甜点产品战平对手旗舰,而本来的旗舰单核心依靠制程拉高频率直接作为下一代产品发布现在不太明确的就是是否会囿GK114,毕竟GK104频率已经很高了

首先我猜测下下一代AMD产品的规格,由于tahiti是GCN新架构下一带产品HD8970应该是tahiti的规格扩容版.

考虑到tahiti的ALU规模已经很高,所鉯可能每个GCN的内置流处理器数量会有所增加维持384BIT然后ROP补全为48个,而ACE有可能有一次较大改动甚至加入类似NVIDIA的双发机制来提升效能。

这个核心的性能足以对付GK110只不过由于这个产品的扩容会额外消耗研发周期,导致下下一代产品的时间非常紧张

我们再回头看下,cypress是RV770加入新技术的扩容版cayman是VlIW4新品,tahiti是全新GCNATI这样做是会预见到第五代产品的研发紧张,那么为什么还这么去做

1.tahiti本身非常强大,已经是个高研发周期产品因为cayman毕竟只是小改,tahiti是一个很彪悍的新品规模、位宽、频率都很高,这样简单扩容甚至直指提高频率来应对对手为第五代产品拖延时间。2.NVIDIA没有为GF110设计扩容而直接换用全新架构,这个全新架构性能又如此强大出乎意料。

3.最主要的原因是AMD与NVIDIA比较的来说,生活仳较困难它要同时维持CPU和GPU两个大的研发中心,附带APU的研发也要花费经费和人力又要兼顾移动市场和未来要入住的RISC。

其CPU领域的老对手intel过於强大CPU领域日子不好混(我们回头看intel的核心架构的话从nehalem开始,架构主体变动速度已经远没有以前那么快了市场压力小是一个方面原因),外加财务状况很不理想AMD必须依靠综合市场来维持利润。也就是说特别是APU和GPU要快速发售占领市场捆绑芯片组以后来带动CPU以及整体市場的销量。

所以不惜缩短研发时间来快速发布新品回收资金。

Tahiti全线价格上市之初非常高销量也很好,就证明这种策略是有效的

GK110这次發布的比意料中要早了一些,大概也是因为现在PC市场的萎靡NVIDIA也希望快速发布新品来回笼资金

由于首次出现了甜点级产品作为旗舰发售嘚情况NVIDIA赢得了一次较长的研发周期,甚至有时间来等待制程

也就是说NVIDIA的下一代产品MAXWELL,可以放心做的“相当复杂”了而且受困于制程嘚危险大大降低了,我们很有可能看到一个类似G80的传奇产品

上一次是牺牲了一次产品对决(G71)才获得这样机会,而这次什么都没放弃洏且对手的研发也要比上次更加紧张。

AMD有可能会迎来一个相当难受的财务年度还好拿到了PS4订单。希望它的APU能有更多建树帮助AMD脱离困境。

}

显卡业的竞争也是日趋激烈各類品牌名目繁多,以下是一些常见的牌子仅供参考:

其中蓝宝石、华硕是在自主研发方面做的不错的品牌,蓝宝只做A卡华硕的A卡和N卡嘟是核心合作伙伴,相对于七彩虹这类的通路品牌拥有自主研发的厂商在做工和特色技术上会更出色一些,而通路显卡的价格则要便宜┅些(注:七彩虹、双敏、盈通、铭瑄和昂达都由同一个厂家代工所以差别只在显卡贴纸和包装而已,大家选购时需要注意)每个厂商都有自己的品牌特色,像华硕的“为游戏而生”七彩虹的“游戏显卡专家”都是大家耳熟能详的。

adapter)显示器配置卡简称为显卡,是個人电脑最基本组成部分之一显卡的用途是将计算机系统所需要的显示信息进行转换驱动,并向显示器提供行扫描信号控制显示器的囸确显示,是连接显示器和个人电脑主板的重要元件是“人机对话”的重要设备之一。显卡作为电脑主机里的一个重要组成部分承担輸出显示图形的任务,对于从事专业图形设计的人来说显卡非常重要 民用显卡图形芯片供应商主要包括AMD(ATI)和Nvidia(英伟达)两家。

GPU(类似于主板的CPU)

256图形处理芯片时首先提出的概念GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作尤其是在3D图形处理时。GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等而硬件T&L技术可以說是GPU的标志。GPU的生产主要由nVidia与ATI两家厂商生产

显存(类似于主板的内存)

显存是显示内存的简称。顾名思义其主要功能就是暂时将储存显礻芯片要处理的数据和处理完毕的数据。图形核心的性能愈强需要的显存也就越多。以前的显存主要是SDR的容量也不大。市面上的显卡夶部分采用的是GDDR3显存现在最新的显卡则采用了性能更为出色的GDDR4或GDDR5显存。显存主要由传统的内存制造商提供比如三星、现代、Kingston等。

显卡BIOS(类似于主板的BIOS)

显卡BIOS主要用于存放显示芯片与驱动程序之间的控制程序另外还存有显示卡的型号、规格、生产厂家及出厂时间等信息。打开计算机时通过显示BIOS 内的一段控制程序,将这些信息反馈到屏幕上早期显示BIOS 是固化在ROM 中的,不可以修改而多数显示卡则采用了夶容量的EPROM,即所谓的Flash BIOS可以通过专用的程序进行改写或升级。

显卡PCB板(类似于主板的PCB板)

就是显卡的电路板它把显卡上的其它部件连接起来。功能类似主板

集成显卡是将显示芯片、显存及其相关电路都做在主板上,与主板融为一体;集成显卡的显示芯片有单独的但大蔀分都集成在主板的北桥芯片中;一些主板集成的显卡也在主板上单独安装了显存,但其容量较小集成显卡的显示效果与处理性能相对較弱,不能对显卡进行硬件升级但可以通过CMOS调节频率或刷入新BIOS文件实现软件升级来挖掘显示芯片的潜能。

集成显卡的优点:是功耗低、發热量小、部分集成显卡的性能已经可以媲美入门级的独立显卡所以不用花费额外的资金购买显卡。

集成显卡的缺点:不能换新显卡偠说必须换,就只能和主板CPU一次性的换。

独立显卡是指将显示芯片、显存及其相关电路单独做在一块电路板上自成一体而作为一块独竝的板卡存在,它需占用主板的扩展插槽(ISA、PCI、AGP或PCI-E)

独立显卡的优点:单独安装有显存,一般不占用系统内存在技术上也较集成显卡先進得多,比集成显卡能够得到更好的显示效果和性能容易进行显卡的硬件升级。

独立显卡的缺点:系统功耗有所加大发热量也较大,需额外花费购买显卡的资金

数据(data)一旦离开CPU,必须通过4个步骤最后才会到达显示屏:

1、从总线(bus)进入GPU (Graphics Processing Unit,图形处理器):将CPU送来嘚数据送到北桥(主桥)再送到GPU(图形处理器)里面进行处理

2、从 video chipset(显卡芯片组)进入video RAM(显存):将芯片处理完的数据送到显存。

3、从顯存进入Digital Analog Converter (= RAM DAC随机读写存储模—数转换器):从显存读取出数据再送到RAM DAC进行数据转换的工作(数字信号转模拟信号)。

4、从 DAC 进入显示器 (Monitor):将转换完的模拟信号送到显示屏

显示效能是系统效能的一部份,其效能的高低由以上四步所决定它与显示卡的效能(video performance) 不太一样,如要严格区分显示卡的效能应该受中间两步所决定,因为这两步的资料传输都是在显示卡的内部第一步是由 CPU(运算器和控制器一起組成的计算机的核心,称为微处理器或中央处理器)进入到显示卡里面最后一步是由显示卡直接送资料到显示屏上。

32bit/s)基本上满足了当時处理器的发展需要。随着对更高性能的要求1993年又提出了64bit的PCI总线,后来又提出把PCI 总线的频率提升到66MHzPCI接口的速率最高只有266MB/S,1998年之后便被AGP接口代替不过仍然有新的PCI接口的显卡推出,因为有些服务器 存储主板并没有提供AGP或者PCI-E接口或者需要组建多屏输出,选购PCI显卡仍然是最實惠的方式

是为了解决PCI总线的低带宽而开发的接口技术。它通过将图形卡与系统主内存连接起来在CPU和图形处理器之间直接开辟了更快嘚总线。其发展经历了AGP1.0(AGP1X/2X)、AGP2.0(AGP4X)、AGP3.0(AGP8X)最新的AGP8X其理论带宽为2.1Gbit/秒。到2009年已经被PCI-E接口基本取代(2006年大部分厂家已经停止生产)。

Express(简称PCI-E)是新一代的总线接口而采用此类接口的显卡产品,已经在2004年正式面世早在2001年的春季“英特尔开发者论坛”上,英特尔公司就提出了要用新一代的技术取代PCI总线和多种芯片的内部连接并称之为第三代I/O总线技术。随后在2001年底包括Intel、AMD、DELL、IBM在内的20多家业界主导公司开始起草新技术的规范,並在2002年完成对其正式命名为PCI

上的技术,它通过把2块Voodoo卡用SLI线物理连接起来工作的时候一块Voodoo卡负责渲染屏幕奇数行扫描,另一块负责渲染耦数行扫描从而达到将两块显卡“连接”在一起获得“双倍”的性能。 SLI中文名速力到2009年SLI工作模式与早期Voodoo有所不同,改为屏幕分区渲染

CrossFire,中文名交叉火力简称交火,是ATI的一款多重GPU技术可让多张显示卡同时在一部电脑上并排使用,增加运算效能与NVIDIA的SLI技术竞争。CrossFire技术於2005年6月1日在Computex Taipei 2005正式发布,比SLI迟一年从首度公开截至2009年,CrossFire经过了一次修订

1、需要2个以上的显卡,必须是PCI-E不要求必须是相同核心,混合SLI鈳以用于不同核心显卡

5、不同型号显卡之间进行Crossfire

ATI部分新产品支持不同型号显卡之间进行交火, 比如HD3870X2 与HD3870组建交火系统或者HD4870与HD4850之间组建交吙系统。这种交火需要硬件以及驱动的支持并不是所有型号之间都可以。  

3.1系统对图形、声音处理能力的不足已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。目前最新版本为DirectX 11

Direct3D(简称D3D)  DirectX是微软开发并发布的多媒体开发软件包,其中有一部分叫做Direct3D大概因为是微软的手笔,有的人就说它将成为3D图形的标准

OpenGL是OpenGraphicsLib的缩写,是一套三维图形处理库也是该领域的工业标准。计算机三维图形是  Nvidia Logo指将用数据描述的三维空间通过计算转换成二维图像并显示或打印出来的技术OpenGL就是支持这种转换的程序库,它源于SGI公司为其图形工作站開发的IRIS (ARB)控制SGI等ARB成员以投票方式产生标准,并制成规范文档(Specification)公布各软硬件厂商据此开发自己系统上的实现。只有通过了ARB规范全部测试的實现才能称为OpenGL1995年12月ARB批准了1.1版本,目前最新版规范是在SIGGRAPH2007公布的OpenGL

1、显示芯片(芯片厂商、芯片型号、制造工艺、核心代号、核心频率、SP单元、渲染管线、版本级别)

2、显卡内存(显存类型、显存容量、显存带宽(显存频率×显存位宽÷8)、显存速度、显存颗粒、最高分辨率、显存时钟周期、显存封装)

3、技术支持(像素填充率、顶点着色引擎、3D API、RAMDAC频率)

4、显卡PCB板(PCB层数、显卡接口、输出接口{目前常见的有 VGA、DVI(DVI-D和DVI-I)、S端子(S-Video)、HDMI(高清晰度多媒体接口)、Display Port 等)}、散热装置)

又称图型处理器-GPU它在显卡中的作用,就如同CPU在电脑中的作用一样更直接嘚比喻就是大脑在人身体里的作用。

常见的生产显示芯片的厂商

ATI、nVidia 以独立芯片为主市场上的主流

除了上述标准版本之外还有些特殊版,特殊版一般会在标准版的型号后面加个后缀常见的有:

Pro (Professional Edition 专业版) 高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点

ZT 在XT基础上再次降频以降低价格。

XT 降频版而在ATi中表示最高端。

SE 和LE相似基本是GS的简化版最低端的几个型号

MX 平价版大众类。

GS 普通版或GT的简化版

GE 也是简化版不过略微强于GS一点点,影驰显卡用来表示"骨灰玩家版"的东东

GT 常见的游戏芯片。比GS高一个档次,因为GT没有缩减管线囷顶点单元

GTS介于GT和GTX之间的版本GT的加强版

Ultra 在GF8系列之前代表着最高端,但9系列最高端的命名就改为GTX

TC (Turbo Cache)可以占用内存的显卡 GX2(GT eXtreme2)指两块显卡以SLI並组的方式整合为一块显卡,不同于SLI的是只有一个接口如0GX2

自G200系列之后,NVIDIA重新命名显卡后缀版本使产品线更加整齐

所谓开发代号就是显礻芯片制造商为了便于显示芯片在设计、生产、销售方面的管理和驱动架构的统一而对一个系列的显示芯片给出的相应的基本的代号。开發代号作用是降低显示芯片制造商的成本、丰富产品线以及实现驱动程序的统一  一般来说,显示芯片制造商可以利用一个基本开发代号洅通过控制渲染管线数量、顶点着色单元数量、显存类型、显存位宽、核心和显存频率、所支持的技术特性等方面来衍生出一系列的显示芯片来满足不同的性能、价格、市场等不同的定位还可以把制造过程中具有部分瑕疵的高端显示芯片产品通过屏蔽管线等方法处理成为唍全合格的相应低端的显示芯片产品出售,从而大幅度降低设计和制造的难度和成本丰富自己的产品线。同一种开发代号的显示芯片可鉯使用相同的驱动程序这为显示芯片制造商编写驱动程序以及消费者使用显卡都提供了方便

同一种开发代号的显示芯片的渲染架构以忣所支持的技术特性是基本上相同的而且所采用的制程也相同,所以开发代号是判断显卡性能和档次的重要参数同一类型号的不同版夲可以是一个代号,例如:GeForce (GTX260、GTX280、GTX295) 代号都是 GT200;而Radeon

制造工艺指得是在生产GPU过程中要进行加工各种电路和电子元件,制造导线连接各个元器件通常其生产的精度以nm(纳米)来表示(1mm=1000000nm),精度越高生产工艺越先进。在同样的材料中可以制造更多的电子元件连接线也越细,提高芯爿的集成度芯片的功耗也越小。

集成电路)内电路与电路之间的距离制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计微电子技术的发展与进步,主要是靠工艺技术的不断改进使得器件的特征尺寸不断缩小,从而集成度不断提高功耗降低,器件性能得到提高芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米、0.09微米再到目前主流的65 纳米、55纳米、40纳米。

显卡的核心频率是指显示核心的工作频率其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、流处理器单元、显存频率、显存位宽等等多方面的情况所决定的因此在显示核心不哃的情况下,核心频率高并不代表此显卡性能强劲比如GTS250的核心频率达到了750MHz,要比GTX260+的576MHz高但在性能上GTX260+绝对要强于GTS250。在同样级别的芯片中核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率使其工作在高于显示核心固定的频率上以达到更高的性能。

DDR SGRAM 是显鉲厂商特别针对绘图者需求为了加强图形的存取处理以及绘图控制效率,从同步动态随机存取内存(SDRAM)所改良而得的产品SGRAM允许以方块 (Blocks) 為单位个别修改或者存取内存中的资料,它能够与中央处理器(CPU)同步工作可以减少内存读取次数,增加绘图控制器的效率尽管它稳定性鈈错,而且性能表现也很好但是它的超频性能很差

显存位宽是显存在一个时钟周期内所能传送数据的位数位数越大则相同频率下所能传输的数据量越大。2010年市场上的显卡显存位宽主要有128位、192位、256位几种而显存带宽=显存频率X显存位宽/8,它代表显存的数据传输速度在顯存频率相当的情况下,显存位宽将决定显存带宽的大小例如:同样显存频率为500MHz的128位和256位显存,它们的显存带宽分别为:128位=500MHz*128/8=8GB/s;而256位=500MHz*256/8=16GB/s是128位的2倍。显卡的显存是由一块块的显存芯片构成的显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号可以去网上查找其编号,就能了解其位宽再乘以显存颗粒数,就能得到显卡的位宽其他规格楿同的显卡,位宽越大性能越好

其他参数相同的情况下容量越大越好,但比较显卡时不能只注意到显存(很多js会以低性能核心配大显存莋为卖点)比如说384M的9600GSO就远强于512M的9600GSO,因为核心和显存带宽上有差距选择显卡时显存容量只是参考之一,核心和带宽等因素更为重要这些决定显卡的性能优先于显存容量。但必要容量的显存是必须的因为在高分辨率高抗锯齿的情况下可能会出现显存不足的情况。   目前市媔显卡显存容量从256MB-4GB不等

2004年前的主流显卡基本上是用TSOP和MBGA封装,TSOP封装居多. 但是由于nvidia的gf3、4系的出现MBGA成为主流,mbga封装可以达到更快的显存速度远超TSOP的极限400MHZ。

显存速度一般以ns(纳秒)为单位常见的显存速度有1.2ns、1.0ns、0.8ns等,越小表示速度越快、越好显存的理论工作频率计算公式是:等效工作频率(MHz)=1000×n/(显存速度)(n因显存类型不同而不同,如果是GDDR3显存则n=2;GDDR5显存则n=4)

显存频率一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位显存频率的高低和显存类型有非常大的关系:

SDRAM显存一般都工作在较低的频率上,此种频率早已无法满足显卡的需求

DDR SDRAM顯存则能提供较高的显存频率,所以目前显卡基本都采用DDR SDRAM其所能提供的显存频率也差异很大。目前已经发展到GDDR5默认等效工作频率最高巳经达到4800MHZ,而且提高的潜力还非常大

显存频率与显存时钟周期是相关的,二者成倒数关系也就是显存频率(MHz)=1/显存时钟周期(NS)X1000。如果是SDRAM显存其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz;而对于DDR SDRAM其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz但要了解的是这是DDR SDRAM的实际频率,而鈈是平时所说的DDR显存频率因为DDR在时钟上升期和下降期都进行数据传输,一个周期传输两次数据相当于SDRAM频率的二倍。习惯上称呼的DDR频率昰其等效频率是在其实际工作频率上乘以2的等效频率。因此6ns的DDR显存其显存频率为1/6ns*2=333 MHz。但要明白的是显卡制造时厂商设定了显存实际工莋频率,而实际工作频率不一定等于显存最大频率此类情况较为常见。不过也有显存无法在标称的最大工作频率下稳定工作的情况

在DX10顯卡出来以前,并没有“流处理器”这个说法GPU内部由“管线”构成,分为像素管线和顶点管线它们的数目是固定的。简单来说顶点管线主要负责3D建模,像素管线负责3D渲染由于它们的数量是固定的,这就出现了一个问题当某个游戏场景需要大量的3D建模而不需要太多嘚像素处理,就会造成顶点管线资源紧张而像素管线大量闲置当然也有截然相反的另一种情况。这都会造成某些资源的不够和另一些资源的闲置浪费

在这样的情况下,人们在DX10时代首次提出了“统一渲染架构”显卡取消了传统的“像素管线”和“顶点管线”,统一改为鋶处理器单元它既可以进行顶点运算也可以进行像素运算,这样在不同的场景中显卡就可以动态地分配进行顶点运算和像素运算的流處理器数量,达到资源的充分利用

现在,流处理器的数量的多少已经成为了决定显卡性能高低的一个很重要的指标Nvidia和AMD-ATI也在不断地增加顯卡的流处理器数量使显卡的性能达到跳跃式增长,例如AMD-ATI的显卡HD3870拥有320个流处理器HD4870达到800个,HD5870更是达到1600个!

值得一提的是N卡和A卡GPU架构并不┅样,对于流处理器数的分配也不一样N卡每个流处理器单元只包含1个流处理器,而A卡相当于每个流处理器单元里面含有5个流处理器例洳HD4850虽然是800个流处理器,其实只相当于160个流处理器单元另外A卡流处理器频率与核心频率一致,这是为什么9800GTX+只有128个流处理器性能却与HD4850相当(N卡流处理器频率约是核心频率的2.16倍)。

3D API能让编程人员所设计的3D软件只要调用其API内的程序从而让API自动和硬件的驱动程序沟通,启动3D芯片內强大的3D图形处理功能从而大幅度地提高了3D程序的设计效率。如果没有3D API在开发程序时程序员必须要了解全部的显卡特性,才能编写出與显卡完全匹配的程序发挥出全部的显卡性能。而有了3D API这个显卡与软件直接的接口程序员只需要编写符合接口的程序代码,就可以充汾发挥显卡的性能不必再去了解硬件的具体性能和参数,这样就大大简化了程序开发的效率同样,显示芯片厂商根据标准来设计自己嘚硬件产品以达到在API调用硬件资源时最优化,获得更好的性能有了3D API,便可实现不同厂家的硬件、软件最大范围兼容比如在最能体现3D API嘚游戏方面,游戏设计人员设计时不必去考虑具体某款显卡的特性,而只是按照3D API的接口标准来开发游戏当游戏运行时则直接通过3D API来调鼡显卡的硬件资源。

RAMDAC频率和支持最大分辨率

RAMDAC作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号其转换速率以MHz表示。计算機中处理数据的过程其实就是将事物数字化的过程所有的事物将被处理成0和1两个数,而后不断进行累加计算图形加速卡也是靠这些0和1對每一个象素进行颜色、深度、亮度等各种处理。显卡生成的信号都是以数字来表示的但是所有的CRT显示器都是以模拟方式进行工作的,數字信号无法被识别这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显卡中将数字信号转换为模拟信号的设备RAMDAC的转换速率鉯MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)其工作速度越高,频带越宽高分辨率时的画面质量越好。该数值決定了在足够的显存下显卡最高支持的分辨率和刷新率。如果要在的分辨率下达到85Hz的刷新率RAMDAC的速率至少是×85Hz×1.344(折算系数)≈90MHz。2009年主鋶的显卡RAMDAC都能达到350MHz和400MHz已足以满足和超过大多数显示器所能提供的分辨率和刷新率。

显卡所需要的电力与150瓦特灯具所需要的电力相同由於运作集成电路(integrated circuits)需要相当多的电力,因此内部电流所产生的温度也相对的提高所以,假如这些温度不能适时的被降低那么上述所提到嘚硬设备就很可能遭受损害,而冷却系统就是在确保这些设备能稳定、适时的运转没有散热器或散热片,GPU或内存会过热就会进而损害計算机或造成当机,或甚至完全不能使用

这些冷却设备由导热材质所制成,它们有些被视为被动组件默默安静地进行散热的动作,有些则很难不发出噪音如风扇。

散热片通常被视为被动散热但不论所安装的区块是导热区,或是内部其它区块散热片都能发挥它的效能,进而帮助其它装置降低温度散热片通常与风扇一同被安装至GPU或内存上,有时小型风扇甚至会直接安装在显卡温度最高的地方

显卡昰个极度依赖散热管进行散热的装置,由华硕所制成的Raden X 1600就拥有两个散热管它们可将热能传送至位于卡槽后方的大型散热片进行散热。

散熱片的表面积愈大所进行之散热效能就愈大(通常必须与风扇一起运作),但有时却因空间的限制大型散热片无法安装于需要散热的装置仩;有时又因为装置的体积太小,以至于体积大的散热片无法与这些装置连结而进行散热因此,热管就必须在这个时候将热能从散热处傳送至散热片中进行散热一般而言,GPU外壳由高热能的传导金属所制成热管会直接连结至由金属制成的芯片上,如此一来热能就能被輕松的传导至另一端的散热片。

市面上有许多处理器的冷却装置都附有热管由此可知,许多热管已被研发成可灵活运用于显卡冷却系统Φ的设备了

大部分的散热器只是由散热片跟风扇组合而成,在散热片的表面上由风扇吹散热能由于GPU是显卡上温度最高的部分,因此显鉲散热器通常可以运用于GPU上同时,市面上有许多零售的配件可供消费者进行更换或升级其中最常见的就是VGA散热器

为了更好的超频超频原理不可不学。以超频最有效果的CPU 为例目前CPU的生产可以说是非常精密的,以至于生产厂家都无法控制每块CPU到底可以在什么样的频率丅工作厂家实际上就已经自己做了多次测试,将能工作在高频率下的CPU标记为高频率的然后可以卖更高的价钱。但为了保证它的质量這些标记都有一定的富余,也就是说一块工作在600MHZ的CPU,很有可能在800MHZ下依然稳定工作为了发掘这些潜在的富余部分,我们可以进行超频

此外,我们还可以借助一些手段来使CPU稳定工作在更高的频率上这些手段主要是两点:增加散热效果、增加工作电压。

对于电脑的其它配件依然利用这样的原理进行超频,如显示卡、内存、 甚至鼠标等等

CPU散热风扇 —— 非常关键的超频工具,一定要买好风扇绝对很值得!

导热硅脂 —— 增加CPU和风扇散热片之间的热传递,很有用的东西价格便宜。

导热硅胶 —— 一般用来往芯片上粘贴小的散热片给主板芯爿降温、显卡芯片降温、给内存芯片降温用。

小散热片 —— 辅助降温用主要用来给发热略大的芯片降温。

超频显卡除了超频核心频率以外还可以超频显存频率,显存的反应时间越小可超的频率就越高,6ns显存一般也能超到200M5.5ns自然可超到更高。超频显存可能会带来很多热量我们可以在显存上粘贴散热片来缓解这个问题。

民用显卡的起源可以追溯到上个世纪的八十年代了在1981年, IBM推出了个人电脑时它提供了两种显卡,一种是"单色显卡(简称 MDA)一种是“彩色绘图卡” (简称 CGA),从名字上就可以看出MDA是与单色显示器配合使用的,它可以显示80行x25列嘚文数字 CGA则可以用在RGB的显示屏上, 它可以绘制图形和文数字资料。在当时来讲计算机的用途主要是文字数据处理,虽然MDA分辨率为宽752点高504点,不足以满足较大的显示要求不过对于文字数据处理还是绰绰有馀的了。而CGA就具有彩色和图形能力能胜任一般的显示图形数据的需要了,不过其分辨率只有640x350自然不能与彩色显示同日而语。

Graphics Adapter)即加强型绘图卡, 可以模拟MDA和CGA,而且可以在单色屏幕上一点一点画成的图形EGA分辨率为640x350,可以产生16色的图形和文字不过这些显卡都是采用数字方式的,直到MCGA(Multi-Color Graphics Array)的出现才揭开了采用模拟方式的显卡的序幕。MCGA昰整合在 PS/2 Model 25和30上的影像系统它采用了Analog RGA影像信号, 分辨率可高达640x480, 数位RGB和类比RGB不同的地方就像是ON-OFF式切换和微调式切换之间的差别。用类比RGB讯号的顯示屏, 会将每一个讯号的电压值转换成符合色彩明暗的范围只有类比显示屏可以和MCGA一起使用,才可以提供最多的256种颜色另外IBM尚提供了┅个类比单色显示屏,在此显示屏上可以显示出64种明暗度

60和80内建的影像系统。它的数字模式可以达到720x400色绘图模式则可以达到640x480x16色,以及320x200x256銫这是显卡首次可以同时最高显示256种色彩。而这些模式更成为其后所有显卡的共同标准VGA显卡的盛行把电脑带进了2D显卡显示的辉煌时代。在以後一段时期里许多VGA显卡设计的公司不断推陈出新,追求更高的分辨率和位色与此同时,IBM 推出了8514/A的Monitor显示屏规格主要用来支持的汾辨率。

在2D时代向3D时代推进的过程中有一款不能忽略的显卡就是Trident 显卡,它第一次使显卡成为一个独立的配件出现于电脑里而不再是集荿的一块芯片。而後其推出的Trident 9685更是第一代3D显卡的代表不过真正称得上开启3D显卡大门的却应该是GLINT 300SX,虽然其3D功能极其简单但却具有里程碑嘚意义。

1995年对于显卡来说,绝对是里程碑的一年3D图形加速卡正式走入玩家的视野。那个时候游戏刚刚步入3D时代大量的3D游戏的出现,吔迫使显卡发展到真正的3D加速卡而这一年也成就了一家公司,不用说大家也知道没错,就是3Dfx1995年,3Dfx还是一家小公司不过作为一家老資格的3D技术公司,他推出了业界的第一块真正意义的3D图形加速卡:Voodoo在当时最为流行的游戏摩托英豪里,Voodoo在速度以及色彩方面的表现都让囍欢游戏的用户为之疯狂不少游戏狂热份子都有过拿一千多块大洋到电脑城买上一块杂牌的Voodoo显卡的经历。3Dfx的专利技术Glide引擎接口一度称霸叻整个3D世界直至D3D和OpenGL的出现才改变了这种局面。Voodoo标配为4Mb显存能够提供在640×480分辨率下3D显示速度和最华丽的画面,当然Voodoo也有硬伤,它只是┅块具有3D加速功能的子卡使用时需搭配一块具有2D功能的显卡,相信不少老 EDO资格的玩家都还记得S3 765+Voodoo这个为人津津乐道的黄金组合讲到S3 765,就鈈得不提到昔日王者S3显卡了

S3 765显卡是当时兼容机的标准配置,最高支持2MBEDO显存能够实现高分辨率显示,这在当时属于高端显卡的功效这┅芯片真正将SVGA发扬光大。能够支持的分辨率并且在低分辨率下支持最高32Bit真彩色,而且性价比也较强因此,S3 765实际上为S3显卡带来了第一次嘚辉煌

effect、Lighting,实际成为3D显卡的开路先锋成就了S3显卡的第二次辉煌,可惜后来在3Dfx的追赶下S3的Virge系列没有再继辉煌,被市场最终抛弃

此后,为了修复Voodoo没有2D显示这个硬伤3Dfx继而推出了VoodooRush,在其中加入了Z-Buffer技术可惜相对于Voodoo,VoodooRush的3D性能却没有任何提升更可怕的是带来不少兼容性的问題,而且价格居高不下的因素也制约了VoodooRush显卡的推广  当然,当时的3D图形加速卡市场也不是3Dfx一手遮天高高在上的价格给其他厂商留下叻不少生存空间,像勘称当时性价比之王的Trident 以及提供了Mpeg-II硬件解码技术的SIS6326,还有在显卡发展史上第一次出场的nVidia推出的Riva128/128zx都得到不少玩家的寵爱,这也促进了显卡技术的发展和市场的成熟1997年是3D显卡初露头脚的一年,而1998年则是3D显卡如雨後春笋激烈竞争的一年九八年的3D游戏市場风起去涌,大量更加精美的3D游戏集体上市从而让用户和厂商都期待出现更快更强的显卡。

在Voodoo带来的巨大荣誉和耀眼的光环下3Dfx以高屋建瓴之势推出了又一划时代的产品:Voodoo2。Voodoo2自带8Mb/12Mb EDO显存PCI接口,卡上有双芯片可以做到单周期多纹理运算。当然Voodoo2也有缺点它的卡身很长,并苴芯片发热量非常大也成为一个烦恼,而且Voodoo2依然作为一块3D加速子卡需要一块2D显卡的支持。但是不可否认Voodoo2的推出已经使得3D加速又到达叻一个新的里程碑,凭借Voodoo2的效果、画面和速度征服了不少当时盛行一时的3D游戏,比如Fifa98NBA98,Quake2等等也许不少用户还不知道,2009年最为流行的SLI技术也是当时Voodoo2的一个新技术Voodoo2第一次支持双显卡技术,让两块Voodoo2并联协同工作获得双倍的性能

1998年虽然是Voodoo2大放异彩的一年,但其他厂商也有┅些经典之作Matrox MGA G200在继承了自己超一流的2D水准以外,3D方面有了革命性的提高不但可以提供和Voodoo2差不多的处理速度和特技效果,另外还支持DVD硬解码和视频输出并且独一无二的首创了128位独立双重总线技术,大大提高了性能配合当时相当走红的AGP总线技术,G200也赢得了不少用户的喜愛

Intel的I740是搭配Intel当时的440BX芯片组推出的,它支持的AGP 2X技术标配8Mb显存,可惜I740的性能并不好2D性能只能和S3 Virge看齐,而3D方面也只有Riva128的水平不过价格方媔就有明显优势,让它在低端市场站住了脚

Riva TNT是nVidia推出的意在阻击Voodoo2的产品,它标配16Mb的大显存完全支持AGP技术,首次支持32位色彩渲染、还有快於Voodoo2的D3D性能和低于Voodoo2的价格让其成为不少玩家的新宠。而一直在苹果世界闯荡的ATI也出品了一款名为Rage Pro的显卡速度比Voodoo稍快。

1.0规范草稿制定完毕并移交PCI-SIG进行审核。开始的时候大家都以为它会被命名为Serial PCI(受到串行ATA的影响)但最后却被正式命名为PCI Express。2006年正式推出Spec2.0(2.0规范)

PCI Express总线技术嘚演进过程,实际上是计算系统I/O接口速率演进的过程PCI总线是一种33MHz 32bit或者66MHz 64bit的并行总线,总线带宽为133MB/s到最大533MB/s连接在PCI总线上的所有设备共享133MB/s~533MB/s帶宽。这种总线用来应付声卡、10/100M网卡以及USB 1.1等接口基本不成问题随着计算机和通信技术的进一步发展,新一代的I/O接口大量涌现比如千兆(GE)、万兆(10GE)的以太网技术、4G/8G的FC技术,使得PCI总线的带宽已经无力应付计算系统内部大量高带宽并行读写的要求PCI总线也成为系统性能提升的瓶颈,于是就出现了PCI Express总线PCI Express总线技术在新一代的存储系统已经普遍的应用。PCI Express总线能够提供极高的带宽来满足系统的需求。

截至2009年PCI-E 3.0規范也已经确定,其编码数据速率比同等情况下的PCI-E 2.0规范提高了一倍,X32端口的双向速率高达320Gbps

PCI总线的最大优点是总线结构简单、成本低、設计简单,但是缺点也比较明显:

1) 并行总线无法连接太多设备总线扩展性比较差,线间干扰将导致系统无法正常工作;

2) 当连接多个设备時总线有效带宽将大幅降低,传输速率变慢;

3) 为了降低成本和尽可能减少相互间的干扰需要减少总线带宽,或者地址总线和数据总线采用复用方式设计这样降低了带宽利用率。 PCI Express总线是为将来的计算机和通讯平台定义的一种高性能通用I/O互连总线。

与PCI总线相比PCI Express总线主偠有下面的技术优势:

1) 是串行总线,进行点对点传输每个传输通道独享带宽

2) PCI Express总线支持双向传输模式和数据分通道传输模式其中数据汾通道传输模式即PCI Express总线的x1、x2、x4、x8、x12、x16和x32多通道连接,x1单向传输带宽即可达到250MB/s双向传输带宽更能够达到500MB/s,这个已经不是普通PCI总线所能够相仳的了

3) PCI Express总线充分利用先进的点到点互连、基于交换的技术、基于包的协议来实现新的总线性能和特征。电源管理、服务质量(QoS)、热插拔支持、数据完整性、错误处理机制等也是PCI Express总线所支持的高级特征

4) 与PCI总线良好的继承性,可以保持软件的继承和可靠性PCI Express总线关键的PCI特征,比如应用模型、存储结构、软件接口等与传统PCI总线保持一致但是并行的PCI总线被一种具有高度扩展性的、完全串行的总线所替代。

5) PCI Express总線充分利用先进的点到点互连降低了系统硬件平台设计的复杂性和难度,从而大大降低了系统的开发制造设计成本极大地提高系统的性价比和健壮性。从下面表格可以看出系统总线带宽提高同时,减少了硬件PIN的数量硬件的成本直接下降。

至2008年PCI-E接口仍然在显卡中使鼡。

1999年世纪末的显卡市场出现了百花齐开的局面,而且这一年也让市场摆脱了3Dfx的一家独霸局面由于战略的失误,让3Dfx失去了市场它推絀了Voodoo3,配备了16Mb显存支持16色渲染。虽然在画质上无可挑剔但是高昂的价格以及与市场格格不入的标准让它难掩颓势。世纪末的这一年顯卡的辉煌留给了nVidia。

Ultra、TNT2和TNT2M64三个版本的芯片後来又有PRO和VANTA两个版本。这种分类方式也促使後来各个生产厂家对同一芯片进行高中低端的划分以满足不同层次的消费需要。TNT系列配备了8Mb到32Mb的显存支持AGP2X/4X,支持32位渲染等等众多技术虽然16位色下画面大大逊色于Voodoo3,但是在32位色下表現却可圈可点,还有在16位色下TNT2的性能已经略微超过Voodoo3了,不过客观的说在32位色下,TNT系列显卡性能损失相当多速度上跟不上Voodoo3了。当然nVidia能战胜Voodoo3,与3Dfx公司推行的策略迫使许多厂商投奔nVidia也不无关系促进了TNT系列的推广。显卡市场上出现了nVidia与3Dfx两家争霸的局面

2X/4X,还有支持大纹理鉯及32位渲染等等都是当时业界非常流行和肯定的技术,除此之外独特、漂亮的EMBM硬件凹凸贴图技术,营造出的完美凹凸感并能实现动态咣影效果的技术确实让无数游戏玩家为之疯狂在3D方面,其速度和画面基本都是介于Voodoo3和TNT2之间并且G400拥有优秀的DVD回放能力,不过由于价格以忣它注重于OEM和专业市场因此,在民用显卡市场所占的比例并不大!

Lighting)把原来有CPU计算的数据直接交给显示芯片处理,大大解放了CPU也提高了芯片的使用效率。GeForce256拥有4条图形纹理信道单周期每条信道处理两个象素纹理,工作频率120MHz全速可以达到480Mpixels/Sec,支持SDRAM和DDR RAM使用DDR的产品能更好嘚发挥GeForce256的性能。其不足之处就在于采用了0.22微米的工艺技术发热量比较高。

2000年nVidia开发出了第五代的3D图形加速卡---Geforce 2,采用了0.18微米的工艺技术鈈仅大大降低了发热量,而且使得GeForce2的工作频率可以提高到200MHzGeforce 2拥有四条图形纹理信道,单周期每条信道处理两个象素纹理并且使用DDR Mapping以及硬件MPEG-2动态补偿功能,完全支持微软的DirectX 7而面对不同的市场分级,它相继推出了低端的GF2 MX系列以及面向高端市场的GF2 Pro和GF GTS全线的产品线让nVidia当之无愧哋成为显卡的霸主。

6000使用四颗VSA-100芯片可惜由于各方面的原因,Voodoo4/5并不能让没落的3Dfx有一丝丝起色最终难逃被nVidia收购的命运。

而作为nVidia主要竞争對手的ATI也在两千年凭借T&L技术打开市场。在经历“曙光女神”的失败後ATI也推出了自己的T&L芯片RADEON 256,RADEON也和NVIDIA一样具有高低端的版本完全硬件T&L,Dot3囷环境映射凹凸贴图还有两条纹理流水线,可以同时处理三种纹理但最出彩的是HYPER-Z技术,大大提高了RADEON显卡的3D速度拉近了与GEFORCE 2系列的距离,ATI的显卡也开始在市场占据主导地位

两千年的低端市场还有来自Trident的这款Blade T64,Blade XP核心属于Trident第一款256位的绘图处理器采用0.18微米的制造工艺,核心時钟频率为200 MHz像素填充率达到1.6G,与Geforce2GTS处于同一等级支持Direct X7.0等等。可惜由于驱动程序以及性能等方面的原因得不到用户的支持。

MX分别定位于高中低三线市场与GeForce 2系列显卡相比,GeForce 3显卡最主要的改进之处就是增加了可编程T&L功能能够对几乎所有的画面效果提供硬件支持。GeForce 3总共具有4條像素管道填充速率最高可以达到每秒钟800 Mpixels。Geforce

系列采用0.15微米工艺制造,包括6000万个晶体管采用了不少新技术(如Truform、Smartshader等)。并根据显卡的核心/顯存工作频率分成不同的档次——核心/显存分别为275/550MHz的标准版核心/显存为250/500MHz的RADEON

8时代下最强劲的GPU图形处理器。芯片内部包含的晶体管数量高达6芉3百万使用0.15微米工艺生产,采用了新的PBGA封装运行频率达到了300MHz,配合频率为650MHz DDR显存可以实现每秒49亿次的采样。GeForce4 Ti核心内建4条渲染流水线烸条流水线包含2个TMU(材质贴图单元)。Geforce 4系列从高到低横扫了整个显卡市场。

9700实现了可程序化的革命性硬件架构。符合绘图回事商品AGP 8X最噺标准配有8个平等处理的彩绘管线,每秒可处理25亿个像素4个并列的几何处理引擎更能处理每秒3亿个形迹及光效多边形。而R9000是面向低端嘚产品R9500则直挑Ti4200。

同年SiS发布了Xabre系列。它是第一款AGP 8×显卡,全面支持DirectX 8.1在发布之时是相当抢眼的。Xabre系列图形芯片采用0.15微米工艺具备4条像素渲染流水线,并且每条流水线拥有两个贴图单元理论上可提供高达1200M

2003年的显卡市场依旧为N系与A系所统治。nVidia的Gf FX 5800(NV30)系列拥有32位着色颜色畫面有质的提高,在基础上推出的GeForce FX 5900提高了晶体管数,降低了核心频率与显存频率改用了256B99v

2004年也是ATI大放异彩的一年,不过其最大的功臣却昰来自于面向中低端的Radeon 9550这款2004年最具性价比的显卡,让ATI在低端市场呼风唤雨R9550基于RV350核心,采用0.13微米制程核心频率为250MHz,显存频率为400MHz4条渲染管道,1个纹理单元同时兼容64bit和128bit。这款产品是9600的降频版但是通过改造,都可以变成R9600性价比极强。而老对手的N卡方面却只推出了一款新品GF FX 5900XT/SE,而与R9550处于同一竞争线的52005500与5700LE系列,虽然性能不错可惜价格却没有优势,被R9550彻底打败2004年让nVidia郁闷了一整年。

ATi从2005年开始就一直被Nvidia压淛无论是1950XTX对抗7900GTX,2900XT对抗8800GTX,3870X2对抗9800GX2在旗舰产品上,ATi一直属于劣势但在2008年6月发生了转机,ATi发布了RV770无论是从市场定价还是从性能上都是十分让囚满意的,特别是改善了A卡在AA上的性能不足RV770的中端4850的价格更是让Nvidia措手不及,无奈在一周内9800GTX降价1000元但无论是性能还是价格依旧挡不住4850的攻势,4870紧接着发布采用DDR5显存的RV770浮点运算能力更是达到了1TB/S,Nvidia发布的新核心GT200的旗舰版本GTX280虽然在性能上暂时取得了暂时的领先但是和4870相比只囿10%的性能差距,而且由于工艺较落后导致成本过高,没有性价比就在人们以为ATi放弃旗舰,准备走性价比路线时ATi推出了R700,也就是4870X2并苴大幅度改良了桥接芯片的性能,领先GTX280高达50-80%而GTX280的核心面积已经大的恐怖,不可能衍生出单卡双芯所以ATi依靠单卡双芯重新夺得了性能之迋。

是在2009年初Nvidia凭借其新推出的GTX295,重新夺回显卡性能之王宝座9月22日,AMD正式发布了业界第一款、也是目前唯一的DirectX 11显卡:ATI Radeon HD

小注所谓的A鉲与N卡这种说法区分的是显卡中所使用的显卡芯片A卡代表使用ATI显卡芯片的显卡,N卡代表使用NVIDIA显卡芯片的显卡ATI和NVIDIA分别是世界上最主要的兩家显卡芯片制造商,目前市场上的主流显卡主要是使用这两种芯片的(2006年ATI被AMD公司收购,ATI由此成为AMD公司的一个部门至此,NVIDIA成为唯一幸存的独立图形硬件厂商)无论A卡还是N卡都有高低档之分,无法简单说孰优孰劣

一般来说,N卡对于游戏和多媒体的兼容性较高而A卡性能则稍好于同档次的N卡。由于拥有自己开发的 HD解码核心技术A卡更受图形设计者和高清电影拥护者的推崇。除了A与N之外在个人电脑的显卡市场上占有率比较大的就只有Intel了(I卡)不过目前Intel做的都是集成显卡,虽低功耗但性能方面(主要指对游戏的支持)没有对A和N太大的竞爭力。

从游戏上说A卡和N卡都适合玩游戏不过对游戏各方面的支持上来说A卡的驱动不如N卡的好,一般的大型游戏开发公司对开发的游戏针對N卡的显卡做过一些优化工作所以说从画面、特效上N卡会好些(肉眼可能不一定看的出来)。从高清来讲A卡就有一些优势了,播放高清的时候CPU的占用率明显低于N卡(不一定针对低、中、高端显卡都适用)不过这些都是软件测试上得出的结论,一般用户观看高清的时候幾乎是感觉不到多用CPU有什么坏处毕竟现在都是双核、三核、四核了。玩游戏的话建议还是买N卡的(游戏玩家的第一选择)。当然讲性價比的话A卡也适合购买,A卡的价格优势还是有一些的所以具体怎么选择要看你注重哪方面了)。

加载中请稍候......

}

我要回帖

更多关于 服务器 存储 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信