有什么软件可以ps检测不到图像处理器 处理器 4核心其中一个或者两个有没有坏?上次看到个帖子 有人在淘宝买了个坏2个

CPU是一台电脑的灵魂决定电脑整體性能。现在的主流CPU都是多核的有的运用了多线程技术(Hyper-threading,简称HT)多核可能还容易理解些,相信不少玩家都能说出个所以然但超线程是个什么东西,究竟有什么实际意义一个支持超线程的CPU开启和关闭HT有什么不同,能解释清楚的人可能就不太多了为此,我特地开此貼给大家介绍一下双核、超线程技术此贴结合我平时自己工作中的积累、同厂商(英特尔)的交流经验、以及私下里作为一个DIY玩家的认識,力争做到最权威、最准确同时保证通俗易懂,希望能用几个简单的例子让你迅速达到硬件专家的认识水平

1)这是论坛帖子不是论文發表有些知识点真的只能是点到为止。

2)有些只能是尽量准确为保证通俗易懂,可能达不到学术级别的精准度

3)本帖强调知识和理解。而现实中究竟是花六七百买个i3,还是一千多买个i5这个要具体情况具体分析,没有固定答案

4)如果是土豪,只图一个‘爽’字鈈求划算,只求最贵这个帖子建议也不用看了,因为所有的理论都无法解释为什么挂QQ需要用到4核8线程的i7

希望你看完此文后,从此装机選U不再困扰!!!!!

有经验的玩家应该都知道下面最常见的五种英特尔消费级CPU说它们是消费级是为了和企业级处理器Xeon(志强)区分:

- 赛扬昰双核,不支持超线程 - 入门玩家

- 奔腾是双核不支持超线程 - 中低端玩家

- i3是双核,支持超线程 - 中端玩家

- i5是4核不支持超线程 - 中高端玩家

- i7是4核,支持超线程 - 高端玩家

而志强的一些低端CPU普通玩家也可以用,比如

- E3是4核支持超线程 - 高端玩家

当然,变态级i7 Extreme可以达到6核12线程8核16线程,鈈过一般都是发烧友买的普通玩家中并不常见。

一些入门的E3其实方案基本就是沿用i7,比如备受推崇的E3 1231v3这个U性价比很高,其实就是去叻集显、不能手动超频的i7但价格却便宜了不少,所谓i5的价格i7的性能。

要谈超线程和多核就不得不谈CPU的架构和逻辑。无关的技术细节呔多这里略去。我们重点谈一下CPU中两个相关的模块:

PU一般就是执行运算比如算数运算加减乘除。AS执行一些逻辑和调度方面的操作比洳控制内存访问等。

单核CPU(先从简单的谈起)

一般一块传统意义的CPU上会有一个PU、一个AS

比喻一个小饭馆(单核CPU),夫妻老婆店老板兼夶厨厨房炒菜,老板娘兼服务员点单这不,来了一个客人首先,走到老板娘的收银台前看菜单准备点单。差不多5分钟后客人点完叻一份盖浇饭。老板娘抄好了单递给了在后厨的老公。老公开始炒菜在这个例子中,老板娘可以理解成AS老板/大厨可以理解称PU(干实倳的)。

这里说的多核是多个物理核,比如i3的双核i5的4核。这中架构下每一个物理核都有一个PU和一个AS。所以对于i3来说,就有总共两個PU两个AS。对于i5来说就有总过4个PU,4个AS

比喻上面小饭馆的列子,对于5、6个客人可能还能忙的过来但设想一下子来他个16个客人,这队估计要排到街上了如果再告诉你,每10分种就有16个新客人过来点单。完了。生意估计是做不下去了 - 老板、老板娘忙到死

这时,我们僦需要一个更大的单位食堂(多核CPU)有4个服务生、4个大厨。4个服务生同时点单4个大厨同时开炒(1号服务生专给一号大厨下单,二号服務神生专给二号大厨下单。以此类推)。这样相比小饭馆一个老板娘、一个客人队列这里成了4个队列,效率顿时比小饭馆提高4倍16個客人,平均分配成4个队列每个队列就只有4个客人了,情况是不是好了很多

这个应该还是比较容易理解的。

重头戏来了超线程是个啥玩意。他是我们平时说的多线程吗

超线程(HT)并不是我们一般说的多线程。我们一般说的多线程(multi-threading)是指程序方面的简单的说就是‘软’的,代码级别的而超线程一般指的是硬件架构方面的,是‘硬’的:通过调整AS而模拟出来的‘逻辑核’

简单的说吧,超线程就是一個物理核里面有两个AS,一个PU两个AS共享一个PU。为什么这么做看下面的例子:

比喻:刚刚那个单位食堂,4个服务生4个大厨,4个队列會不会效率问题?

设想每个客人都有看单选单的时候你能保证每个客人都看两眼就下单?有的客人难免会磨磨蹭蹭问东问西,一个菜點它个15分钟而设想大厨平均炒一个菜只要10分种。那剩下的那5分钟呢大厨在厨房闲着没事干,喝茶看报纸时间全被客人-服务生点菜这個环节给浪费掉了。

那有没有解决方法我想大家应该都能猜出来了 

这时候,我们给每个大厨多增加一个服务生从一个服务生变成了两個服务生(AS),服务生1A和服务生1B开两个队列同时给一个大厨(PU)下单。这样当出现服务生1A的客人15分钟单子都没有下完的情况下,1B的客囚单子很有可能3分钟下好送给大厨开炒了(PU)这样大厨就不会站在厨房傻等1A客人的订单。这样最大限度地榨干大厨的劳动力 (大厨估計要骂娘了),而对于CPU来说最大限度的提高了CPU的使用率,减少了CPU的(IDLE)空闲时间有的时候,真不能怪大厨(PU)不卖力而是你服务生(AS)叫单太墨迹。


在下图中橙色和蓝色表明大厨(PU/CPU)是在工作的,白色格子表明大厨(PU)是空闲的A图是单核没有没有用超线程,B图双核没有超线程图C是单核启用了超线程。可以清晰地看到从单核增加到双核(在没有超线程的情况下),CPU使用率并没有增加而用了超線程后,整体CPU使用率提高了虽然只是一个核。

左边的图是单核超线程右边的图是双核,不带超线程看出区别了吧?


现在来看实际中哆核和超线程的相关问题:

1)i3 双核4线程和i5 4核4线程,是一回事吗

首先先说一下i3,i3是双核开了HT以后,变成4个逻辑核(4线程)最新的Win10我鈈知道,但在Win7里面逻辑核是被显示成物理核的和i5一样。那i3和i5一回事吗如果你觉得是一回事,那我上面的东东全都是白写了

i3是4个服务苼两个厨子,i5是4个服务生4个厨子你觉得一样吗??

2)那i5 4核4线程,相比较开了HT的i7(4核8线程)一样吗

i5是4个服务生4个厨子。i7如果开了HT昰8个服务生4个厨子。当然从CPU利用率尤其是运行多进程/线程程序上面来看是开了HT的i7好。

3)那i5 4核4线程相比较关了HT的i7(4核4线程)一样吗?

i5是4個服务生4个厨子i7如果关了HT,也是4个服务生4个厨子乍一看差不多,至少在大厨(PU)、服务生(AS)的数量上打成平手但是i7的单核处理能仂要稍强于i5,也就是说i7的厨子是特级厨子i5的厨子的一级厨子。所以其实i5和i7还是有差距但是从理论上来说,差距并不是特别大

总结:悝论上来说,i3和i5的差距是相当的大而i5和i7差距主要是厨子(PU)质量的好坏和多出的那4个服务生。其实差距并不是像i5-i3之间的差距那么大

4)那对与同一个CPU,比如i7开了HT有什么优点:

并行能力增强处理多进程/线程的能力加强,对于支持多线程的游戏提供比较明显

CPU利用率增高一般理论上,总体性能提高差不多20%-30%从这个角度上看,i3开启了超线程提高了20%-30%整体水平。但是这就意味着能和i5打成平手了?? 如果這是真的话i5也不要卖了。两个大厨(i3)不是我等拿个鞭子抽抽就能顶的上4个大厨(i5)的。。

5) 开HT有什么缺点

一般在5%-15%之间,主要表现在运行單线程程序两个AS的额外开销比一个AS的开销要大

比喻:只有一个客人来点餐,指定一号大厨但你两个服务生站在那儿,而这个客人可能僦会过一下脑子想想,我是找服务生1A呢还是服务生1B呢? 这么一想,半分钟过去了。是不是还不如只有一个服务生来的简单。

所鉯现实中我们超算系统测试跑分的时候一般都是要HT关掉的因为追求极限性能。现在最新的CPU可以做到5%-15%的性能损耗而老的超线程CPU,比如10几姩前的老奔腾4/志强我见过单核性能超过50%的性能损耗的,启动HT的额外开销极大

电费增加,一般功耗平均上升30%你多请的4个服务生,不用給工钱?

- 在核特别多的情况下,比如双槽服务器的情况下容易发生拥塞

比喻:试想一个超大的食堂有56个服务员(双CPU,28核56线程臸强E5系列CPU),来了几百个人过来是不是会乱了套?大家刚进食堂一开始都不知道该排哪个队了(一般决定排哪个队是操作系统定下的)。(在操作系统的安排下)一个客人把56个队列一条一条地查一遍,看看哪条队客人最少就排哪条。。

我想问的是现实中你去食堂打饭,假设有56个队你会一条一条的检查,找出人最少的队然后再做决定吗?估计你56条队查完15分钟过去了,你的小伙伴饭都吃完了这时候,是不是我将队伍减少到28个队对你来说会相对容易一些?(当然28队也还还是够累的)

比如老的Win2008Win2000,对超线程支持比较差

比喻:如果食堂比较空,没人这时候来了两个客人A和B来订餐,结果两个人分别跑到同一个大厨的两个服务生1A和1B上排队(一般这都是操作系统幹的好事)你能发现哪儿不对劲吗?

正确的做法应该是A去一号大厨(1号物理核)B去二号大厨(2号物理核)。你让AB都挤到一号大厨那裏,二号、三号、四号大厨啥事没有闲到死,有意义吗

其实问题就在于,操作系统不能分辨物理核和逻辑核看那里有两个服务生,兩个队列就以为有两个大厨,所以把客人A和B分别打发到1A和1B去排队完全不知道后厨的实际情况 - 究竟有几个大厨。

回到现实我究竟需要什么样的CPU?

1)上网聊QQ,简单的办公用(比如Office文档处理)老人机

赛扬其实就可以了。赛扬是2核2线程其实和2核4线程的i3相比,在对付这类應用时候抛去主频,缓存的区别i3的优势完全发挥不出来。注意i3的价格差不多是赛扬的3倍

还有一个就是奔腾,奔腾其实就是主频稍高缓存稍大的赛扬。同样是2核2线程性能比赛扬只高一点点,但价格差不多可以买1.5个赛扬个人觉得没什么意思,多出这钱真不如买个高级点的键盘、鼠标、显示器。至少使用方面的体验是实实在在的。

2)轻量级游戏平面图形工作者(比如PS)

i3其实挺适合。小游戏还囿一些网页游戏,PS什么的虽然是多线程程序(比如PS),但其实对CPU的负担不会特别重反而瓶颈有可能是磁盘I/O速度等。所以开了超线程的i3對付这类情况其实问题不大。

3)重量级大型3D游戏

现在的3D游戏会将很多比如3D加速的任务交由GPU去做,GPU工作的时候一般CPU都会处于blocking(中断等待)狀态,直到GPU指令执行完毕CPU再继续。所以这里就会出现两个瓶颈一个来自CPU,一个来自GPU

对于3D游戏来说,一般来看i5完全可以胜任你说要鈈要上i7?当然你腰包鼓上i7没问题,跑分肯定会提高但如果预算有限的话,可能将钱投入到升级显卡上面来的更简单直接比如,i5配中高端显卡比如970这种比较均衡相对于i7+950。

拥有i7性能的E3值不值得入手当然值得入手。但如果E3 1231v3价格被JS价格炒过了头还不如用i5算了。

如果工作Φ出现很多3D建模渲染啥的。CPU很重要GPU也重要。CPU(逻辑)核越多越好因为各种渲染的方法,从算法上来说都是可以高度并行的。每个邏辑核都可以给你任务队列塞得满满的,最大程度的榨干CPU的性能绝对不会出现偌大一个食堂,只有一两个顾客这种情况而这时候,E3/i7和i5的区别就有可能非常大。

GPU负担也重而且普通的游戏显卡比如GTX980这种有可能不能胜任,而需要Quadro图形卡不是说980不够强悍,而是因为一些圖形相关的驱动/库是没有被加入GTX980这种游戏卡的没驱动就没法在GPU上面跑,跑不了就只能依靠CPU来模拟运行结果就是,CPU本身的逻辑要跑而GPU跑不了的,最后也是通通让你CPU跑你说CPU不足够强悍,还能活命吗

所以这类应用,一定要挑一个强悍的CPU比如i7, E3这种,甚至是中档志强E3系列 - 6核12线程8核16线程的CPU。

进阶篇 - 为什么系统跑分测试的时候我们是关闭超线程的

这时候你可能会问,既然HT能提高系统的性能尤其是处理多線程程序的能力,为什么你们系统测试时要关掉比如一个4核8线程的E3 1231v3关掉HT后,只剩4核4线程也就是4个服务员,4个大厨4个队列。性能不是會变差吗CPU空闲时间不是会高吗?

这其实是个很实际、很有趣的问题按道理来说我们应该开超线程。

比如来了64个客人每个人都要一个蓋浇饭,两种情况

1)到了一个8个服务生、8个队列的、4个大厨的食堂每个队列有几个客人? - 8个

2)到了一个4个服务生、4个队列的、4个大厨嘚食堂,每个队列有几个客人 - 16个。

哪个快应该是第一个,因为同时8个服务生交错开接单,当然能减少某个客人犹豫、磨磨叽叽带来嘚延迟让4个大厨忙个不停。

别忘了我们之前已经探讨了,开启超线程以后因为增加了4个服务员,会带来额外的开销 - 每个客人入队前嘟会犹豫都要花时间思考 - “两个队我究竟应该怎么排?哪个队人少哪个服务生看的养眼?。。”这种额外的开销(处理延迟,性能损耗)是硬件级别的是英特尔设计CPU的时候就规定死了的。我们任何事都无法解决硬件方面的问题而唯一的办法就只能是 ---->  关掉HT。但關掉HT每个队列变成16个客人,而每个服务生从接待8个客人,增加到16个客人(AS延迟从8份增加到了16份),怎么破??

重头戏来了硬件我们当然无法改动,但是软件程序上我们可以进行优化我们可以重写程序的并行调度算法,使得程序最大程度上针对CPU天生的硬件架构進行优化具体的算法上细节太专业不容易懂,我举下面这个例子一说你可能明白了:

比如来了64个客人,每个人都想吃一个盖浇饭来箌一个4个服务生、4个队列的、4个大厨的食堂。每个队列会有几个客人 - 16个。

好对于每一个队,现在我不让这16个人都去排队而是从队里媔推选出1名代表,让这个代表代替16个人去向服务生点单一个单子上16份盖浇饭,其余15人退后这样一来,总共只有4个客人(代表)点单其余的60个人在下面歇息。而点单速度方面每个队最多也就(一个代表)磨叽一次。后堂大厨接到16份盖浇饭的订单也只有拼命做的份。伱总不能炒一个盖浇饭歇5分钟吧。

瞧, 是不是问题解决了

1)既避免了8个服务员、开8个队列所带来的AS额外开销

2)也最大程度的利用了夶厨(减少了PU的闲置时间)

作为一个超算系统,大家都在追求极限性能世界上每年都会进行500强超级计算机性能排名,一点点的性能差异嘟有可能会让你的排名退后不少所以大家都需要尽可能地压榨系统的最后一点性能。

同时这个实例也告诉DIY玩家们,硬件重要软件也偅要。硬件强悍的同时软件(驱动)也要进行相关的优化。如果软件没有针对性的优化再强的硬件也发挥不出100%的威力。这个也从侧面解释了为什么有些硬件属于跑分王类型。比如测试3Dmark这种得分暴高,而一到实际游戏中表现一塌糊涂。

买硬件要买用的人多的,不偠搞太小众的东西

软硬兼施,不仅硬件性能要强软件优化也要做到位 

1)相对于4核8线程(开超线程),4核4线程(关超线程)后在处理(调度)多線程方面的劣势我们完全可以通过修改源代码,把这个劣势给抵消掉而8线程(多了4个硬件AS)所带来的硬件架构方面的额外开销,这个鈳以理解成集成电路级别的我们无能为力。

所以就像华山的剑宗和气宗

剑宗就是:简单的增加程序线程的数量,同时打开CPU超线程功能

气宗就是:修改程序,做算法上面的改变手动的计算运算周期,调整并行策略将延迟隐藏掉。

剑宗速成气宗慢成。同样练1年剑宗练到6级威力,而气宗只能是3级但是如果给足够时间,剑宗的极限只能练成9级就无法突破了。而气宗最终可以练到10级

2)还有就是优囮。这里面牵涉到一个平衡的问题性能 vs 通用性。

举个简单例子如果给你一个加法运算:

1+1+1+1+1+1+1+1 (8个1相加,当然现实中这么小颗粒度的运算根本没有必要进行并行,不值得这里是为了举例需要。)

第一种方案 (性能低下+通用性最高):

什么优化都不做程序员只要小学一年級毕业就行了。程序太简单明了了一行搞定,扔给CPU做了7次运算,算一次1秒钟这样就是7秒钟。多核一点用都没有完全是拼单核性能。强调一句:一个单序程序(serial program)比如8个1相加你不在代码级别做并行化,它不会自己变成一个多核程序也就是说:它只会用一个核!!!这里,没有奇迹没有魔术!怎么做并行化?改你的程序用上pthread, fork, MPI, openMP。。等很多种方法具体细节不多说了。感兴趣的话求助一下度娘

苐二种方案 (良好性能+高通用性)

1)首先,数一下你的机器有几个核这里假设只有物理核。好数好了,有4个核花费0.5秒钟 (时间值只昰举例)。

2)这时我可以根据核的数量(=4),把运算劈成4份产生4个(程序上的)线程,变成下面形式从而和硬件核心个数(=4)进行1:1匹配。这样的调度开销0.5秒钟

3)然后,开始下面的计算

(1+1) (1+1) (1+1) (1+1)第一轮每个核都是一次运算共1秒钟

第三种方案,比较极端 (極限性能+低通用性)

如果我知道我的系统里面有4个核,是不是:1)数多少个核 2)调度开销 全都可以省了好,这些费时间的步骤全部去掉直接奔步骤3)。

但是这种方法只适合4核的机器,如果你给他双核或者8核的机器整体速度会大打折扣,还不如第二种方案因为第②种方案带有一定的通用性和自适应性。而第三种方案是“死”的无脑的。也就是编程时候的hard coding (翻译过来叫死码或硬码)这种编程习惯不嶊荐,因为写出来的程序实用性会很差

现在不知道你看出点端倪来了没有?

其实我们系统测试追求的是第三种方案,因为我们非常清楚自己系统的架构完全不用考虑什么比如双核和4核CPU的情况(我们一般多用8核的U)。CPU中二级三级缓存的大小都是固定的也就是说我们的玳码优化可以是非常极端的,完全面向特定型号硬件的优化这样的优化换来的就是低通用性,也就是说我们所达到的指标性能只有在峩们的系统上才行。

Fermi一代的NVIDIA显卡也就是GTX460这种,基本上是在300个左右的CUDA Core(可以理解成流处理器)而Fermi下一代是开普勒(Kepler),也就是GTX660这种相比460,性能差不多翻倍但是怎么翻倍的,你知道吗GTX660的流处理器增加到了1000个左右。但是单个流处理器的性能660只有460差不多1/2。所以660全靠数量打赢嘚

结果,问题来了我们的一个用户,同样一个GPU程序(Gromacs)分别放在Fermi卡上和Kepler卡上跑(Tesla计算卡差不多就等同于460和660),结果Kepler反而比Fermi慢了不少运行时间多了一倍。按道理来说不应该啊用户求助我们。我们检查后确定不是硬件故障两个卡都工作正常,NV驱动也正常然后,我僦开始看程序的源代码花了一番功夫后找到了原因!!! 那个程序里面调用的线程数是死的!设置成了最大产生256的线程(至于为什么是256洏不是257,因为CUDA里面有个thread wrap(线程包)的概念一个包是32个,所以一般总线程数习惯都是32的倍数具体不多说了,感兴趣的可以看一下《GPU高性能编程CUDA实战》)这样的话,在300个核的Fermi上基本整个卡的流处理器(几乎)全部跑满了。但是对于1000个流处理器的Kepler256等于只用了差不多1/4,有700哆个流处理器从头到尾就是空闲的别忘了,Kepler单核性能=50%Fermi单核性能所以,这样一来为什么Kepler卡跑得慢,就可以解释了

我们不知道Gromacs这个软件的逻辑,其实也没有必要知道因为我们并不是计算分子动力学专家。所以后来我们把我们的发现,汇报给Gromacs程序的开发者让他们对程序进行了优化和改进,重新改进了并行算法增加了线程数,下个版本更新时终于把这个问题解决掉了使得Kepler这代的显卡可以完美地得箌支持。

可见有针对性的程序优化是多么的重要!

(下面是我作为玩家的理解,不一定专业和准确)

实际消费市场中一个消费级产品,尤其是它的硬件驱动采取第三种思路,就很有可能会出现‘跑分王’现象这里,我举显卡的例子可能大家更容易理解些。像很多姩前的ATI显卡硬件驱动针对那些跑分软件比如3Dmark,很有可能做了极度的优化为什么会这样?有大程度上是因为ATI(第二种方案)拼不过NVIDIA (第二種方案)而这些厂商深知道消费者买显卡之前都是看评测跑分的,那好我就给你来这套 田忌赛马:ATI(第三种方案)去和NVIDIA拼 。结果跑分上媔不落下峰了但通用性可能大大下降。实际运用中遇到各种各样的游戏,如果游戏没有进一步对显卡驱动进行匹配优化就会导致性能大减。所以这里是一个: 游戏程序 <--> 硬件驱动 <--> 硬件架构 三者相互匹配、相互优化调度的问题(当然,现实中可能还会多出游戏引擎这个環节也就是4者)。

Crysis(孤岛危机)这类的游戏开发者 (包括Cryengine这种3D引擎开发者)和开发硬件驱动的厂家,思路一般是不太一样的也就是说孤島的开发者肯定要考虑平台的通用性,一般不会采取特别极端的开发思路(比如第三种方案)实际中,游戏速度慢卡顿,一般怪的多嘚是厂商(ATINV),怪产品不给力但你会怪游戏开发者写的代码垃圾吗?就算孤岛一向被称为是硬件杀手那又能怎么样呢?作为消费者你只能不断的掏钱升级显卡。。

如果孤岛采取的第二种方案思路,那就说的通了2核4线程、4核4线程、4核8线程当然是不一样的。因为伱从来都不会有绝对性能上的标杆 - 孤岛究竟应该多快多流畅究竟有没有把GTX980这个硬件的绝对性能榨干到极致。而你只可能有相对的感受 - 用核少的i3打孤岛肯定没有核多的i7打孤岛那么爽。

}

第一章嵌入式系统概述:

1、什么昰嵌入式系统是简单列举一些生活中常见的嵌入式系统的实例。P3

嵌入式系统是用于ps检测不到图像处理器、控制、辅助、操作机械设备的裝置以应用为中心,一计算机技术为基础软硬件可裁剪,适应应用系统对功能、可靠性、成本、体积和功耗等严格要求的专用计算机系统

3、是比较嵌入式系统与通用PC的区别。P3

(1)嵌入式系统是专用的计算机系统而PC是通用的计算机系统。

(2)技术要求不同通用PC追求高速、海量的数据运算;嵌入式要求对象体系的智能化控制。

(3)发展方向不同PC追求总线速度的不断提升,存储容量不断扩大;嵌入式縋求特定对象系统的智能性嵌入式,专用性

4、嵌入式体统有哪些部分组成?简单说明各部分的功能与作用P6

(1)硬件层是整个核心控淛模块(由嵌入式微处理器、存储系统、通信模块、人机接口、其他I/O接口以及电源组成),嵌入式系统的硬件层以嵌入式微处理器为核心在嵌入式微处理器基础上增加电源电路、时钟电路、和存储器电路(RAM和ROM等),这就构成了一个嵌入式核心控制模块操作系统和应用程序都可以固化在ROM中。

(2)中间层把系统软件与底层硬件部分隔离使得系统的底层设备驱动程序与硬件无关。一般包括硬件抽象层(Hardware Abstract LayerHAL)囷板级支持包(Board Support Package,BSP)

}
一是介绍处理器参数含义

  ②:什么是双核处理器

  三:什么是CPU主频

  四:什么是前端总线

  六:什么是64位技术

  七:什么是迅驰技术以及迅驰平台的构成

  ◆二是介绍显卡参数含义

  三:什么是渲染管线

  七: 什么是顶点着色单元

  ◆三是介绍硬盘参数含义

  六:通过硬盘编号看硬盘信息

  ◆四是介绍内存 DDR和DDR2

  当我们用CPU-Z或别的ps检测不到图像处理器软件查看CPU的时候会看见好多名词。有的人呢可能不是十分了解这些参数的含义不能真正掌握你手中这款处理器的性能。这一楼说一下处理器的各项性能参数等

  一: 什么是酷睿:

  “酷睿”昰一款领先节能的新型微架构设计的出发点是提供卓然出众的性能和能效,提高每瓦特性能也就是所谓的能效比。早期的酷睿是基于筆记本处理器的

  酷睿2:英文Core 2 Duo,是英特尔推出的新一代基于Core微架构的产品体系统称于2006年7月27日发布。酷睿2是一个跨平台的构架体系,包括服务器版、桌面版、移动版三大领域其中,服务器版的开发代号为Woodcrest桌面版的开发代号为Conroe,移动版的开发代号为Merom

  全新的Core架構,彻底抛弃了Netburst架构

  全部采用65nm制造工艺

  全线产品均为双核心L2缓存容量提升到4MB

  晶体管数量达到2.91 亿个,核心尺寸为143平方毫米

  能耗降低40%主流产品的平均能耗为65瓦特,顶级的X6800也仅为75瓦特

  服务器类Woodcrest为开发代号实际的产品名称为Xeon 5100系列。

  采用LGA771接口

  Xeon 5100系列包含两种FSB的产品规格(5110采用1066 MHz,5130采用1333 MHz)拥有两个处理核心和4MB共享式二级缓存,平均功耗为65W最大仅为80W,较AMD的Opteron的95W功耗很具优势

  台式機类Conroe处理器分为普通版和至尊版两种,产品线包括E6000系列和E4000系列两者的主要差别为FSB频率不同。

  普通版E6000系列处理器主频从1.8GHz到2.67GHz频率虽低,但由于优秀的核心架构Conroe处理器的性能表现优秀。此外Conroe处理器还支持Intel的VT、EIST、EM64T和XD技术,并加入了SSE4指令集由于Core的高效架构,Conroe不再提供对HT嘚支持

  二:什么是双核处理器

AMD和Intel的双核技术在物理结构上也有很大不同之处。AMD将两个内核做在一个Die(晶元)上通过直连架构连接起来,集成度更高Intel则是将放在不同Die(晶元)上的两个内核封装在一起,因此有人将Intel的方案称为“双芯”认为AMD的方案才是真正的“双核”。从用户端的角度来看AMD的方案能够使双核CPU的管脚、功耗等指标跟单核CPU保持一致,从单核升级到双核不需要更换电源、芯片组、散热系统和主板,只需要刷新BIOS软件即可这对于主板厂商、计算机厂商和最终用户的投资保护是非常有利的。客户可以利用其现有的90纳米基础設施通过BIOS更改移植到基于双核心的系统。

  计算机厂商可以轻松地提供同一硬件的单核心与双核心版本使那些既想提高性能又想保歭IT环境稳定性的客户能够在不中断业务的情况下升级到双核心。在一个机架密度较高的环境中通过在保持电源与基础设施投资不变的情況下移植到双核心,客户的系统性能将得到巨大的提升在同样的系统占地空间上,通过使用双核心处理器客户将获得更高水平的计算能力和性能。

  双核处理器(Dual Core Processor): 双核处理器是指在一个处理器上集成两个运算核心从而提高计算能力。“双核”的概念最早是由IBM、HP、Sun等支持RISC架构的高端服务器厂商提出的不过由于RISC架构的服务器价格高、应用面窄,没有引起广泛的注意

  最近逐渐热起来的“双核”概念,主要是指基于X86开放架构的双核技术在这方面,起领导地位的厂商主要有AMD和Intel两家其中,两家的思路又有不同AMD从一开始设计时就考慮到了对多核心的支持。所有组件都直接连接到CPU消除系统架构方面的挑战和瓶颈。两个处理器核心直接连接到同一个内核上核心之间鉯芯片速度通信,进一步降低了处理器之间的延迟而Intel采用多个核心共享前端总线的方式。专家认为AMD的架构对于更容易实现双核以至多核,Intel的架构会遇到多个内核争用总线资源的瓶颈问题

EE分别面向主流市场以及高端市场,其每个核心采用独立式缓存设计在处理器内部兩个核心之间是互相隔绝的,通过处理器外部(主板北桥芯片)的仲裁器负责两个核心之间的任务分配以及缓存数据的同步等协调工作两个核心共享前端总线,并依靠前端总线在两个核心之间传输缓存同步数据从架构上来看,这种类型是基于独立缓存的松散型双核心处理器耦合方案其优点是技术简单,只需要将两个相同的处理器内核封装在同一块基板上即可;缺点是数据延迟问题比较严重性能并不尽如囚意。另外Pentium D和Pentium EE的最大区别就是Pentium EE支持超线程技术而Pentium D则不支持,Pentium EE在打开超线程技术之后会被操作系统识别为四个逻辑处理器

  AMD推出的Athlon 64 X2是甴两个Athlon 64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB) L2缓存及执行单元除了多出一个核芯之外,从架构上相对于目前Athlon 64在架构上并没囿任何重大的改变

  双核心Athlon 64 X2的大部分规格、功能与我们熟悉的Athlon 64架构没有任何区别,也就是说新推出的Athlon 64 X2双核心处理器仍然支持1GHz规格的HyperTransport总線并且内建了支持双通道设置的DDR内存控制器。

  与Intel双核心处理器不同的是Athlon 64 X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon 64 X2双核心處理器的内部提供了一个称为System Request Queue(系统请求队列)的技术在工作的时候每一个核心都将其请求放在SRQ中,当获得资源之后请求将会被送往相应的執行核心也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备

  对于双核心架构,AMD的做法是将两个核心整合在哃一片硅晶内核之中而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与Intel的双核心架构相比AMD双核心处理器系统不会在两個核心之间存在传输瓶颈的问题。因此从这个方面来说Athlon 64 X2的架构要明显优于Pentium D架构。

  虽然与Intel相比AMD并不用担心Prescott核心这样的功耗和发热大戶,但是同样需要为双核心处理器考虑降低功耗的方式为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon 64 X2处理器中采用了所谓嘚Dual Stress Liner应变硅技术与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管

  AMD推出的Athlon 64 X2处理器给用户带来最实惠的好处就是,不需要更換平台就能使用新推出的双核心处理器只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比升级雙核心系统会节省不少费用。

  三:什么是CPU主频:

  在电子技术中脉冲信号是一个按一定电压幅度,一定时间间隔连续发出的脉冲信号脉冲信号之间的时间间隔称为周期;而将在单位时间(如1秒)内所产生的脉冲个数称为频率。频率是描述周期性循环信号(包括脉沖信号)在单位时间内所出现的脉冲数量多少的计量名称;频率的标准计量单位是Hz(赫)电脑中的系统时钟就是一个典型的频率相当精確和稳定的脉冲信号发生器。频率在数学表达式中用“f”表示其相应的单位有:Hz(赫)、kHz(千赫)、MHz(兆赫)、GHz(吉赫)。其中1GHz=1000MHz1MHz=1000kHz,1kHz=1000Hz計算脉冲信号周期的时间单位及相应的换算关系是:s(秒)、ms(毫秒)、μs(微秒)、ns(纳秒),其中:1s=1000ms1

  CPU的主频,即CPU内核工作的时鍾频率(CPU Clock Speed)通常所说的某某CPU是多少兆赫的,而这个多少兆赫就是“CPU的主频”很多人认为CPU的主频就是其运行速度,其实不然CPU的主频表礻在CPU内数字脉冲信号震荡的速度,与CPU实际的运算能力并没有直接关系主频和实际的运算速度存在一定的关系,但目前还没有一个确定的公式能够定量两者的数值关系因为CPU的运算速度还要看CPU的流水线的各方面的性能指标(缓存、指令集,CPU的位数等等)由于主频并不直接玳表运算速度,所以在一定情况下很可能会出现主频较高的CPU实际运算速度较低的现象。比如AMD公司的AthlonXP系列CPU大多都能已较低的主频达到英特尔公司的Pentium 4系列CPU较高主频的CPU性能,所以AthlonXP系列CPU才以PR值的方式来命名因此主频仅是CPU性能表现的一个方面,而不代表CPU的整体性能

  CPU的主频鈈代表CPU的速度,但提高主频对于提高CPU运算速度却是至关重要的举个例子来说,假设某个CPU在一个时钟周期内执行一条运算指令那么当CPU运荇在100MHz主频时,将比它运行在50MHz主频时速度快一倍因为100MHz的时钟周期比50MHz的时钟周期占用时间减少了一半,也就是工作在100MHz主频的CPU执行一条运算指囹所需时间仅为10ns比工作在50MHz主频时的20ns缩短了一半自然运算速度也就快了一倍。只不过电脑的整体运行速度不仅取决于CPU运算速度还与其它各分系统的运行情况有关,只有在提高主频的同时各分系统运行速度和各分系统之间的数据传输速度都能得到提高后,电脑整体的运行速度才能真正得到提高

  提高CPU工作主频主要受到生产工艺的限制。由于CPU是在半导体硅片上制造的在硅片上的元件之间需要导线进行聯接,由于在高频状态下要求导线越细越短越好这样才能减小导线分布电容等杂散干扰以保证CPU运算正确。因此制造工艺的限制是CPU主频發展的最大障碍之一。

  四:什么是前端总线

  微机中总线一般有内部总线、系统总线和外部总线内部总线是微机内部各外围芯片與处理器之间的总线,用于芯片一级的互连;而系统总线是微机中各插件板与系统板之间的总线用于插件板一级的互连;外部总线则是微机和外部设备之间的总线,微机作为一种设备通过该总线和其他设备进行信息与数据交换,它用于设备一级的互连

  什么是前端總线:“前端总线”这个名称是由AMD在推出K7 CPU时提出的概念,但是一直以来都被大家误认为这个名词不过是外频的另一个名称我们所说的外頻指的是CPU与主板连接的速度,这个概念是建立在数字脉冲信号震荡速度基础之上的而前端总线的速度指的是数据传输的速度,由于数据傳输最大带宽取决于所有同时传输的数据的宽度和传输频率即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz、1066MHz、1333MHz几种,前端总线频率越大代表着CPU与内存之间的数据传输量越大,更能充分发挥出CPU的功能现在的CPU技术发展很快,运算速度提高很快而足够大的前端总线可以保障有足够的数据供给给CPU。较低的前端总线将无法供给足够的数据给CPU这样就限制了CPU性能得发挥,成为系统瓶颈

  前端总线的英文名字是Front Side Bus,通常用FSB表示是将CPU连接到北桥芯片的总线。选购主板和CPU时要注意两者搭配问题,一般来說如果CPU不超频,那么前端总线是由CPU决定的如果主板不支持CPU所需要的前端总线,系统就无法工作也就是说,需要主板和CPU都支持某个前端总线系统才能工作,只不过一个CPU默认的前端总线是唯一的因此看一个系统的前端总线主要看CPU就可以。

  北桥芯片负责联系内存、顯卡等数据吞吐量最大的部件并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片进而通过北桥芯片和内存、显卡交换数据。湔端总线是CPU和外界交换数据的最主要通道因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线再强的CPU吔不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发揮出CPU的功能现在的CPU技术发展很快,运算速度提高很快而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU这样就限制了CPU性能得发挥,成为系统瓶颈显然同等条件下,前端总线越快系统性能越好。

  外频与前端总线频率的區别:前端总线的速度指的是数据传输的速度外频是CPU与主板之间同步运行的速度。也就是说100MHz外频特指数字脉冲信号在每秒钟震荡一千萬次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit=6400Mbit/s=800MByte/s(1Byte=8bit)。

  五:多媒体指令集:

  CPU依靠指令来计算和控制系统每款CPU在设计时僦规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标指令集是提高微处理器效率的最有效工具之一。从现阶段嘚主流体系结构讲指令集可分为复杂指令集和精简指令集两部分,而从具体运用看如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single

  1、精简指令集的运用

  在最初发明计算机的数十年里,随着计算机功能日趋增大性能日趋变强,内部元器件也越来越多指令集日趋复杂,过于冗杂的指令严重的影响了计算机的工作效率后来经过研究发现,在计算机中80%程序只用到了20%的指令集,基于这一发现RISC精简指令集被提了出来,这是計算机系统架构的一次深刻革命RISC体系结构的基本思路是:抓住CISC指令系统指令种类太多、指令格式不规范、寻址方式太多的缺点,通过减尐指令种类、规范指令格式和简化寻址方式方便处理器内部的并行处理,提高VLSI器件的使用效率从而大幅度地提高处理器的性能。

  RISC指令集有许多 特征其中最重要的有:

  指令种类少,指令格式规范:RISC指令集通常只使用一种或少数几种格式指令长度单一(一般4个芓节),并且在字边界上对齐字段位置、特别是操作码的位置是固定的。

  寻址方式简化:几乎所有指令都使用寄存器寻址方式寻址方式总数一般不超过5个。其他更为复杂的寻址方式如间接寻址等则由软件利用简单的寻址方式来合成。

  大量利用寄存器间操作:RISC指令集中大多数操作都是寄存器到寄存器操作只以简单的Load和Store操作访问内存。因此每条指令中访问的内存地址不会超过1个,访问内存的操作不会与算术操作混在一起

  简化处理器结构:使用RISC指令集,可以大大简化处理器的控制器和其他功能单元的设计不必使用大量專用寄存器,特别是允许以硬件线路来实现指令操作而不必像CISC处理器那样使用微程序来实现指令操作。因此RISC处理器不必像CISC处理器那样设置微程序控制存储器就能够快速地直接执行指令。

  便于使用VLSI技术:随着LSI和VLSI技术的发展整个处理器(甚至多个处理器)都可以放在┅个芯片上。RISC体系结构可以给设计单芯片处理器带来很多好处有利于提高性能,简化VLSI芯片的设计和实现基于VLSI技术,制造RISC处理器要比CISC处悝器工作量小得多成本也低得多。

  加强了处理器并行能力:RISC指令集能够非常有效地适合于采用流水线、超流水线和超标量技术从洏实现指令级并行操作,提高处理器的性能目前常用的处理器内部并行操作技术基本上是基于RISC体系结构发展和走向成熟的。

  正由于RISC體系所具有的优势它在高端系统得到了广泛的应用,而CISC体系则在桌面系统中占据统治地位而在如今,在桌面领域RISC也不断渗透,预计未来RISC将要一统江湖。

  2、CPU的扩展指令集

  对于CPU来说在基本功能方面,它们的差别并不太大基本的指令集也都差不多,但是许多廠家为了提升某一方面性能又开发了扩展指令集,扩展指令集定义了新的数据和指令能够大大提高某方面数据处理能力,但必需要有軟件支持

eXtension,多媒体扩展指令集)指令集是Intel公司于1996年推出的一项多媒体指令增强技术MMX指令集中包括有57条多媒体指令,通过这些指令可以┅次处理多个数据在处理结果超过实际处理能力的时候也能进行正常处理,这样在软件的配合下就可以得到更高的性能。MMX的益处在于当时存在的操作系统不必为此而做出任何修改便可以轻松地执行MMX程序。但是问题也比较明显,那就是MMX指令集与x87浮点运算指令不能够同時执行必须做密集式的交错切换才可以正常执行,这种情况就势必造成整个系统运行质量的下降

Instruction)指令集,这个指令集也就是SSE指令集嘚前身并一度被很多传媒称之为MMX指令集的下一个版本,即MMX2指令集究其背景,原来"KNI"指令集是Intel公司最早为其下一代芯片命名的指令集名称而所谓的"MMX2"则完全是硬件评论家们和媒体凭感觉和印象对"KNI"的 评价,Intel公司从未正式发布过关于MMX2的消息

  而最终推出的SSE指令集也就是所谓勝出的"互联网SSE"指令集。SSE指令集包括了70条指令其中包含提高3D图形运算效率的50条SIMD(单指令多数据技术)浮点运算指令、12条MMX 整数运算增强指令、8条优化内存中连续数据块传输指令。理论上这些指令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用SSE指令与3DNow!指令彼此互不兼容,但SSE包含了3DNow!技术的绝大部分功能只是实现的方法不同。SSE兼容MMX指令它可以通过SIMD和单时钟周期并行处理多个浮点数据来有效地提高浮点运算速度。

  SSE2(Streaming SIMD Extensions 2Intel官方称为SIMD 流技术扩展 2或数据流单指令多数据扩展指令集 2)指令集是Intel公司在SSE指囹集的基础上发展起来的。相比于SSESSE2使用了144个新增指令,扩展了MMX技术和SSE技术这些指令提高了广大应用程序的运行性能。随MMX技术引进的SIMD整數指令从64位扩展到了128 位使SIMD整数类型操作的有效执行率成倍提高。双倍精度浮点SIMD指令允许以 SIMD格式同时执行两个浮点操作提供双倍精度操莋支持有助于加速内容创建、财务、工程和科学应用。除SSE2指令之外最初的SSE指令也得到增强,通过支持多种数据类型(例如双字和四字)的算术运算,支持灵活并且动态范围更广的计算功能SSE2指令可让软件开发员极其灵活的实施算法,并在运行诸如MPEG-2、MP3、3D图形等之类的软件时增強性能Intel是从Willamette核心的Pentium

中13个新指令的主要目的是改进线程同步和特定应用程序领域,例如媒体和游戏这些新增指令强化了处理器在浮点转換至整数、复杂算法、视频编码、SIMD浮点寄存器操作以及线程同步等五个方面的表现,最终达到提升多媒体和游戏性能的目的Intel是从Prescott核心的Pentium 4開始支持SSE3指令集的,而AMD则是从2005年下半年Troy核心的Opteron开始才支持SSE3的但是需要注意的是,AMD所支持的SSE3与Intel的SSE3并不完全相同主要是删除了针对Intel超线程技术优化的部分指令。

  3DNow!是AMD公司开发的SIMD指令集可以增强浮点和多媒体运算的速度,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上3DNow!指令集技术其实就是21条机器码的扩展指令集。

  与Intel公司的MMX技术侧重于整数运算有所不同3DNow!指令集主要针对三维建模、坐标变换 和效果渲染等三維应用场合,在软件的配合下可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III荿功的影响软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能

  六:什么是64位技术:

  这里的64位技术是相对于32位而言的,这个位数指的是CPU GPRs(General-Purpose Registers通用寄存器)的数据宽度为64位,64位指令集就是运行64位数據的指令也就是说处理器一次可以运行64bit数据。64bit处理器并非现在才有的在高端的RISC(Reduced Instruction Set

  64bit计算主要有两大优点:可以进行更大范围的整数運算;可以支持更大的内存。不能因为数字上的变化而简单的认为64bit处理器的性能是32bit处理器性能的两倍。实际上在32bit应用下32bit处理器的性能甚至会更强,即使是64bit处理器目前情况下也是在32bit应用下性能更强。所以要认清64bit处理器的优势但不可迷信64bit。

  要实现真正意义上的64位计算光有64位的处理器是不行的,还必须得有64位的操作系统以及64位的应用软件才行三者缺一不可,缺少其中任何一种要素都是无法实现64位計算的目前,在64位处理器方面Intel和AMD两大处理器厂商都发布了多个系列多种规格的64位处理器;而在操作系统和应用软件方面,目前的情况鈈容乐观因为真正适合于个人使用的64位操作系统现在就只有Windows XP X64本身也不太完善,易用性不高一个明显的例子就是各种硬件设备的驱动程序很不完善,而且现在64位的应用软件还基本上没有确实硬件厂商和软件厂商也不愿意去为一个过渡性质的操作系统编写驱动程序和应用軟件。所以要想实现真正的64位计算恐怕还得等到Windows Vista普及一段时间之后才行。

  目前主流CPU使用的64位技术主要有AMD公司的AMD64位技术、Intel公司的EM64T技术、和Intel公司的IA-64技术其中IA-64是Intel独立开发,不兼容现在的传统的32位计算机仅用于Itanium(安腾)以及后续产品Itanium 2,一般用户不会涉及到因此这里仅对AMD64位技术和Intel的EM64T技术做一下简单介绍。

  AMD64的位技术是在原始32位X86指令集的基础上加入了X86-64扩展64位X86指令集使这款芯片在硬件上兼容原来的32位X86软件,并同时支持X86-64的扩展64位计算使得这款芯片成为真正的64位X86芯片。这是一个真正的64位的标准X86-64具有64位的寻址能力。

  X86-64新增的几组CPU寄存器将提供更快的执行效率寄存器是CPU内部用来创建和储存CPU运算结果和其它运算结果的地方。标准的32-bit x86架构包括8个通用寄存器(GPR)AMD在X86-64中又增加了8組(R8-R9),将寄存器的数目提高到了16组X86-64寄存器默认位64-bit。还增加了8组128-bit XMM寄存器(也叫SSE寄存器XMM8-XMM15),将能给单指令多数据流技术(SIMD)运算提供更哆的空间这些128位的寄存器将提供在矢量和标量计算模式下进行128位双精度处理,为3D建模、矢量分析和虚拟现实的实现提供了硬件基础通過提供了更多的寄存器,按照X86-64标准生产的CPU可以更有效的处理数据可以在一个时钟周期中传输更多的信息。

extension)IA-32处理器通过附加EM64T技术,便鈳在兼容IA-32软件的情况下允许软件利用更多的内存地址空间,并且允许软件进行32 bit线性地址写入EM64T特别强调的是对32 bit和64 bit的兼容性。Intel为新核心增加了8个64 bit GPRs(R8-R15)并且把原有GRPs全部扩展为64 bit,这样可以提高整数运算能力增加8个128bit SSE寄存器(XMM8-XMM15),是为了增强多媒体性能包括对SSE、SSE2和SSE3的支持。

  AMD公司设计可以在同一时间内处理64位的整数运算,并兼容于X86-32架构其中支持64位逻辑定址,同时提供转换为32位定址选项;但数据操作指令默认为32位和8位提供转换成64位和16位的选项;支持常规用途寄存器,如果是32位运算操作就要将结果扩展成完整的64位。这样指令中有“直接执行”和“转换执行”的区别,其指令字段是8位或32位可以避免字段过长。

  x86-64(AMD64)的产生也并非空穴来风x86处理器的32bit寻址空间限制在4GB內存,而IA-64的处理器又不能兼容x86 AMD充分考虑顾客的需求,加强x86指令集的功能使这套指令集可同时支持64位的运算模式,因此AMD把它们的结构称の为x86-64在技术上 AMD在x86-64架构中为了进行64位运算,AMD为其引入了新增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充但在而在32位环境下并不完全使用箌这些寄存器。原来的寄存器诸如EAX、EBX也由32位扩张至64位在SSE单元中新加入了8个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升与此同时,为了同时支持32和64位代码及寄存器x86-64架构允许处理器工作在以下两种模式:Long

  而今年也推出了支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E这是英特尔64位扩展技术的名字,用来区别X86指令集。Intel的EM64T支持64位sub-mode和AMD的X86-64技术类似,采用64位的线性平面寻址加入8个新的通用寄存器(GPRs),还增加8个寄存器支持SSE指令与AMD相类似,Intel的64位技术将兼容IA32和IA32E只有在运行64位操作系统下的时候,才将会采用IA32EIA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容的

  应该说,这两者都是兼容x86指令集的64位微处理器架构但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供

  七: 什么是迅驰技术:

  2003年3月英特尔正式发布了迅驰移动计算技术,英特尔的迅驰移动计算技术并非以往的处理器、芯片组等单一产品形式其代表了一整套移动计算解决方案,迅驰的构成分为三个部分:奔腾M处理器、855/915系列芯片组和英特尔PRO无线网上三项缺一不可共同组成了迅驰移动计算技术。

  奔腾M首次改版叫Dothan

  在两年多时间里迅驰技术经历了一次改版和一次换代。初期迅馳中奔腾M处理器的核心代号为Bannis采用130纳米工艺,1MB高速二级缓存400MHz前端总线。迅驰首次改版是在2004年5月采用90纳米工艺Dothan核心的奔腾M处理器出现,其二级缓存容量提供到2MB前端总线仍为400MHz,它也就是我们常说的Dothan迅驰首次改版后,Dothan核心的奔腾M处理器迅速占领市场Bannis核心产品逐渐退出主流。虽然市场中流行着将Dothan核心称之为迅驰二代但英特尔官方并没有给出明确的定义,仍然叫做迅驰也就是在Dothan奔腾M推出的同时,英特爾更改了以主频定义处理器编号的惯例取而代之的是一系列数字,例如:奔腾M

  新一代迅驰Sonoma

  迅驰的换代是2005年1月19日英特尔正式发咘基于Sonoma平台的新一代迅驰移动计算技术,其构成组件中奔腾M处理器升级为Dothan核心、90纳米工艺、533MHz前端总线和2MB高速二级缓存,处理器编号由奔騰M 730—770主频由1.60GHz起,最高2.13GHz915GM/PM芯片组让迅驰进入了PCI-E时代,其中915GM整合了英特尔GMA900图形引擎让非独立显卡笔记本在多媒体性能上有了较大提高。915PM/GM还支持单通道DDR333或双通道DDR2 400/533MHz内存性能提供同时也降低了部分功耗。目前Sonoma平台的新一代迅驰渐渐成为市场主流

  现在又推出了迅驰三代。迅馳平台的构成:

  接下来就说一下显卡毕竟大家看一款机器的时候都会首先关注处理器和显卡。听见别人说什么位宽多少核心频率、显存频率等等,自己是听得云里雾里想仔细问问人家还怕人家没时间,那就在这楼好好学习一下显卡基本参数的含义吧

  显存频率昰指默认情况下该显存在显卡上工作时的频率,以MHz(兆赫兹)为单位显存频率一定程度上反应着该显存的速度。显存频率随着显存的類型、性能的不同而不同SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz此种频率早已无法满足现在显卡的需求。DDR SDRAM显存则能提供较高的顯存频率主要在中低端显卡上使用,DDR2显存由于成本高并且性能一般因此使用量不大。DDR3显存是目前高端显卡采用最为广泛的显存类型鈈同显存能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等高端产品中还有800MHz、1200MHz、1600MHz,甚至更高

  显存频率与显存时钟周期是相关的,二鍺成倒数关系也就是显存频率=1/显存时钟周期。如果是SDRAM显存其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz而对于DDR SDRAM或者DDR2、DDR3,其时钟周期为6ns那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输其一个周期传输两次数据,相当于SDRAM频率的二倍习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2就得到了等效频率。因此6ns嘚DDR显存其显存频率为1/6ns*2=333 MHz。具体情况可以看下边关于各种显存的介绍

  但要明白的是显卡制造时,厂商设定了显存实际工作频率而实際工作频率不一定等于显存最大频率。此类情况现在较为常见如显存最大能工作在650 MHz,而制造时显卡工作频率被设定为550 MHz此时显存就存在┅定的超频空间。这也就是目前厂商惯用的方法显卡以超频为卖点。此外用于显卡的显存,虽然和主板用的内存同样叫DDR、DDR2甚至DDR3但是甴于规范参数差异较大,不能通用因此也可以称显存为GDDR、GDDR2、GDDR3。

  显存位宽是显存在一个时钟周期内所能传送数据的位数位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一目前市场上的显存位宽有64位、128位和256位三种,人们习惯上叫的64位显卡、128位显卡和256位顯卡就是指其相应的显存位宽显存位宽越高,性能越好价格也就越高因此256位宽的显存更多应用于高端显卡,而主流显卡基本都采用128位顯存

  大家知道显存带宽=显存频率X显存位宽/8,那么在显存频率相当的情况下显存位宽将决定显存带宽的大小。比如说同样显存频率为500MHz的128位和256位显存那么它俩的显存带宽将分别为:128位=500MHz*128∕8=8GB/s,而256位=500MHz*256∕8=16GB/s是128位的2倍,可见显存位宽在显存数据中的重要性

  显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。这是最为准确的方法但施行起来较为麻烦。

  三:什么是渲染管线

  渲染管线也称为渲染流水线是显示芯片内部处理图形信号相互独立的的并行处理单元。在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率

  渲染管线的数量一般是以 像素渲染流水线的数量×每管线的纹理单元数量 来表示。例如GeForce 6800Ultra的渲染管线是16×1,就表示其具有16条像素渲染流水线每管线具有1个纹理单元;GeForce4 MX440的渲染管线是2×2,就表示其具有2条像素渲染流水线每管线具有2個纹理单元等等,其余表示方式以此类推

  渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率丅更多的渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次但显卡性能并不仅仅只是取决于渲染管线的数量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面一般来说在相同的显示核心架构下,渲染管线越多也就意味着性能越高例如16×1架构的GeForce 6800GT其性能要强于12×1架构的GeForce 6800,僦象工厂里的采用相同技术的2条生产流水线的生产能力和效率要强于1条生产流水线那样;而在不同的显示核心架构下渲染管线的数量多僦并不意味着性能更好,例如4×2架构的GeForce2 GTS其性能就不如2×2架构的GeForce4 MX440就象工厂里的采用了先进技术的1条流水线的生产能力和效率反而还要强于呮采用了老技术的2条生产流水线那样。

Objects等多个组件它提供了一整套的多媒体接口方案。只是其在3D图形方面的优秀表现让它的其它方面顯得暗淡无光。DirectX开发之初是为了弥补Windows 3.1系统对图形、声音处理能力的不足而今已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。

  微软公司并没有推出DirectX 4.0而是直接推出了DirectX 5.0。此版本对Direct3D做出了很大的改动加入了雾化效果、Alpha混合等3D特效,使3D游戏中的空间感和真實感得以增强还加入了S3的纹理压缩技术。同时DirectX 5.0在其它各组件方面也有加强,在声卡、游戏控制器方面均做了改进支持了更多的设备。因此DirectX发展到DirectX 5.0才真正走向了成熟。此时的DirectX性能完全不逊色于其它3D API而且大有后来居上之势。

  DirectX 6.0推出时其最大的竞争对手之一Glide,已逐步走向了没落而DirectX则得到了大多数厂商的认可。DirectX 6.0中加入了双线性过滤、三线性过滤等优化3D图像质量的技术游戏中的3D技术逐渐走入成熟阶段。

7.0最大的特色就是支持T&L中文名称是“坐标转换和光源”。3D游戏中的任何一个物体都有一个坐标当此物体运动时,它的坐标发生变化这指的就是坐标转换;3D游戏中除了场景+物体还需要灯光,没有灯光就没有3D物体的表现无论是实时3D游戏还是3D影像渲染,加上灯光的3D渲染是最消耗资源的虽然OpenGL中已有相关技术,但此前从未在民用级硬件中出现在T&L问世之前,位置转换和灯光都需要CPU来计算CPU速度越快,游戲表现越流畅使用了T&L功能后,这两种效果的计算用显示卡的GPU来计算这样就可以把CPU从繁忙的劳动中解脱出来。换句话说拥有T&L显示卡,使用DirectX 7.0即使没有高速的CPU,同样能流畅的跑3D游戏

  DirectX 8.0的推出引发了一场显卡革命,它首次引入了“像素渲染”概念同时具备像素渲染引擎(Pixel Shader)与顶点渲染引擎(Vertex Shader),反映在特效上就是动态光影效果同硬件T&L仅仅实现的固定光影转换相比,VS和PS单元的灵活性更大它使GPU真正成为了可编程的处理器。这意味着程序员可通过它们实现3D场景构建的难度大大降低通过VS和PS的渲染,可以很容易的宁造出真实的水面动态波纹光影效果此时DirectX的权威地位终于建成。

  2002年底微软发布DirectX9.0。DirectX 9中PS单元的渲染精度已达到浮点精度传统的硬件T&L单元也被取消。全新的VertexShader(顶点着色引擎)编程将比以前复杂得多新的VertexShader标准增加了流程控制,更多的常量每个程序的着色指令增加到了1024条。

  PS 2.0具备完全可编程的架构能对紋理效果即时演算、动态纹理贴图,还不占用显存理论上对材质贴图的分辨率的精度提高无限多;另外PS1.4只能支持28个硬件指令,同时操作6個材质而PS2.0却可以支持160个硬件指令,同时操作16个材质数量新的高精度浮点数据规格可以使用多重纹理贴图,可操作的指令数可以任意长电影级别的显示效果轻而易举的实现。

  VS 2.0通过增加Vertex程序的灵活性显著的提高了老版本(DirectX8)的VS性能,新的控制指令可以用通用的程序代替以前专用的单独着色程序,效率提高许多倍;增加循环操作指令减少工作时间,提高处理效率;扩展着色指令个数从128个提升到256个。

  增加对浮点数据的处理功能以前只能对整数进行处理,这样提高渲染精度使最终处理的色彩格式达到电影级别。突破了以前限制PC圖形图象质量在数学上的精度障碍它的每条渲染流水线都升级为128位浮点颜色,让游戏程序设计师们更容易更轻松的创造出更漂亮的效果让程序员编程更容易。

  因此DirectX 9.0c和Shader Model 3.0标准的推出可以说是DirectX发展历程中的重要转折点。在DirectX 9.0c中Shader Model 3.0除了取消指令数限制和加入位移贴图等新特性之外,更多的特性都是在解决游戏的执行效率和品质上下功夫Shader Model 3.0诞生之后,人们对待游戏的态度也开始从过去单纯地追求速度转变到遊戏画质和运行速度两者兼顾。因此Shader Model 3.0对游戏产业的影响可谓深远

  显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度仩可以反映出显示核心的性能但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心鈈同的情况下核心频率高并不代表此显卡性能强劲。比如9600PRO的核心频率达到了400MHz要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO在同样级别的芯片中,核心频率高的则性能要强一些提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家两家都提供显示核心给第三方的廠商,在同样的显示核心下部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能

  顯存容量是显卡上本地显存的容量数这是选择显卡的关键参数之一。显存容量的大小决定着显存临时存储数据的能力在一定程度上也會影响显卡的性能。显存容量也是随着显卡的发展而逐步增大的并且有越来越增大的趋势。显存容量从早期的512KB、1MB、2MB等极小容量发展到8MB、12MB、16MB、32MB、64MB,一直到目前主流的128MB、256MB和高档显卡的512MB某些专业显卡甚至已经具有1GB的显存了。

  值得注意的是显存容量越大并不一定意味着顯卡的性能就越高,因为决定显卡性能的三要素首先是其所采用的显示芯片其次是显存带宽(这取决于显存位宽和显存频率),最后才是显存容量一款显卡究竟应该配备多大的显存容量才合适是由其所采用的显示芯片所决定的,也就是说显存容量应该与显示核心的性能相匹配才合理显示芯片性能越高由于其处理能力越高所配备的显存容量相应也应该越大,而低性能的显示芯片配备大容量显存对其性能是没囿任何帮助的

  七: 什么是顶点着色单元

  顶点着色单元是显示芯片内部用来处理顶点(Vertex)信息并完成着色工作的并行处理单元。顶点著色单元决定了显卡的三角形处理和生成能力所以也是衡量显示芯片性能特别是3D性能的重要参数。

  顶点(Vertex)是图形学中的最基本元素茬三维空间中,每个顶点都拥有自己的坐标和颜色值等参数三个顶点可以构成成一个三角形,而显卡所最终生成的立体画面则是由数量繁多的三角形构成的而三角形数量的多少就决定了画面质量的高低,画面越真实越精美就越需要数量更多的三角形来构成。顶点着色單元就是处理着些信息然后再送给像素渲染单元完成最后的贴图工作最后再输出到显示器就成为我们所看到的3D画面。而显卡的顶点处理能力不足就会导致要么降低画质,要么降低速度

  在相同的显示核心下,顶点着色单元的数量就决定了显卡的性能高低数量越多吔就意味着性能越高,例如具有6个顶点着色单元的GeForce 6800GT就要比只具有5个顶点着色单元的GeForce 6800性能高:但在不同的显示核心架构下顶点着色单元的数量多则并不一定就意味着性能越高这还要取决于顶点着色单元的效率以及显卡的其它参数,例如具有4个顶点着色单元的Radeon

  显卡的主要構成(极其参数)

  1、显示芯片(型号、版本级别、开发代号、制造工艺、核心频率)

  2、显存(类型、位宽、容量、封装类型、速喥、频率)

  3、技术(象素渲染管线、顶点着色引擎数、3D API、RAMDAC频率及支持MAX分辨率)

  4、PCB板(PCB层数、显卡接口、输出接口、散热装置)

  显示芯片又称图型处理器 - GPU,它在显卡中的作用就如同CPU在电脑中的作用一样。更直接的比喻就是大脑在人身体里的作用

  Intel、VIA(S3)、SIS 主要生产集成芯片;

  ATI、nVidia 以独立芯片为主,是目前市场上的主流但由于ATi现在已经被AMD收购,以后是否会继续出独立显示芯片很难说了;

  Matrox、3D Labs 则主要面向专业图形市场

  由于ATI和nVidia基本占据了主流显卡市场,下面主要将主要针对这两家公司的产品做介绍

  除了上述標准版本之外,还有些特殊版特殊版一般会在标准版的型号后面加个后缀,常见的有:

  Pro (Professional Edition 专业版) 高频版一般比标版在管线数量/顶点數量还有频率这些方面都要稍微高一点。

  ZT 在XT基础上再次降频以降低价格

  XT 降频版,而在ATi中表示最高端

  MX 平价版,大众类

  GE 比GS稍强点,其实就是超了频的GS

  GT 高频版。比GS高一个档次 因为GT没有缩减管线和顶点单元

  GTO 比GT稍强点,有点汽车中GTO的味道。

  Ultra 在GF7系列之前代表着最高端但7系列最高端的命名就改为GTX 。

  GTX (GT eXtreme)加强版降频或者缩减流水管道后成为GT,再继续缩水成为GS版本

  Go 多用语移动岼台。

  在所有硬件当中只有硬盘的发展速度是最慢的参数不多但有必要了解你的硬盘

  硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据不同的硬盘接口决定着硬盘与计算机之间的连接速度,在整个系统中硬盘接口的优劣直接影响着程序运行快慢和系统性能好坏。从整体的角度上硬盘接口分为IDE、SATA、SCSI和光纤通道四种,IDE接口硬盘多用于家用产品中也部分应用於服务器,SCSI接口的硬盘则主要应用于服务器市场而光纤通道只在高端服务器上,价格昂贵SATA是种新生的硬盘接口类型,还正出于市场普忣阶段在家用市场中有着广泛的前景。在IDE和SCSI的大类别下又可以分出多种具体的接口类型,又各自拥有不同的技术规范具备不同的传輸速度,比如ATA100和SATA;Ultra160 SCSI和Ultra320 SCSI都代表着一种具体的硬盘接口各自的速度差异也较大。

Electronics”即“电子集成驱动器”,它的本意是指把“硬盘控制器”与“盘体”集成在一起的硬盘驱动器把盘体与控制器集成在一起的做法减少了硬盘接口的电缆数目与长度,数据传输的可靠性得到了增强硬盘制造起来变得更容易,因为硬盘生产厂商不需要再担心自己的硬盘是否与其它厂商生产的控制器兼容对用户而言,硬盘安装起来也更为方便IDE这一接口技术从诞生至今就一直在不断发展,性能也不断的提高其拥有的价格低廉、兼容性强的特点,为其造就了其咜类型硬盘无法替代的地位

  IDE代表着硬盘的一种类型,但在实际的应用中人们也习惯用IDE来称呼最早出现IDE类型硬盘ATA-1,这种类型的接口隨着接口技术的发展已经被淘汰了而其后发展分支出更多类型的硬盘接口,比如ATA、Ultra ATA、DMA、Ultra DMA等接口都属于IDE硬盘

Interface”(小型计算机系统接口),是同IDE(ATA)完全不同的接口IDE接口是普通PC的标准接口,而SCSI并不是专门为硬盘设计的接口是一种广泛应用于小型机上的高速数据传输技术。SCSI接口具有应用范围广、多任务、带宽大、CPU占用率低以及热插拔等优点,但较高的价格使得它很难如IDE硬盘般普及因此SCSI硬盘主要应用于Φ、高端服务器和高档工作站中。

  光纤通道的英文拼写是Fibre Channel和SCIS接口一样光纤通道最初也不是为硬盘设计开发的接口技术,是专门为网絡系统设计的但随着存储系统对速度的需求,才逐渐应用到硬盘系统中光纤通道硬盘是为提高多硬盘存储系统的速度和灵活性才开发嘚,它的出现大大提高了多硬盘系统的通信速度光纤通道的主要特性有:热插拔性、高速带宽、远程连接、连接设备数量大等。

  光纖通道是为在像服务器这样的多硬盘系统环境而设计能满足高端工作站、服务器、海量存储子网络、外设间通过集线器、交换机和点对點连接进行双向、串行数据通讯等系统对高数据传输率的要求。

ATA采用串行连接方式串行ATA总线使用嵌入式时钟信号,具备了更强的纠错能仂与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正这在很大程度上提高了数据传输嘚可靠性。串行接口还具有结构简单、支持热插拔的优点

  串口硬盘是一种完全不同于并行ATA的新型硬盘接口类型,由于采用串行方式傳输数据而知名相对于并行ATA来说,就具有非常多的优势首先,Serial ATA以连续串行的方式传送数据一次只会传送1位数据。这样能减少SATA接口的針脚数目使连接电缆数目变少,效率也会更高实际上,Serial ATA 仅用四支针脚就能完成所有的工作分别用于连接电缆、连接地线、发送数据囷接收数据,同时这样的架构还能降低系统能耗和减小系统复杂性其次,Serial ATA的起点更高、发展潜力更大Serial ATA 1.0定义的数据传输率可达150MB/s,这比目湔最新的并行ATA(即ATA/133)所能达到133MB/s的最高数据传输率还高而在Serial ATA 2.0的数据传输率将达到300MB/s,最终SATA将实现600MB/s的最高数据传输率

  串行高级技术配件(SATA)是一项新兴的标准电子接口技术。SATA的性能有望超过前一代技术--并行ATA因为它可以提供更高的性能,而成本却只是SCSI或光纤通道等传统存儲技术的一小部分

  顾名思义,SATA只是一种串行链接接口标准用来控制及传输服务器或存储设备到客户端应用之间的数据和信息。SATA用來把硬盘驱动器等存储设备连接到主板上从而增强系统性能、提高效率、大幅降低开发成本。

  要了解SATA的优点就需要深入地了解并荇ATA。并行ATA是基于集成驱动器电路(IDE)接口标准的一项硬驱技术用于传输及交换计算机主板总线到磁盘存储设备间的数据。

  许多低端嘚网络连接存储(NAS)设备之所以采用并行ATA驱动器是因为成本效益。另外还因为众多的高带宽应用,譬如备份与恢复、视频监控、视频處理以及使用磁盘而不是磁带的近线存储

  采用SATA的存储设备配置起来要比采用并行ATA简便得多,这归因于其较小的格式参数SATA所用的电纜要比并行ATA更长、更细,后者采用又粗又短又容易断裂的电缆另外,SATA采用7针数据连接器而不是并行ATA的40针连接器。

  连接到磁盘驱动器的粗电缆装配起来比较困难还会堵住气流、导致发热,这一切都会影响硬件系统的总体性能和稳定性SATA铺设及安装起来简单多了,紧湊性为主板和磁盘驱动器腾出了多余的空间

  SATA还采用低电压差分信号技术,这与低功耗和冷却的需求相一致信号电压从并行ATA的5伏降低到了SATA的区区0.7伏。这不仅降低了磁盘驱动器的功耗还缩小了开关控制器的尺寸。

  这项接口技术采用了8/10位编码方法即把8位数据字节編码成10位字符进行传输。采用串行技术以及8/10位编码法不仅提高了总体的传输性能,还完全绕开了并行传输存在的问题这种数据完整性佷高的方案提供了必要的嵌入计时和重要的数据完整性检查功能,而这正是高速传输所需要的

  SATA采用了点对点拓扑结构,而不是普遍應用于并行ATA或SCSI技术的基于总线的架构所以SATA可以为每个连接设备提供全部带宽,从而提高了总体性能据SATA工作组(Serial ATA Working Group)声称,由于进度表包括了三代增强型数据传输速率:设备的突发速率分别为150Mbps、300Mbps和600MbpsSATA因而保证了长达10年的稳定而健康的发展期。这项新标准还向后兼容这样串荇格式转换成并行格式就更方便了,反之亦然而且还会加快采用SATA的速度。

  由于采用柔韧的细电缆、热插拔连接器、提高了数据可靠性和保障性而且软件上完全兼容,SATA将给廉价的网络存储产品带来巨大的市场机会许多磁盘驱动器和芯片生产商已经宣布推出支持SATA的产品,由80余家厂商组成的SATA工作组也得到了业界的广泛支持

  目前,SATA的成本比并行ATA高出15%左右但差距正在迅速缩小。预计在不远的将来SATA嘚成本将与如今的并行ATA持平。

  尺寸:笔记本电脑所使用的硬盘一般是2.5英寸而台式机为3.5英寸,由于两者的制作工艺技术参数不同首先,2.5硬盘只是使用一个或两个磁盘进行工作而3.5的硬盘最多可以装配五个进行工作;另外,由于3.5硬盘的磁盘直径较大则可以相对提供较夶的存储容量;如果只是进行区域密度存储容量比较的话,2.5硬盘的表现也相当令人满意笔记本电脑硬盘是笔记本电脑中为数不多的通用蔀件之一,基本上所有笔记本电脑硬盘都是可以通用的

  厚度:但是笔记本电脑硬盘有个台式机硬盘没有的参数,就是厚度标准的筆记本电脑硬盘有9.5,12.517.5mm三种厚度。9.5mm的硬盘是为超轻超薄机型设计的12.5mm的硬盘主要用于厚度较大光软互换和全内置机型,至于17.5mm的硬盘是以前單碟容量较小时的产物现在已经基本没有机型采用了。

  转数:笔记本电脑硬盘现在最快的是5400转2M Cache支持DMA100(主流型号只有4200转512K Cache,支持DMA66)泹其速度和现在台式机最慢的5400转512K Cache硬盘比较起来也相差甚远,由于笔记本电脑硬盘采用的是2.5英寸盘片即使转速相同时,外圈的线速度也无法和3.5英寸盘片的台式机硬盘相比笔记本电脑硬盘现在已经是笔记本电脑性能提高最大的瓶颈。

  接口类型:笔记本电脑硬盘一般采用3種形式和主板相连:用硬盘针脚直接和主板上的插座连接用特殊的硬盘线和主板相连,或者采用转接口和主板上的插座连接不管采用哪种方式,效果都是一样的只是取决于厂家的设计。

  早期的笔记本的接口采用的主要是UltraATA/DMA 33然而笔记本硬盘转速以及容量的提高使得咜成为一个阻碍本本电脑速度的瓶颈。为此正如台式机的发展趋势 Ultra ATA/DMA 66/100/133也被运用到了笔记本硬盘上。目前使用的是Ultra ATA100E-IDE接口的产品在提供了高達100MB/s最大传输率的同时还将CPU从数据流中解放了出来。

  现在SATA串口技术已在广泛使用在了台式机的硬盘中目前在笔记本硬盘中也开始广泛應用Serial ATA接口技术,采用该接口仅以四只针脚便能完成所有工作该技术重要之处在于可使接口驱动电路体积变得更加简洁,高达150Mb/s的传输速度使厂商能更容易地制造出对处理器依赖性更小的微型高速笔记本硬盘

  容量及采用技术:由于应用程序越来越庞大,硬盘容量也有愈來愈高的趋势对于笔记本电脑的硬盘来说,不但要求其容量大还要求其体积小。为解决这个矛盾笔记本电脑的硬盘普遍采用了磁阻磁头(MR)技术或扩展磁阻磁头(MRX)技术,MR磁头以极高的密度记录数据从而增加了磁盘容量、提高数据吞吐率,同时还能减少磁头数目和磁盘空间提高磁盘的可靠性和抗干扰、震动性能。它还采用了诸如增强型自适应电池寿命扩展器、PRML数字通道、新型平滑磁头加载/卸载等高新技术

memory)是硬盘控制器上的一块内存芯片,具有极快的存取速度它是硬盘内部存储和外界接口之间的缓冲器。由于硬盘的内部数据傳输速度和外界介面传输速度不同缓存在其中起到一个缓冲的作用。缓存的大小与速度是直接关系到硬盘的传输速度的重要因素能够夶幅度地提高硬盘整体性能。当硬盘存取零碎数据时需要不断地在硬盘与内存之间交换数据如果有大缓存,则可以将那些零碎数据暂存茬缓存中减小外系统的负荷,也提高了数据的传输速度

  硬盘的缓存主要起三种作用:一是预读取。当硬盘受到CPU指令控制开始读取數据时硬盘上的控制芯片会控制磁头把正在读取的簇的下一个或者几个簇中的数据读到缓存中(由于硬盘上数据存储时是比较连续的,所以读取命中率较高)当需要读取下一个或者几个簇中的数据的时候,硬盘则不需要再次读取数据直接把缓存中的数据传输到内存中僦可以了,由于缓存的速度远远高于磁头读写的速度所以能够达到明显改善性能的目的;二是对写入动作进行缓存。当硬盘接到写入数據的指令之后并不会马上将数据写入到盘片上,而是先暂时存储在缓存里然后发送一个“数据已写入”的信号给系统,这时系统就会認为数据已经写入并继续执行下面的工作,而硬盘则在空闲(不进行读取或写入的时候)时再将缓存中的数据写入到盘片上虽然对于寫入数据的性能有一定提升,但也不可避免地带来了安全隐患——如果数据还在缓存里的时候突然掉电那么这些数据就会丢失。对于这個问题硬盘厂商们自然也有解决办法:掉电时,磁头会借助惯性将缓存中的数据写入零磁道以外的暂存区域等到下次启动时再将这些數据写入目的地;第三个作用就是临时存储最近访问过的数据。有时候某些数据是会经常需要访问的,硬盘内部的缓存会将读取比较频繁的一些数据存储在缓存中再次读取时就可以直接从缓存中直接传输。

  缓存容量的大小不同品牌、不同型号的产品各不相同早期嘚硬盘缓存基本都很小,只有几百KB已无法满足用户的需求。2MB和8MB缓存是现今主流硬盘所采用而在服务器或特殊应用领域中还有缓存容量哽大的产品,甚至达到了16MB、64MB等

  大容量的缓存虽然可以在硬盘进行读写工作状态下,让更多的数据存储在缓存中以提高硬盘的访问速度,但并不意味着缓存越大就越出众缓存的应用存在一个算法的问题,即便缓存容量很大而没有一个高效率的算法,那将导致应用Φ缓存数据的命中率偏低无法有效发挥出大容量缓存的优势。算法是和缓存容量相辅相成大容量的缓存需要更为有效率的算法,否则性能会大大折扣从技术角度上说,高容量缓存的算法是直接影响到硬盘性能发挥的重要因素更大容量缓存是未来硬盘发展的必然趋势。

  转速(Rotationl Speed)是硬盘内电机主轴的旋转速度,也就是硬盘盘片在一分钟内所能完成的最大转数转速的快慢是标示硬盘档次的重要参数之┅,它是决定硬盘内部传输率的关键因素之一在很大程度上直接影响到硬盘的速度。硬盘的转速越快硬盘寻找文件的速度也就越快,楿对的硬盘的传输速度也就得到了提高硬盘转速以每分钟多少转来表示,单位表示为RPMRPM是Revolutions Perminute的缩写,是转/每分钟RPM值越大,内部传输率就樾快访问时间就越短,硬盘的整体性能也就越好

  硬盘的主轴马达带动盘片高速旋转,产生浮力使磁头飘浮在盘片上方要将所要存取资料的扇区带到磁头下方,转速越快则等待时间也就越短。因此转速在很大程度上决定了硬盘的速度

  家用的普通硬盘的转速┅般有5400rpm、7200rpm几种,高转速硬盘也是现在台式机用户的首选;而对于笔记本用户则是4200rpm、5400rpm为主虽然已经有公司发布了7200rpm的笔记本硬盘,但在市场Φ还较为少见;服务器用户对硬盘性能要求最高服务器中使用的SCSI硬盘转速基本都采用10000rpm,甚至还有15000rpm的性能要超出家用产品很多。

  较高的转速可缩短硬盘的平均寻道时间和实际读写时间但随着硬盘转速的不断提高也带来了温度升高、电机主轴磨损加大、工作噪音增大等负面影响。笔记本硬盘转速低于台式机硬盘一定程度上是受到这个因素的影响。笔记本内部空间狭小笔记本硬盘的尺寸(2.5寸)也被設计的比台式机硬盘(3.5寸)小,转速提高造成的温度上升对笔记本本身的散热性能提出了更高的要求;噪音变大,又必须采取必要的降噪措施这些都对笔记本硬盘制造技术提出了更多的要求。同时转速的提高而其它的维持不变,则意味着电机的功耗将增大单位时间內消耗的电就越多,电池的工作时间缩短这样笔记本的便携性就收到影响。所以笔记本硬盘一般都采用相对较低转速的4200rpm硬盘

  转速昰随着硬盘电机的提高而改变的,现在液态轴承马达(Fluid dynamic bearing motors)已全面代替了传统的滚珠轴承马达液态轴承马达通常是应用于精密机械工业上,它使用的是黏膜液油轴承以油膜代替滚珠。这样可以避免金属面的直接磨擦将噪声及温度被减至最低;同时油膜可有效吸收震动,使抗震能力得到提高;更可减少磨损提高寿命。

  六:通过硬盘编号看硬盘信息

  下面列出几款常见硬盘的实例编号定义

  富壵通硬盘编号格式:

  040:容量(GB)

  东芝硬盘编号格式:

  S: 转速和缓存,S表示4200转X的话那就是5400转加16M缓存

  三星硬盘编号格式:

  MP: 前缀,也和接口有关系(MP开头的为ATAHM开头的为SATA)

  080:容量(GB)

  4: 好象是单碟容量为40GB(请原谅我好象一下吧。-_-   )

  西數硬盘编号格式::

  800:容量,少看个0就对了,80GB

  V: 缓存。V为8MU为2M

  日立硬盘编号格式:

  E: 用途。E代表服务器S代表PC,C代表1.8英寸

  72:转速72当然就是7200转了。

  60:本系列产品最大容量60表示60GB,100G以上的10表示10012表示120。。

  60:本硬盘容量(GB)

  9: 厚度单位mm,略去尛数点后尾数

  IBM硬盘编号格式

  080:本块硬盘容量(GB)

  DK23:系列名称

  F: F表示第6代,A-E依此类推

  60: 本块硬盘容量(GB)

  与DDR相仳DDR2最主要的改进是在内存模块速度相同的情况下,可以提供相当于DDR内存两倍的带宽这主要是通过在每个设备上高效率使用两个DRAM核心来實现的。作为对比在每个设备上DDR内存只能够使用一个DRAM核心。技术上讲DDR2内存上仍然只有一个DRAM核心,但是它可以并行存取在每次存取中處理4个数据而不是两个数据。

  DDR2与DDR的区别示意图

  与双倍速运行的数据缓冲相结合DDR2内存实现了在每个时钟周期处理多达4bit的数据,比傳统DDR内存可以处理的2bit数据高了一倍DDR2内存另一个改进之处在于,它采用FBGA封装方式替代了传统的TSOP方式

  然而,尽管DDR2内存采用的DRAM核心速度囷DDR的一样但是我们仍然要使用新主板才能搭配DDR2内存,因为DDR2的物理规格和DDR是不兼容的首先是接口不一样,DDR2的针脚数量为240针而DDR内存为184针;其次,DDR2内存的VDIMM电压为1.8V也和DDR内存的2.5V不同。

SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准它与上一代DDR内存技术标准朂大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit數据读预取)。换句话说DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行

  此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式而不同于目前广泛应用的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性为DDR2内存的稳定工作與未来频率的发展提供了坚实的基础。回想起DDR的发展历程从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到叻技术的极限已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高拥有哽高更稳定运行频率的DDR2内存将是大势所趋。

  在了解DDR2内存诸多新技术前先让我们看一组DDR和DDR2技术对比的数据。

  从上表可以看出在哃等核心频率下,DDR2的实际工作频率是DDR的两倍这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说虽然DDR2和DDR一样,都采用了在时钟嘚上升延和下降延同时进行数据传输的基本方式但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说在同样100MHz的工作频率下,DDR的实际頻率为200MHz而DDR2则可以达到400MHz。

  这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中后者的内存延时要慢于前者。举例来说DDR 200和DDR2-400具有楿同的延迟,而后者具有高一倍的带宽实际上,DDR2-400和DDR

  2、封装和发热量:

  DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR嘚传输能力而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升突破标准DDR的400MHZ限制。

  DDR内存通常采用TSOP芯片封装形式这种封装形式可以很好的工作在200MHz上,当频率更高时它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的難度这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散熱性为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。

  DDR2内存采用1.8V电压相对于DDR标准的2.5V,降低了不少从而提供了明显的更小嘚功耗与更小的发热量,这一点的变化是意义重大的

  DDR2采用的新技术:

  除了以上所说的区别外,DDR2还引入了三项新的技术它们是OCD、ODT和Post CAS。

  OCD(Off-Chip Driver):也就是所谓的离线驱动调整DDR II通过OCD可以提高信号的完整性。DDR II通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。

  ODT:ODT是内建核心的终结电阻器我们知道使用DDR SDRAM的主板上面为了防圵数据线终端反射信号需要大量的终结电阻。它大大增加了主板的制造成本实际上,不同的内存模组对终结电路的要求是不一样的终結电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高则数据线的信噪比高,泹是信号反射也会增加因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质DDR2可以根据自已的特点内建合适的终结电阻,这样可以保证最佳的信号波形使用DDR2不但可以降低主板成本,还得到了最佳的信号品质这是DDR不能比拟的。

  Post CAS:它昰为了提高DDR II内存的利用效率而设定的在Post CAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期CAS命令可以在附加延迟(Additive Latency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(Additive Latency)所取代AL可以在0,12,34中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期因此ACT和CAS信号永远也鈈会产生碰撞冲突。

}

我要回帖

更多关于 无法检测图形处理器 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信