GPU和显卡里面的计算核心有什么是独立显卡和集成显卡区别?

51CTO旗下网站
数据平台上的计算能力:哪些GPU更适合深度学习和数据库?
GPU和AI越来越火,引起了大批投资者和开发者的注意。百度前首席科学家Andrew Ng提到,AI的春天已经到来,其重要因素之一是GPU处理能力,能让神经网络的智能可以随数据增加而提升,突破了过去的AI所能达到的平台。
作者:杨D来源:| 11:47
之后,又增加了一种专门用于机器学习和神经网络的高性能武器。
数据分析和GPU
GPU不仅能实现数据库的许多功能,而且其强大的计算能力,能实现实时分析。MapD和Kinetica是这方面比较有名的两家公司。MapD用NVIDIA Tesla K40/K80实现了基于SQL和列式存储的数据库,无需索引,擅长任意多组合的条件查询(Where)、聚合(Groupby)等,实现传统关系型数据库的BI功能,方便用户自由地进行多条件查询。性能优势也很明显(尤其是响应时间)。
比如,MapD将年全美国进出港航班的数据扩大10倍后,执行全表扫描的报表任务,如&SELECT...GROUP BY...&。一台带有8张Tesla K40显卡的服务器(8核/384G RAM/SSD)比3台服务器(32核/244G RAM/SSD)组成的内存数据库集群快50-100倍。
GPU数据库的另一大特色是可视化渲染和绘制。将OpenGL等的缓冲区直接映射成GPU CUDA里的显存空间,原地渲染,无需将结果从内存拷到GPU,可以实现高帧频的动画。也可以原地绘制成PNG或视频stream,再发给客户端,大大减少网络传输的数据量。这些优势吸引了很多开发者。
在实时分析上比较有名的一家公司是Kinetica。他们开始时为美国情报机构实时分析250个数据流。现在能用10个节点,基于20万个传感器,为美国邮政服务(USPS)提供15000个并行的实时分析、物流路由计算和调度等。
我国用GPU进行分析和挖掘的用户也越来越多,想深入学习的朋友也不少。最快速的入门办法是重复前人的实验。弗吉尼亚大学的Accelerating SQL Database Operations on a GPU with CUDA里的开发环境和实验,值得借鉴。他们用一张4G显存的NVIDIA Tesla C1060,在一台低配的服务器上(Xeon XGHz/4核),5G RAM),用5百万行的表做查询和汇总,响应时间30-60毫秒。
我们测过的最低配置是NVidia GTX 780,一千多块,适合用来尝试查询和聚合。先用SQLite将SQL解析成多个OpCode步骤,然后在CUDA上实现一个虚机,来逐一实现每个步骤,直至将整个表逐行遍历完。其中一些步骤可以并行,因此可用CUDA起几万个线程,每个线程处理一行。
深度学习和GPU
深度需要较高的计算能力,所以对GPU的选择会极大地影响使用者体验。在GPU出现之前,一个实验可能需要等几个月,或者跑了一天才发现某个试验的参数不好。好的GPU可以在深度学习网络上快速迭代,几天跑完几个月的试验,或者几小时代替几天,几分钟代替几小时。
快速的GPU可以帮助刚开始学习的朋友快速地积累实践经验,并用深度学习解决实际问题。如果不能快速得到结果,不能快速地从失误中汲取教训,学起来会比较让人灰心。Tim Dettmers利用GPU,在一系列Kaggle比赛里应用了deep learning,并在Partly Sunny with a chance of Hashtags比赛中获了亚军。他用了两个较大的两层深度神经网络,采用了ReLU激活函数,用Dropout来实现正则化。这个网络勉强能加载到6GB的GPU显存里。
是否需要多个GPU?
Tim曾用40Gbit/s的InfiniBand搭建了一个小GPU集群,但他发现很难在多个GPU上实现并行的神经网络,而且在密集的神经网络上,速度提升也不明显。小网络可以通过数据并行更有效地并行,但对比赛里所用的这个大网络,几乎没有提速。
后来又开发了一个8-bit压缩方法,按理说,能比32-bit更有效地并行处理密集或全互联的网络层。但是结果也不理想。即使对并行算法进行优化,自己专门写代码在多颗GPU上并行执行,效果和付出的努力相比仍然得不偿失。要非常了解深度学习算法和硬件之间具体如何互动,才能判断是否能从并行里真的得到好处。
对GPU的并行支持越来越常见,但还远未普及,效果也未必很好。仅有CNTK这一种深度学习库通过Microsoft特殊的1-bit量化并行算法(效率较高)和块动量算法(效率很高),能在多个GPU和多台计算机上高效地执行算法。
在96颗GPU的集群上用CNTK,可以获得90-95倍的速度提升。下一个能高效地多机并行的库可能是Pytorch,但还没完全做好。如果想在单机上并行,可以用CNTK,Torch或Pytorch。速度可提升3.6-3.8倍。这些库包含了一些算法,能在4颗GPU的单机上并行执行。其他支持并行的库,要么慢,要么这两个问题都有。
多GPU,非并行
用多个GPU的另一个好处是,即使不并行执行算法,也可以在每个GPU上分别运行多个算法或实验。虽然不能提速,但可以一次性了解多个算法或参数的性能。当科研人员需要尽快地积累深度学习经验,尝试一个算法的不同版本时,这很有用。
这对深度学习的过程也很有好处。任务执行得越快,越能更快地得到反馈,脑子就从这些记忆片段里总结出完整的结论。在不同的GPU上用小数据集训练两个卷积网络,可以更快地摸索到如何能执行得更好。也能更顺地找到交叉验证误差(Cross validation error)的规律,并正确地解读它们。还能发现某种规律,来找到需要增加、移除或调整的参数或层。
总的来说,单GPU几乎对所有的任务都够了,不过用多个GPU来加速深度学习模型变得越来越重要。多颗便宜的GPU也能用来更快地学习深度学习。因此,建议用多个小GPU,而不是一个大的。
NVIDIA GPU,AMD GPU还是Intel Xeon Phi
用NVIDIA的标准库很容易搭建起CUDA的深度学习库,而AMD的OpenCL的标准库没这么强大。而且CUDA的GPU计算或通用GPU社区很大,而OpenCL的社区较小。从CUDA社区找到好的开源办法和可靠的编程建议更方便。
而且,NVIDIA从深度学习的起步时就开始投入,回报颇丰。虽然别的公司现在也对深度学习投入资金和精力,但起步较晚,落后较多。如果在深度学习上采用NVIDIA-CUDA之外的其他软硬件,会走弯路。
据称,Intel的Xeon Phi上支持标准C代码,而且要在Xeon Phi上加速,也很容易修改这些代码。这个功能听起来有意思。但实际上只支持很少一部分C代码,并不实用。即使支持,执行起来也很慢。Tim曾用过500颗Xeon Phi的集群,遇到一个接一个的坑,比如Xeon Phi MKL和Python Numpy不兼容,所以没法做单元测试。因为Intel Xeon Phi编译器无法正确地对模板进行代码精简,比如对switch语句,很大一部分代码需要重构。因为Xeon Phi编译器不支持一些C++11功能,所以要修改程序的C接口。既麻烦,又花时间,让人抓狂。
执行也很慢。当tensor大小连续变化时,不知道是bug,还是线程调度影响了性能。举个例子,如果全连接层(FC)或剔除层(Dropout)的大小不一样,Xeon Phi比CPU慢。
预算内的最快GPU
用于深度学习的GPU的高速取决于什么?是CUDA核?时钟速度?还是RAM大小?这些都不是。影响深度学习性能的最重要的因素是显存带宽。
GPU的显存带宽经过优化,而牺牲了访问时间(延迟)。CPU恰恰相反,所用内存较小的计算速度快,比如几个数的乘法(3*6*9);所用内存较大的计算慢,比如矩阵乘法(A*B*C)。GPU凭借其显存带宽,擅长解决需要大内存的问题。当然,GPU和CPU之间还有更复杂的区别,可以参见Tim在Quora上的回答。
所以,购买快速GPU的时候,先看看带宽。
对比CPU和GPU的带宽发展
芯片架构相同时,带宽可以直接对比。比如,Pascal显卡GTX 的性能对比,只需看显存带宽。GTX GB/s)比GTX GB/s)快25%。不过如果芯片架构不同,不能直接对比。比如Pascal和Maxwell(GTX 1080和Titan X),不同的生产工艺对同样带宽的使用不一样。不过带宽还是可以大概体现GPU有多快。另外,需要看其架构是否兼容cnDNN。绝大多数深度学习库要用cuDNN来做卷积,因此要用Kepler或更好的GPU,即GTX 600系列或以上。一般来说,Kepler比较慢,所以从性能角度,应考虑900或1000系列。为了比较不同显卡在深度学习任务上的性能,Tim做了个图。比如GTX 980和0.35个Titan X Pascal一样快,或者说Titan X Pascal比GTX快了差不多3倍。
这些结果并不来自于每张卡的深度学习benchmark测试,而是从显卡参数和计算型benchmark(在计算方面,一些加密货币挖掘任务和深度学习差不多)。所以这只是粗略估计。真实数字会有些不同,不过差距不大,显卡排名应该是对的。同时,采用没有用足GPU的小网络会让大GPU看上去不够好。比如128个隐藏单元的LSTM(批处理&64)在GTX 1080 Ti上跑的速度不比GTX 1070快多少。要得到性能区别,需要用1024个隐藏单元的LSTM(批处理&64)。
GPU跑大型深度学习网络的性能比较
一般来说,Tim建议用GTX 1080 Ti或GTX 1070。这两者都不错。如果预算够的话,可以用GTX 1080 Ti。GTX 1070便宜一点,比普通GTX Titan X(Maxwell)更快。两者都比GTX 980 Ti更适合,因为显存更大&&11GB和8GB,而不是6GB。
8GB有点小,但对很多任务都足够了,比如足够应付Kaggle比赛里大多数图像数据集合自然语言理解(NLP)的任务。
刚开始接触深度学习时,GTX 1060是最好的选择,也可以偶尔用于Kaggle比赛。3GB太少,6GB有时不太够,不过能应付很多应用了。GTX 1060比普通Titan X慢,但性能和二手价格都和GTX 980差不多。
从性价比来看,10系列设计很好。GTX 和1080 Ti更好。GTX 1060适合初学者,GTX 1070的用途多,适合初创公司和某些科研和工业应用,GTX 1080 Ti是不折不扣的全能高端产品。
Tim不太建议NVIDIA Titan X(Pascal),因为性价比不太好。它更适合计算机视觉的大数据集,或视频数据的科研。显存大小对这些领域的影响非常大,而Titan X比GTX 1080 Ti大1GB,因此更适合。不过,从eBay上买GTX Titan X(Maxwell)更划算&&慢一点,但12GB的显存够大。
GTX 1080Ti对大多数科研人员够用了。额外多1GB的显存对很多科研和应用的用处不大。
在科研上,Tim个人会选多张GTX 1070.他宁可多做几次实验,稍微慢一点,而不是跑一次实验,快一点。NLP对显存的要求不像计算机视觉那么紧,因此GTX 1070足够了。他现在处理的任务和方式决定了最合适的选择&&GTX 1070。
选择GPU时可以用类似的思路。先想清楚所执行的任务和实验方法,再找满足要求的GPU。现在AWS上的GPU实例比较贵且慢。GTX 970比较慢,而且二手的也比较贵而且启动时显卡有内存问题。可以多花点钱买GTX 1060,速度更快,显存更大,而且没有显存问题。如果GTX 1060太贵,可以用4G显存的GTX 1050 Ti。4GB有点小,但也深度学习的起步也够了。如果在某些型号上做调整,可以得到较好性能。GTX 1050 Ti适合于大多数Kaggle比赛,不过可能在一些比赛里发挥不出选手优势。
【编辑推荐】
【责任编辑: TEL:(010)】
大家都在看猜你喜欢
关注热点头条头条头条
24H热文一周话题本月最赞
讲师:747358人学习过
讲师:26339人学习过
讲师:353114人学习过
CTO专属活动
精选博文论坛热帖下载排行
本书全面翔实地介绍了各种病毒的原理,以操作系统的发展为主线,结合病毒的发展过程来综合分析病毒。在分析工具上,较多地利用了脚本语言、...
订阅51CTO邮刊gpu和显卡的区别在哪里?
输入手机号码,报价结果将发送到您手机
装修顾问-馨馨
4年行业经验,24h可咨询
10秒闪电通过好友
报价短信已发送到您的手机
因材料品牌及工程量不同,具体报价以量房实测为准
稍候装修管家将回电您,免费提供装修咨询服务
您的装修预算约
*装修管家将回电您,免费提供装修咨询服务
*装修管家将回电您,免费提供装修咨询服务
*因材料品牌及工程量不同,具体报价以量房实测为准
装修顾问 -馨馨
(四年装修行业经验)
微信扫一扫
3.&您家小区名称 :&&
请选择您家的装修时间
gpu和显卡的区别在哪里?
提问者:余梅雪| 地点:
| 浏览次数:
1121| 时间:
我来帮他解答
还可以输入1500字
已有3条回答
回答数:45322
| 被采纳数:25
GPU是图形处理器,只是一块芯片,它需要加上其他辅助作用的芯片,以及供电电路,散热系统,输入输出接口等部分才是显卡。 就相当于CPU需要搭配其他硬件才叫电脑。 我们平常说的GTX690或者HD7970之类的就是GPU的型号,每个型号的GPU又会被不同厂家做成很多款显卡。
回答数:11024
| 被采纳数:4
显卡是独立显卡和集成显卡并称的名字。
独立显卡是不需要其他硬件加速就能获得高性能,高质量的画质处理效果。
集成显卡是集成在主板上的一块芯片,可以获得高质量,但是处理性能不佳。
GPU是每个显卡都有的,包括集显在内。GPU是显示处理芯片,但是intel的叫GMA,是图像加速器。
回答数:7704
| 被采纳数:1
gpu和显卡的区别:
GPU即Graphic Processing Unit,图像处理器,是整个显卡的核心。显卡是由GPU、显存等等组成的。
大部分情况下,我们所说GPU就等于指显卡,但是实际情况是GPU是显卡的一个核心组成部分。
希望能帮到你,望采纳。GPU与CPU的比较分析_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
GPU与CPU的比较分析
阅读已结束,下载本文需要
想免费下载更多文档?
定制HR最喜欢的简历
你可能喜欢当前位置:
关于GPU你必须知道的基本知识
GPU基本知识大全
GPU大家了解吗?GPU大家知道是什么吗?其实它是电脑系统里面的图形处理单元(或简称GPU)会负责处理从PC内部传送到所连接显示器的所有内容,无论你在玩游戏、编辑视频或只是盯着桌面的壁纸,所有显示器中显示的图像都是由GPU进行渲染的。本文将向大家介绍什么是GPU、它是如何工作的、GPU基本知识大全,以及为什么要为游戏和图像密集型应用程序配置专用显卡。小编推荐软件下载::GPU-Z是一款GPU识别工具,绿色免安装,界面直观,运行后即可显示GPU核心,以及运行频率、带宽等,GPU-Z绿色中文版,使用起来更方便。GPU-Z通吃A卡和N卡,对于交火及混合交火也能很好的识别。:GPU Caps Viewer是一款显卡诊断识别工具,能检测当前市面上所有显卡的规格参数,GPU Caps Viewer除了对显卡的基本规格能够完全正确识别外,还专门提供一个有关显卡OPENGL能力检测测试的界面,用户可以在此对他们显卡的OPENGL能力有一个比较全面的了解 。对普通用户来说,实际上不需要独立显卡就可以向显示器「提供」内容。像笔记本电脑或平板用户,通常CPU芯片都会集成GPU内核,也就是大家熟称的「核显」,这样就可以为对显示要求不高的低功耗设备提供更好的性价比。正因如此,部分笔记本电脑、平板电脑和某些PC用户来说,要想将其图形处理器升级到更高级别也很困难,甚至不太可能。这就会导致游戏(和视频编辑等)性能不佳,只能将图形质量设置降低才能工作。对此类用户而言,只有在主板支持和空闲空间足够的情况下,添加新显卡才能够把(游戏)显示体验提高到一个新的水平。CPU vs GPU既然CPU已经提供显示核心了,如果我们已有一颗强大CPU,为什么还需要单独的GPU呢?简单地说,就是GPU的数字计算对依赖于它的游戏引擎和(像视频编辑这样的)密集型应用程序来说更为强劲,位于GPU板上的大量核心可以在单位时间点处理所有此类进程。虽然CPU和GPU都是以硅为基础的微型处理器,不过从本质上来说,两者的部署角色却是完全不同的。CPU是PC的大脑,用于处理各种复杂的任务,GPU并不能有效地执行。而比特币工厂依赖于他们受信任的GPU(被称为GPGPU–通用图形处理单元)来挖矿而不用CPU。CPU和GPU就像人类的大脑和肌肉,前者能够处理大量不同类型的计算,而GPU的任务则是负责渲染图形和将所有可用核心聚焦于具体任务。当在单个任务上需要大量复杂图形和几何运算时,GPU会投入相应工作。GPU厂商目前市场上占主导地位的两大GPU厂商是AMD和Nvidia,AMD的前身就是大名鼎鼎的ATI,其Radeon品牌早在1985年就已发布,而Nvidia在1999年才发布了其首款GPU产品。AMD于2006年对ATI进行了收购,目前在两个不同的领域同Nvidia和Intel进行竞争。实际上在选购GPU产品时Nvidia和AMD并没有太大区别,完全取决于用户的个人喜好。继Nvidia发布的GTX 10系列推出一堆新产品后,AMD也以提供更实惠的价格与其竞争,并预计在不久的将来就会推出自己的高端图形解决方案。通常情况下,此类科技厂商都会在高端产品上并行竞争和一较高下,此外Intel也在芯片中不断推进自己的图形解决方案,但用户通常还是会选择A卡或N卡。GPU工作GPU目前已成为PC内部最强大的组件之一,其性能大部分都来自于VRAM。由于独立显卡使用的显示内存独立于计算机内存,这些存储器模块允许快速存储和接收数据,而不必再通过CPU路由到主板上插的内存。虽然显卡内存与计算机内存相似,但却完全不同,例如:支持DDR4内存的主板也可能会支持GDDR5 RAM的显卡。显卡上的VRAM用于在卡上快速存储和访问数据,以及为显示器缓冲渲染帧。其还有助于降低影响屏幕上近似数据的「锯齿状边缘」以实现抗锯齿,使图像看起来更平滑。GPU散热要利用好GPU的原始设计效能必需有大量供电,大量用电就意味着大量发热。显卡(或处理器)产生的热量是以热设计功耗(或简称TDP)和瓦特为单位测量的。但商家对产品的标称并不是直接所需的功耗值,例如新的GTX 1080标称为180W TDP等级,但这并不意味着它需要180W的功率。之所以提醒大家关心这个值是因为,具有较高TDP的GPU用到有限空气流动的紧凑空间中可能会导致散热问题。特别是对GPU超频的用户来说,需要有足够的冷却手段来处理增加的热量,才能让其稳定运行。GPU术语架构:GPU基于的平台(或技术)。一般由GPU厂商进行定义,如AMD 的Polaris架构。显存带宽:它决定了GPU如何有效地利用可用的VRAM。显卡可以使用GDDR5内存,但如果没有有效地利用带宽仍然会有瓶颈。纹理填充率:指GPU在单位时间内所能处理的纹理贴图的数量,单位是MTexels/S,由内核时钟乘以可用纹理映射单元(TMU)确定。内核/处理器:显卡上可用的并行内核(或处理器)数。核心时钟:与CPU的时钟速率类似,通常该值越高GPU则能够更快地工作。SLI/CrossFire:SLI和CrossFire分别是Nvidia和AMD使用的技术,它们允许用户安装多块GPU卡并协同工作。显卡解决图形问题和其他任务的众多核心都是专门设计的,强大的显卡和GPU可以为游戏提供更高的保真度和分辨率,虽然它比CPU更强大,但实际只能用于特定的应用程序。以上就是今天跟大家分享的“关于GPU你必须知道的基本知识 &GPU基本知识大全”的全部内容,更多精彩内容请继续关注未来软件园每日更新!出自中国分布式计算总站
GPU 计算,或称显卡计算,是指使用计算机的图形处理器(Graphic Processing Unit,简称 GPU)处理计算工作的计算方式。与之对应的是使用计算机中央处理器(即CPU)的 CPU 计算。
较之计算机的中央处理器(即CPU),GPU 在科学计算方面拥有如下优势:
GPU 由大量的运算单元(核心)组成,并行计算能力远高于 CPU。
通常 GPU 拥有较普通内存位宽更大、频率更高的专用内存,即显存,适合处理大规模数据。
综上,GPU 适合进行大量同类型数据的密集运算,如密码破译。
对于适合 GPU 处理的任务,GPU计算会比CPU计算快2至10倍之多。同时,在分布式计算项目中,GPU 任务的得分效率也比往往 CPU 任务高出很多。
小贴士: 总而言之,显卡需要CUDA或OpenCL支持,你可以使用查看显卡是否具备此功能,这是最简易的方法。
NVIDIA 显卡需要 CUDA 计算支持,支持的型号详见。
AMD 显卡需要拥有 AMD R600、AMD R700 或更新的 GPU 核心型号。R600核心的显卡有:ATI Radeon HD2400、HD2600、HD2900、HD3800;R700核心的显卡有:HD4350到HD4890。参见:,。
AMD APU 核心显卡中,Brazos、Kabini、Lynx 平台,适用于平板电脑的 Llano、Trinity 和 Richland 平台,以及适用于桌面和笔记本电脑的 Llano、Trinity 和 Richland APU 都支持 GPU 计算。
Intel 显卡需要 OpenCL 支持,Ivy Bridge 和 Haswell 架构的 CPU 集成的 GPU 均支持该特性。()
不同项目对 GPU 配置还会有特殊要求(如显存、双精度支持等)。显卡推荐拥有至少 256MB 板载显存,如果低于这个数,可能只有考虑一下
警告: 新版本的Windows XP ATI/AMD显卡驱动不再兼容OpenCL计算,请考虑升级到Windows7或者使用旧版本(可能效率略低)。
操作系统中需装相应的支持 GPU 计算的驱动程序。
使用项目方提供的 GPU 计算专用的客户端 / 。
计算程序有访问GPU资源。
以下是各类显卡的驱动下载方式:
(Mac以及部分Windows用户另外需要,CUDA驱动内嵌一个显卡驱动)
Windows 下,由于权限控制机制,以独立用户身份运行的 BOINC 无法正常检测 GPU。安装 BOINC 客户端时,请不要选择 “Protected access execution mode”(默认即不选)。
Linux 下,需要将运行客户端的用户加入适当的用户组(通常是 video),以保证客户端拥有足够的权限使用 GPU 资源。
GPU 计算可能导致计算机图形界面响应非常缓慢。越是低端的显卡,这种效应越发明显。默认情况下,BOINC 仅在计算机闲置时使用GPU计算。如果你的显卡足够快,可以在参数设置中更改相应设置。
对于多显卡用户,可以禁用负责显示的显卡(通常是集成显卡或核心显卡),以避免影响系统正常使用。
GPU计算一般需要一些CPU资源进行命令。为了最大化GPU的利用程度,你可以手动提高GPU计算进程优先级以使其获得充足的CPU资源,也可以干脆留出一个CPU线程。
更优化的使用方法参见:
类似的,你也可以编写自己的程序控制优先级。一些优化程序,如
中的 GPU 程序直接可以通过修改其配置文件手动指定优先级。
后,Windows 7 和 Vista 的任务管理器在右键进程后有保存优先级设置的选项,也可以考虑使用。
在一些对 CPU 的总功率有限制的双显卡笔记本电脑上,你可能会发现使用 Intel 核芯显卡进行计算反而不是个好主意——使用显卡进行计算消耗的功率也被计入 CPU 的功率,于是电源管理可能使 CPU 本身的睿频变少,导致独立显卡无法完全发挥。
你还可以考虑适当地进行。
注意: 本表所列项目为现时提供GPU任务之项目。由于更新问题,可能与实际情况有所出入。请参考具体项目的官方说明。
本表只说明该项目有GPU计算支持,但并不保证适用于您的操作系统,详细的还请参见项目的计算程序列表。
(最近7日无包,详见)
(支持平台:Windows 32位/64位、Linux 64位,详见)
(最近无包,详见)
(支持平台:Windows 32位/64位、Linux 32位/64位、Mac OS 10.5或更新 64位,详见)
(最近约30分钟无包,支持平台:Windows 32位/64位,详见)
(非BOINC平台)
(暂无支持GPU的子项目,详见)
(需要双精度浮点,对应 1.3+,支持平台:Windows 32位/64位、Linux 32位/64位、Mac OS 10.5或更新 64位,详见)
(支持平台:Windows 32位、Linux 64位、Mac OS 10.4或更新,详见)
(支持平台:Windows 32位/64位、Linux 32位/64位、Mac OS 10.4或更新,详见)
(支持平台:Windows 32位、Linux 64位、Mac OS X或更新 64位,详见)
(支持平台:Windows 32位、Linux 64位、Mac OS X或更新 64位,详见)
(最近7日无包,详见)
(支持平台:Windows 32位/64位、Linux 32位/64位、Mac OS 10.5或更新 64位,详见)
(最近约30分钟无包,支持平台:Windows 32位/64位,详见)
(暂无支持AMD GPU的子项目,详见)
(非BOINC平台)
(需要双精度浮点,支持平台:Windows 32位/64位、Linux 32位/64位、Mac OS 10.5或更新 64位,详见)
(支持平台:Windows 32位、Linux 32位/64位,详见)
(支持平台:Windows 32位/64位、Linux 32位/64位、Mac OS 10.5或更新 64位,详见)
(支持平台:Windows 32位、Linux 64位、Mac OS X或更新 64位,详见)
(支持平台:Windows 32位、Linux 64位、Mac OS X或更新 64位,详见)
(最近,详见)
该分类下项目大多需要OpenCL1.2支持,请进入段落手动下载新版OpenCL驱动代替Windows自动升级驱动。
(暂无支持Intel GPU的子项目,详见)
(支持平台:Windows 32位/64位、Linux 32位/64位、Mac OS 10.5或更新 64位,详见)
(最近约30分钟无包,支持平台:Windows 32位/64位,详见)
(支持平台:Windows 32位、Linux 64位、Mac OS X或更新 64位,详见)
(支持平台:Windows 32位、Linux 64位、Mac OS X或更新 64位,详见)
Distributed Computing Information in Chinese |
Powered by MediaWiki (GuMax)}

我要回帖

更多关于 什么是独立显卡和集成显卡 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信