显卡

编辑:知识号互动百科 时间:2017-09-23 06:38:16
编辑 锁定
同义词 显示卡一般指显卡
显卡(Video card,Graphics card)全称显示接口卡,又称显示适配器,是计算机最基本配置、最重要的配件之一。显卡作为电脑主机里的一个重要组成部分,是电脑进行数模信号转换的设备,承担输出显示图形的任务。显卡接在电脑主板上,它将电脑的数字信号转换成模拟信号让显示器显示出来,同时显卡还是有图像处理能力,可协助CPU工作,提高整体的运行速度。对于从事专业图形设计的人来说显卡非常重要。 民用和军用显卡图形芯片供应商主要包括AMD(超微半导体)和Nvidia(英伟达)2家。现在的top500计算机,都包含显卡计算核心。在科学计算中,显卡被称为显示加速卡
中文名
显示卡
外文名
The graphics card
领    域
计算机电子科学技术产品
作    用
转换驱动

显卡显卡分类

显卡核芯显卡

核芯显卡是Intel产品新一代图形处理核心,和以往的显卡设计不同,Intel凭借其在处理器制程上的先进工艺以及新的架构设计,将图形核心与处理核心整合在同一块基板上,构成一颗完整的处理器。智能处理器架构这种设计上的整合大大缩减了处理核心、图形核心、内存及内存控制器间的数据周转时间,有效提升处理效能并大幅降低芯片组整体功耗,有助于缩小了核心组件的尺寸,为笔记本、一体机等产品的设计提供了更大选择空间。
需要注意的是,核芯显卡和传统意义上的集成显卡并不相同。笔记本平台采用的图形解决方案主要有“独立”和“集成”两种,前者拥有单独的图形核心和独立的显存,能够满足复杂庞大的图形处理需求,并提供高效的视频编码应用;集成显卡则将图形核心以单独芯片的方式集成在主板上,并且动态共享部分系统内存作为显存使用,因此能够提供简单的图形处理能力,以及较为流畅的编码应用。相对于前两者,核芯显卡则将图形核心整合在处理器当中,进一步加强了图形处理的效率,并把集成显卡中的“处理器+南桥+北桥(图形核心+内存控制+显示输出)”三芯片解决方案精简为“处理器(处理核心+图形核心+内存控制)+主板芯片(显示输出)”的双芯片模式,有效降低了核心组件的整体功耗,更利于延长笔记本的续航时间。
核芯显卡的优点:低功耗核芯显卡的最主要优势,由于新的精简架构及整合设计,核芯显卡对整体能耗的控制更加优异,高效的处理性能大幅缩短了运算时间,进一步缩减了系统平台的能耗。高性能也是它的主要优势:核芯显卡拥有诸多优势技术,可以带来充足的图形处理能力,相较前一代产品其性能的进步十分明显。核芯显卡可支持DX10/DX11、SM4.0、OpenGL2.0、以及全高清Full HD MPEG2/H.264/VC-1格式解码等技术,即将加入的性能动态调节更可大幅提升核芯显卡的处理能力,令其完全满足于普通用户的需求。[1] 
核芯显卡的缺点:配置核芯显卡的CPU通常价格不高,同时低端核显难以胜任大型游戏。

显卡集成显卡

显示芯片 显示芯片
集成显卡是将显示芯片、显存及其相关电路都集成在主板上,与其融为一体的元件;集成显卡的显示芯片有单独的,但大部分都集成在主板的北桥芯片中;一些主板集成的显卡也在主板上单独安装了显存,但其容量较小,集成显卡的显示效果与处理性能相对较弱,不能对显卡进行硬件升级,但可以通过CMOS调节频率或刷入新BIOS文件实现软件升级来挖掘显示芯片的潜能。
集成显卡的优点:是功耗低、发热量小、部分集成显卡的性能已经可以媲美入门级的独立显卡,所以不用花费额外的资金购买独立显卡。
集成显卡的缺点性能相对略低,且固化在主板CPU上,本身无法更换,如果必须换,就只能换主板。

显卡独立显卡

独立显卡是指将显示芯片、显存及其相关电路单独做在一块电路板上,自成一体而作为一块独立的板卡存在,它需占用主板的扩展插槽ISA、PCI、AGP或PCI-E)。
独立显卡的优点:单独安装有显存,一般不占用系统内存,在技术上也较集成显卡先进得多,但性能肯定不差于集成显卡,容易进行显卡的硬件升级。
独立显卡的缺点:系统功耗有所加大,发热量也较大,需额外花费购买显卡的资金,同时(特别是对笔记本电脑)占用更多空间。
由于显卡性能的不同对于显卡要求也不一样,独立显卡实际分为两类,一类专门为游戏设计的娱乐显卡,一类则是用于绘图和3D渲染的专业显卡。[2] 

显卡常见品牌

蓝宝石只做A卡,华硕的A卡和N卡都是核心合作伙伴,相对于七彩虹这类的通路品牌来说,拥有自主研发的厂商在做工方面和特色技术上会更出色一些,而其他厂商的价格则要便宜一些(注:七彩虹盈通铭瑄和昂达等品牌基本都由通路显卡同一个厂家代工,所以差别只在显卡贴纸和包装而已,大家选购时需要注意),每个厂商都有自己的品牌特色,像华硕的“为游戏而生”,七彩虹的“游戏显卡专家”都是大家耳熟能详的。
[3] 

显卡主要参数

1.显示芯片(芯片厂商、芯片型号、制造工艺核心代号核心频率SP单元渲染管线、版本级别)
3.技术支持(像素填充率顶点着色引擎3D APIRAMDAC频率)
4.显卡PCB板(PCB层数、显卡接口、输出接口、散热装置)
[3] 

显卡显示芯片

又称图型处理器-GPU。
常见的生产显示芯片的厂商:Intel、AMDNVidiaVIA(S3)、SISMatrox、3DLabs
Intel、VIA(S3)、SIS主要生产集成芯片。
ATINVidia以独立芯片为主,是市场上的主流。
Matrox、3D Labs则主要面向专业图形市场。

显卡型号

ATI公司的主要品牌Radeon(镭龙)系列,其型号由7000、8000、9000、X系列和HD2000、3000系列再到Radeon HD 4000、5000、6000、7000系列。
nVIDIA公司的主要品牌GeForce(精视)系列,其型号由早期的GeForce 256.GeForce2、GeForce3、GeForce4到GeForceFX、再到GeForce6系列、Geforce7系列、GeForce8系列,GeForce9系列再到GT200、300、400、500、600系列。
[3] 

显卡版本级别

除了上述标准版本之外,还有些特殊版,特殊版一般会在标准版的型号后面加个后缀,从强到弱依次为XTX>XT>XL/GTO>Pro/GT>SE常见的有:
ATI:
SE(Simplify Edition 简化版)通常只有64bit内存界面,或者是像素流水线数量减少。
Radeon 9250 SE RadeonX300 SE
Pro(Professional Edition 专业版)高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点。
Radeon 9700Pro
XT(eXTreme 高端版)是ATi系列中高端的,而NVIDIA用作低端型号。
Radeon 9800XT Radeon 2900XT
XT PE(eXTreme Premium Edition XT白金版)高端的型号。
XL(eXTremeLimited 高端系列中的较低端型号)ATI最新推出的R430中的高频版。
Radeon X800XL Radeon X1800 XL
XTX(XT eXtreme 高端版)X1000系列发布之后的新的命名规则。
1800XTX 1900XTX
CE(Crossfire Edition 交叉火力版)交叉火力。
VIVO(VIDEO IN and VIDEO OUT)指显卡同时具备视频输入与视频捕捉两大功能。
HM(Hyper Memory)可以占用内存的显卡。
Radeon X1300 HM
nVIDIA:
自G200系列之后,NVIDIA重新命名显卡后缀版本,使产品线更加整齐了。
ZT在XT基础上再次降频以降低价格。
XT降频版,而在ATi中表示最高
GT 640M LE GeForce 6200 LE GeForce 6600LE
SE和LE相似基本是GS的简化版最低端的几个型号
MX平价版,大众类。
GT 520MX
GS普通版或GT的简化版。
6800 GS
GE也是简化版不过略微强于GS一点点,影驰显卡用来表示"骨灰玩家版"的东东。
GT常见的游戏芯片。比GS高一个档次,因为GT没有缩减管线和顶点单元。属于入门产品线。
GT120 GT130 GT140 GT200 GT220 GT240 GeForce 7300GT 等
GTS介于GT和GTX之间的版本GT的加强版,属于主流产品线。
GTS450 GTS250(9800GTX+ ) 8800 GTS等
GTX(GT eXtreme)代表着最强的版本简化后成为GT,属于高端/性能级显卡。
GTXGTX690 GTX680 GTX590 GTX580 GTX480 GTX295 GTX470 GTX285 GTX280 GTX460 GTX275 GTX260+ GTX260等
Ultra在GF8系列之前代表着最高端,但9系列最高端的命名就改为GTX 。
8800 Ultra 6800 Ultra GeForce2 Ultra
GT2 eXtreme双GPU显卡。指两块显卡以SLI并组的方式整合为一块显卡,不同于SLI的是只有一个接口。
9800GX2 7950GX2
TI(Titanium 钛)以前的用法一般就是代表了NVidia的高端版本。
GTX 560 Ti GeForce4 Ti GTX 550 Ti GeForce3 Ti 500
Go用于移动平台。
Go 7900 GS Go 7950 GTX Go 7700 Go 7200 Go 6100
TC(Turbo Cache)可以占用内存的显卡。
G低端入门产品
G100 G110 G210 G310(9300GS 9400GT ) G102M等
M手提电脑显卡后缀版本(AMD和NVIDIA。
Radeon HD 6990M GTX 580M HD 6970M HD 6870M HD 6490M GT 230M GT 555M GT630M GT540M等。
[3] 

显卡开发代号

所谓开发代号就是显示芯片制造商为了便于显示芯片在设计、生产、销售方面的管理和驱动架构的统一而对一个系列的显示芯片给出的相应基本代号。开发代号的作用是降低显示芯片制造商的成本、丰富产品线以及实现驱动程序的统一。一般来说,显示芯片制造商可以利用一个基本开发代号在通过控制渲染管线数量、顶点着色单元数量、显存类型、显存位宽、核心和显存频率、所支持的技术特性等方面来衍生出一系列的显示芯片从而满足不同的性能、价格、市场等不同的定位,还可以把制造过程中具有部分瑕疵的高端显示芯片产品通过屏蔽管线等方法处理成为完全合格的相应低端的显示芯片产品出售,从而大幅度降低设计和制造的难度和成本,丰富自己的产品线。同一种开发代号的显示芯片可以使用相同的驱动程序,这为显示芯片制造商编写驱动程序以及消费者使用显卡都提供了方便。
同一种开发代号的显示芯片的渲染架构以及所支持的技术特性是基本相同的,而且所采用的制程也相同,所以开发代号是判断显卡性能和档次的重要参数。同一类型号的不同版本可以是一个代号,例如:GeForce(GTX260、GTX280、GTX295)代号都是GT200;而Radeon(HD4850、HD4870)代号都是RV770等,但也有其他的情况,如:GeForce(9800GTX、9800GT)代号是G92;而GeForce(9600GT、9600GSO)代号都是G94等。
[3] 

显卡制造工艺

制造工艺指得是在生产GPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以nm(纳米)来表示(1mm=1000000nm),精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高芯片的集成度,芯片的功耗也越小。
制造工艺的微米是指IC(integrated circuit集成电路)内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米、0.09微米,再到主流的65纳米、55纳米、40纳米。
[3] 

显卡核心频率

显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、流处理器单元、显存频率、显存位宽等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如GTS250的核心频率达到了750MHz,要比GTX260+的576MHz高,但在性能上GTX260+绝对要强于GTS250。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。

显卡显存简介

就是显卡上用来存储图形图像的内存。越大越好。[4] 
显卡上采用的显存类型主要有SDR、DDR SDRAM、DDR SGRAM、DDR2.GDDR2.DDR3.GDDR3.GDDR4.GDDR5。
DDR SDRAM是Double Data Rate SDRAM的缩写(双倍数据速率),它能提供较高的工作频率,带来优异的数据处理性能。
显卡 显卡
DDR SGRAM是显卡厂商特别针对绘图者需求,为了加强图形的存取处理以及绘图控制效率,从同步动态随机存取内存(SDRAM)所改良而得的产品。SGRAM允许以方块(Blocks)为单位个别修改或者存取内存中的资料,它能够与中央处理器(CPU)同步工作,可以减少内存读取次数,增加绘图控制器的效率,尽管它稳定性不错,而且性能表现也很好,但是它的超频性能很差。
主流是GDDR3和GDDR5。
XDR2 DRAM:XDR2的系统架构源于XDR,而不像XDR相对于RDRAM那样有着巨大的差异,这从它们之间的系统架构的比较中就可以体现出来。XDR2与XDR系统整体在架构上的差别并不大,主要的不同体现在相关总线的速度设计上。首先,XDR2将系统时钟的频率从XDR的400MHz提高到500MHz;其次,在用于传输寻址与控制命令的RQ总线上,传输频率从800MHz提升至2GHz,即XDR2系统时钟的4倍;最后,数据传输频率由XDR的3.2GHz提高到8GHz,即XDR2系统时钟频率的16倍,而XDR则为8倍,因此,Rambus将XDR2的数据传输技术称为16位数据速率(Hex Data Rate,HDR)。Rambus表示,XDR2内存芯片的标准设计位宽为16bit(它可以像XDR那样动态调整位宽),按每个数据引脚的传输率为8GHz,即8Gbps计算,一枚XDR2芯片的数据带宽就将达到16GB/s,与之相比,目前速度最快的GDDR3-800的芯片位宽为32bit,数据传输率为1.6Gbps,单芯片传输带宽为6.4GB/s,只是XDR2的40%,差距十分明显。[3] 

显卡带宽

显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则相同频率下所能传输的数据量越大。2010年市场上的显卡显存位宽主要有128位、192位、256位几种。而显存带宽=显存频率X显存位宽/8,它代表显存的数据传输速度。在显存频率相当的情况下,显存位宽将决定显存带宽的大小。例如:同样显存频率为500MHz的128位和256位显存,它们的显存带宽分别为:128位=500MHz*128/8=8GB/s;而256位=500MHz*256/8=16GB/s,是128位的2倍。显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。其他规格相同的显卡,位宽越大性能越好。[3] 

显卡容量

其他参数相同的情况下容量越大越好,但比较显卡时不能只注意到显存(很多js会以低性能核心配大显存作为卖点)。比如说384M的9600GT就远强于512M的9600GSO,因为核心和显存带宽上有差距。选择显卡时显存容量只是参考之一,核心和带宽等因素更为重要,这些决定显卡的性能优先于显存容量。但必要容量的显存是必须的,因为在高分辨率高抗锯齿的情况下可能会出现显存不足的情况。目前市面显卡显存容量从256MB-4GB不等。[3] 

显卡封装类型

TSOP (Thin Small Out-Line Package)薄型小尺寸封装
QFP (Quad Flat Package)小型方块平面封装
MicroBGA (Micro Ball Grid Array)微型球闸阵列封装,又称FBGA(Fine-pitch Ball Grid Array)
2004年前的主流显卡基本上是用TSOP和MBGA封装,TSOP封装居多。但是由于nvidia的gf3.4系的出现,MBGA成为主流,mbga封装可以达到更快的显存速度,远超TSOP的极限400MHZ。[3] 

显卡速度

显存速度一般以ns(纳秒)为单位。常见的显存速度有1.2ns、1.0ns、0.8ns等,越小表示速度越快、越好。显存的理论工作频率计算公式是:等效工作频率(MHz)=1000×n/(显存速度)(n因显存类型不同而不同,如果是GDDR3显存则n=2;GDDR5显存则n=4)。[3] 

显卡频率

显存频率一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位。显存频率的高低和显存类型有非常大的关系:
SDRAM显存一般都工作在较低的频率上,此种频率早已无法满足显卡的需求。
DDR SDRAM显存则能提供较高的显存频率,所以显卡基本都采用DDR SDRAM,其所能提供的显存频率也差异很大。已经发展到GDDR5,默认等效工作频率最高已经达到4800MHZ,而且提高的潜力还非常大。
显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率(MHz)=1/显存时钟周期(NS)X1000。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz;但要了解的是这是DDR SDRAM的实际频率,而不是平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2的等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333 MHz。但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率,此类情况较为常见。不过也有显存无法在标称的最大工作频率下稳定工作的情况。

显卡分辨率

指的是在屏幕上所显现出来的像素数目,由两部分来计算,分别是水平行的点数和垂直行的点数。比例:分辨率为800X600,那就是说这幅图像由800个水平点和600个垂直点组成。[4] 

显卡流处理器单元

在DX10显卡出来以前,并没有“流处理器”这个说法。GPU内部由“管线”构成,分为像素管线和顶点管线,它们的数目是固定的。简单来说,顶点管线主要负责3D建模,像素管线负责3D渲染。由于它们的数量是固定的,这就出现了一个问题,当某个游戏场景需要大量的3D建模而不需要太多的像素处理,就会造成顶点管线资源紧张而像素管线大量闲置,当然也有截然相反的另一种情况。这都会造成某些资源的不够和另一些资源的闲置浪费。
在这样的情况下,人们在DX10时代首次提出了“统一渲染架构”,显卡取消了传统的“像素管线”和“顶点管线”,统一改为流处理器单元,它既可以进行顶点运算也可以进行像素运算,这样在不同的场景中,显卡就可以动态地分配进行顶点运算和像素运算的流处理器数量,达到资源的充分利用。
流处理器的数量的多少已经成为了决定显卡性能高低的一个很重要的指标,Nvidia和AMD-ATI也在不断地增加显卡的流处理器数量使显卡的性能达到跳跃式增长,例如AMD-ATI的显卡HD3870拥有320个流处理器,HD4870达到800个,HD5870更是达到1600个!
值得一提的是,N卡[2]  和A卡[2]  GPU架构并不一样,对于流处理器数的分配也不一样。双方没有可比性。N卡每个流处理器单元只包含1个流处理器,而A卡相当于每个流处理器单元里面含有5个流处理器,(A卡流处理器/5)例如HD4850虽然是800个流处理器,其实只相当于160个流处理器单元,另外A卡流处理器频率与核心频率一致,这是为什么9800GTX+只有128个流处理器,性能却与HD4850相当(N卡流处理器频率约是核心频率的2.16倍)。[3] 

显卡DAPI

API是Application Programming Interface的缩写,是应用程序接口的意思,而3D API则是指显卡与应用程序直接的接口。
3D API能让编程人员所设计的3D软件只要调用其API内的程序,从而让API自动和硬件的驱动程序沟通,启动3D芯片内强大的3D图形处理功能,从而大幅度地提高了3D程序的设计效率。如果没有3D API,在开发程序时程序员必须要了解全部的显卡特性,才能编写出与显卡完全匹配的程序,发挥出全部的显卡性能。而有了3D API这个显卡与软件直接的接口,程序员只需要编写符合接口的程序代码,就可以充分发挥显卡的性能,不必再去了解硬件的具体性能和参数,这样就大大简化了程序开发的效率。同样,显示芯片厂商根据标准来设计自己的硬件产品,以达到在API调用硬件资源时最优化,获得更好的性能。有了3D API,便可实现不同厂家的硬件、软件最大范围兼容。比如在最能体现3D API的游戏方面,游戏设计人员设计时,不必去考虑具体某款显卡的特性,而只是按照3D API的接口标准来开发游戏,当游戏运行时则直接通过3D API来调用显卡的硬件资源。
个人电脑中主要应用的3D API有:DirectX和OpenGL。[3] 

显卡RAMDAC频率

RAMDAC是Random Access Memory Digital/Analog Convertor的缩写,即随机存取内存数字~模拟转换器。
RAMDAC作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号,其转换速率以MHz表示。计算机中处理数据的过程其实就是将事物数字化的过程,所有的事物将被处理成0和1两个数,而后不断进行累加计算。图形加速卡也是靠这些0和1对每一个象素进行颜色、深度、亮度等各种处理。显卡生成的信号都是以数字来表示的,但是所有的CRT显示器都是以模拟方式进行工作的,数字信号无法被识别,这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显卡中将数字信号转换为模拟信号的设备。RAMDAC的转换速率以MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)。其工作速度越高,频带越宽,高分辨率时的画面质量越好。该数值决定了在足够的显存下,显卡最高支持的分辨率和刷新率。如果要在1024×768的分辨率下达到85Hz的刷新率,RAMDAC的速率至少是1024×768×85Hz×1.344(折算系数)≈90MHz。2009年主流的显卡RAMDAC都能达到350MHz和400MHz,市面上大多显卡都是400MHz,已足以满足和超过大多数显示器所能提供的分辨率和刷新率。[3] 

显卡散热设备

显卡所需要的电力与150瓦特灯具所需要的电力相同,由于运作集成电路(integrated circuits)需要相当多的电力,因此内部电流所产生的温度也相对的提高,所以,假如这些温度不能适时的被降低,那么上述所提到的硬设备就很可能遭受损害,而冷却系统就是在确保这些设备能稳定、适时的运转,没有散热器或散热片,GPU或内存会过热,就会进而损害计算机或造成当机,或甚至完全不能使用。这些冷却设备由导热材质所制成,它们有些被视为被动组件,默默安静地进行散热的动作,有些则很难不发出噪音,如风扇。
散热片通常被视为被动散热,但不论所安装的区块是导热区,或是内部其它区块,散热片都能发挥它的效能,进而帮助其它装置降低温度。散热片通常与风扇一同被安装至GPU或内存上,有时小型风扇甚至会直接安装在显卡温度最高的地方。
散热片的表面积愈大,所进行之散热效能就愈大(通常必须与风扇一起运作),但有时却因空间的限制,大型散热片无法安装于需要散热的装置上;有时又因为装置的体积太小,以至于体积大的散热片无法与这些装置连结而进行散热。因此,热管就必须在这个时候将热能从散热处传送至散热片中进行散热。一般而言,GPU外壳由高热能的传导金属所制成,热管会直接连结至由金属制成的芯片上,如此一来,热能就能被轻松的传导至另一端的散热片。
市面上有许多处理器的冷却装置都附有热管,由此可知,许多热管已被研发成可灵活运用于显卡冷却系统中的设备了。
大部分的散热器只是由散热片跟风扇组合而成,在散热片的表面上由风扇吹散热能,由于GPU是显卡上温度最高的部分,因此显卡散热器通常可以运用于GPU上,同时,市面上有许多零售的配件可供消费者进行更换或升级,其中最常见的就是VGA散热器。[3] 

显卡工作原理

数据(data)一旦离开CPU,必须通过4个步骤,最后才会到达显示屏:
1.从总线(Bus)进入GPU(Graphics Processing Unit,图形处理器):将CPU送来的数据送到北桥(主桥)再送到GPU(图形处理器)里面进行处理。
2.从 Video Chipset(显卡芯片组)进入 Video RAM(显存):将芯片处理完的数据送到显存。
3.从显存进入Digital Analog Converter (= RAM DAC,随机读写存储数—模转换器):从显存读取出数据再送到RAM DAC进行数据转换的工作(数字信号模拟信号)。但是如果是DVI接口类型的显卡,则不需要经过数字信号模拟信号。而直接输出数字信号
4.从DAC进入显示器(Monitor):将转换完的模拟信号送到显示屏。
显示效能是系统效能的一部分,其效能的高低由以上四步所决定,它与显示卡的效能(Video Performance)不太一样,如要严格区分,显示卡的效能应该受中间两步所决定,因为这两步的资料传输都是在显示卡的内部。第一步是由CPU(运算器和控制器一起组成的计算机的核心,称为微处理器中央处理器)进入到显示卡里面,最后一步是由显示卡直接送资料到显示屏上。[5] 

显卡发展简史

显卡CGA

民用显卡的起源可以追溯到上个世纪的八十年代了。在1981年,IBM推出了个人电脑时,它提供了两种显卡,一种是"单色显卡(简称MDA),一种是“彩色绘图卡”(简称 CGA),从名字上就可以看出,MDA是与单色显示器配合使用的,它可以显示80行x25列的文数字,CGA则可以用在RGB的显示屏上, 它可以绘制图形和文数字资料。在当时来讲,计算机的用途主要是文字数据处理,虽然MDA分辨率为宽752点,高504点,不足以满足较大的显示要求,不过对于文字数据处理还是绰绰有馀的了。而CGA就具有彩色和图形能力,能胜任一般的显示图形数据的需要了,不过其分辨率只有640x350,自然不能与彩色显示同日而语。[3] 

显卡MGA/MCGA

1982年,IBM又推出了MGA(Monochrome Graphic Adapter),又称Hercules Card (大力士卡),除了能显示图形外,还保留了原来MDA 的功能。当年不少游戏都需要这款卡才能显示动画效果。而当时风行市场的还有Genoa 公司做的EGA(Enhanced Graphics Adapter),即加强型绘图卡,可以模拟MDA和CGA,而且可以在单色屏幕上一点一点画成的图形。EGA分辨率为640x350,可以产生16色的图形和文字。不过这些显卡都是采用数字方式的,直到MCGA(Multi-Color Graphics Array)的出现,才揭开了采用模拟方式的显卡的序幕。MCGA是整合在PS/2 Model 25和30上的影像系统。它采用了Analog RGA影像信号,分辨率可高达640x480, 数位RGB和类比RGB不同的地方就像是ON-OFF式切换和微调式切换之间的差别。用类比RGB讯号的显示屏,会将每一个讯号的电压值转换成符合色彩明暗的范围。只有类比显示屏可以和MCGA一起使用,才可以提供最多的256种颜色,另外IBM尚提供了一个类比单色显示屏,在此显示屏上可以显示出64种明暗度。[3] 

显卡VGA接口

VGA(Video Graphic Array)即显示绘图阵列,它是IBM在其PS/2 的Model 50, 60和80内建的影像系统。它的数字模式可以达到720x400色,绘图模式则可以达到640x480x16色,以及320x200x256色,这是显卡首次可以同时最高显示256种色彩。而这些模式更成为其后所有显卡的共同标准。VGA显卡的盛行把电脑带进了2D显卡显示的辉煌时代。在以後一段时期里,许多VGA显卡设计的公司不断推陈出新, 追求更高的分辨率和位色。与此同时,IBM 推出了8514/A的Monitor显示屏规格,主要用来支持1024x 768的分辨率
在2D时代向3D时代推进的过程中,有一款不能忽略的显卡就是Trident 8900/9000显卡,它第一次使显卡成为一个独立的配件出现于电脑里,而不再是集成的一块芯片。而後其推出的Trident 9685更是第一代3D显卡的代表。不过真正称得上开启3D显卡大门的却应该是GLINT 300SX,虽然其3D功能极其简单,但却具有里程碑的意义。[3] 

显卡3D

1995年,对于显卡来说,绝对是里程碑的一年,3D图形加速卡正式走入玩家的视野。那个时候游戏刚刚步入3D时代,大量的3D游戏的出现,也迫使显卡发展到真正的3D加速卡。而这一年也成就了一家公司,不用说大家也知道,没错,就是3Dfx。1995年,3Dfx还是一家小公司,不过作为一家老资格的3D技术公司,他推出了业界的第一块真正意义的3D图形加速卡:Voodoo。在当时最为流行的游戏摩托英豪里,Voodoo在速度以及色彩方面的表现都让喜欢游戏的用户为之疯狂,不少游戏狂热份子都有过拿一千多块大洋到电脑城买上一块杂牌的Voodoo显卡的经历。3Dfx的专利技术Glide引擎接口一度称霸了整个3D世界,直至D3D和OpenGL的出现才改变了这种局面。Voodoo标配为4Mb显存,能够提供在640×480分辨率下3D显示速度和最华丽的画面,当然,Voodoo也有硬伤,它只是一块具有3D加速功能的子卡,使用时需搭配一块具有2D功能的显卡,相信不少老EDO资格的玩家都还记得S3 765+Voodoo这个为人津津乐道的黄金组合。讲到S3 765,就不得不提到昔日王者S3显卡了。
S3 765显卡是当时兼容机的标准配置,最高支持2MB EDO显存,能够实现高分辨率显示,这在当时属于高端显卡的功效,这一芯片真正将SVGA发扬光大。能够支持1024×768的分辨率,并且在低分辨率下支持最高32Bit真彩色,而且性价比也较强。因此,S3 765实际上为S3显卡带来了第一次的辉煌。
而後在96年又推出了S3 Virge,它是一块融合了3D加速的显卡,支持DirectX,并包含的许多先进的3D加速功能,如Z-buffering、Doubling buffering、Shading、Atmospheric effect、Lighting,实际成为3D显卡的开路先锋,成就了S3显卡的第二次辉煌,可惜后来在3Dfx的追赶下,S3的Virge系列没有再继辉煌,被市场最终抛弃。
此后,为了修复Voodoo没有2D显示这个硬伤,3Dfx继而推出了VoodooRush,在其中加入了Z-Buffer技术,可惜相对于Voodoo,VoodooRush的3D性能却没有任何提升,更可怕的是带来不少兼容性的问题,而且价格居高不下的因素也制约了VoodooRush显卡的推广。
当然,当时的3D图形加速卡市场也不是3Dfx一手遮天,高高在上的价格给其他厂商留下了不少生存空间,像勘称当时性价比之王的Trident 9750/9850,以及提供了Mpeg-II硬件解码技术的SIS6326,还有在显卡发展史上第一次出场的nVidia推出的Riva128/128zx,都得到不少玩家的宠爱,这也促进了显卡技术的发展和市场的成熟。1997年是3D显卡初露头脚的一年,而1998年则是3D显卡如雨后春笋激烈竞争的一年。九八年的3D游戏市场风起云涌,大量更加精美的3D游戏集体上市,从而让用户和厂商都期待出现更快更强的显卡。
在Voodoo带来的巨大荣誉和耀眼的光环下,3Dfx以高屋建瓴之势推出了又一划时代的产品:Voodoo2。Voodoo2自带8Mb/12Mb EDO显存,PCI接口,卡上有双芯片,可以做到单周期多纹理运算。当然Voodoo2也有缺点,它的卡身很长,并且芯片发热量非常大,也成为一个烦恼,而且Voodoo2依然作为一块3D加速子卡,需要一块2D显卡的支持。但是不可否认,Voodoo2的推出已经使得3D加速又到达了一个新的里程碑,凭借Voodoo2的效果、画面和速度,征服了不少当时盛行一时的3D游戏,比如Fifa98,NBA98,Quake2等等。也许不少用户还不知道,2009年最为流行的SLI技术也是当时Voodoo2的一个新技术,Voodoo2第一次支持双显卡技术,让两块Voodoo2并联协同工作获得双倍的性能。
1998年虽然是Voodoo2大放异彩的一年,但其他厂商也有一些经典之作。Matrox MGA G200在继承了自己超一流的2D水准以外,3D方面有了革命性的提高,不但可以提供和Voodoo2差不多的处理速度和特技效果,另外还支持DVD硬解码和视频输出,并且独一无二的首创了128位独立双重总线技术,大大提高了性能,配合当时相当走红的AGP总线技术,G200也赢得了不少用户的喜爱。
Intel的I740是搭配Intel当时的440BX芯片组推出的,它支持的AGP 2X技术,标配8Mb显存,可惜I740的性能并不好,2D性能只能和S3 Virge看齐,而3D方面也只有Riva128的水平,不过价格方面就有明显优势,让它在低端市场站住了脚。
Riva TNT是nVidia推出的意在阻击Voodoo2的产品,它标配16Mb的大显存,完全支持AGP技术,首次支持32位色彩渲染、还有快于Voodoo2的D3D性能和低于Voodoo2的价格,让其成为不少玩家的新宠。而一直在苹果世界闯荡的ATI也出品了一款名为Rage Pro的显卡,速度比Voodoo稍快。[3] 

显卡3GIO接口

2001年春季的IDF上Intel正式公布PCI Express,是取代PCI总线的第三代I/O技术,也称为3GIO。该总线的规范由Intel支持的AWG(Arapahoe Working Group)负责制定。2002 年4月17日,AWG正式宣布3GIO 1.0规范草稿制定完毕,并移交PCI-SIG进行审核。开始的时候大家都以为它会被命名为Serial PCI(受到串行ATA的影响),但最后却被正式命名为PCI Express。2006年正式推出Spec2.0(2.0规范)。
PCI Express总线技术的演进过程,实际上是计算系统I/O接口速率演进的过程。PCI总线是一种33MHz@32bit或者66MHz@64bit的并行总线,总线带宽为133MB/s到最大533MB/s,连接在PCI总线上的所有设备共享133MB/s~533MB/s带宽。这种总线用来应付声卡、10/100M网卡以及USB 1.1等接口基本不成问题。随着计算机和通信技术的进一步发展,新一代的I/O接口大量涌现,比如千兆(GE)、万兆(10GE)的以太网技术、4G/8G的FC技术,使得PCI总线的带宽已经无力应付计算系统内部大量高带宽并行读写的要求,PCI总线也成为系统性能提升的瓶颈,于是就出现了PCI Express总线。PCI Express总线技术在新一代的存储系统已经普遍的应用。PCI Express总线能够提供极高的带宽,来满足系统的需求。
截至2009年,PCI-E 3.0规范也已经确定,其编码数据速率,比同等情况下的PCI-E 2.0规范提高了一倍,X32端口的双向速率高达320Gbps。
PCI Express总线的技术优势
PCI总线的最大优点是总线结构简单、成本低、设计简单,但是缺点也比较明显:
1) 并行总线无法连接太多设备,总线扩展性比较差,线间干扰将导致系统无法正常工作
2) 当连接多个设备时,总线有效带宽将大幅降低,传输速率变慢
3) 为了降低成本和尽可能减少相互间的干扰,需要减少总线带宽,或者地址总线和数据总线采用复用方式设计,这样降低了带宽利用率。PCI Express总线是为将来的计算机和通讯平台定义的一种高性能,通用I/O互连总线。
与PCI总线相比,PCI Express总线主要有下面的技术优势:
1) 是串行总线,进行点对点传输,每个传输通道独享带宽。
2) PCI Express总线支持双向传输模式和数据分通道传输模式。其中数据分通道传输模式即PCI Express总线的x1.x2.x4.x8.x12.x16和x32多通道连接,x1单向传输带宽即可达到250MB/s,双向传输带宽更能够达到500MB/s,这个已经不是普通PCI总线所能够相比的了。
3) PCI Express总线充分利用先进的点到点互连、基于交换的技术、基于包的协议来实现新的总线性能和特征。电源管理、服务质量(QoS)、热插拔支持、数据完整性、错误处理机制等也是PCI Express总线所支持的高级特征。
4) 与PCI总线良好的继承性,可以保持软件的继承和可靠性。PCI Express总线关键的PCI特征,比如应用模型、存储结构、软件接口等与传统PCI总线保持一致,但是并行的PCI总线被一种具有高度扩展性的、完全串行的总线所替代。
5) PCI Express总线充分利用先进的点到点互连,降低了系统硬件平台设计的复杂性和难度,从而大大降低了系统的开发制造设计成本,极大地提高系统的性价比和健壮性。从下面表格可以看出,系统总线带宽提高同时,减少了硬件PIN的数量,硬件的成本直接下降。
至2008年,PCI-E接口仍然在显卡中使用。[3] 

显卡NVIDIA的崛起

1999年,世纪末的显卡市场出现了百花齐开的局面,而且这一年也让市场摆脱了3Dfx的一家独霸局面,由于战略的失误,让3Dfx失去了市场,它推出了Voodoo3,配备了16Mb显存,支持16色渲染。虽然在画质上无可挑剔,但是高昂的价格以及与市场格格不入的标准让它难掩颓势。世纪末的这一年,显卡的辉煌留给了nVidia。
在1999年,nVidia挟TNT之余威推出TNT2 Ultra、TNT2和TNT2 M64三个版本的芯片,後来又有PRO和VANTA两个版本。这种分类方式也促使後来各个生产厂家对同一芯片进行高中低端的划分,以满足不同层次的消费需要。TNT系列配备了8Mb到32Mb的显存,支持AGP2X/4X,支持32位渲染等等众多技术,虽然16位色下画面大大逊色于Voodoo3,但是在32位色下,表现却可圈可点,还有在16位色下,TNT2的性能已经略微超过Voodoo3了,不过客观的说,在32位色下,TNT系列显卡性能损失相当多,速度上跟不上Voodoo3了。当然,nVidia能战胜Voodoo3,与3Dfx公司推行的策略迫使许多厂商投奔nVidia也不无关系,促进了TNT系列的推广。显卡市场上出现了nVidia与3Dfx两家争霸的局面。
1999年的显卡市场不可遗忘的还有来自Matrox MGA G400,它拥有16Mb/32Mb的显存容量,支持AGP 2X/4X,还有支持大纹理以及32位渲染等等,都是当时业界非常流行和肯定的技术,除此之外,独特、漂亮的EMBM硬件凹凸贴图技术,营造出的完美凹凸感并能实现动态光影效果的技术确实让无数游戏玩家为之疯狂,在3D方面,其速度和画面基本都是介于Voodoo3和TNT2之间,并且G400拥有优秀的DVD回放能力,不过由于价格以及它注重于OEM和专业市场,因此,在民用显卡市场所占的比例并不大!
从1999年到2000年,nVidia终于爆发了。它在1999年末推出了一款革命性的显卡---Geforce 256,彻底打败了3Dfx。代号NV10的GeForce 256支持Cube-Environment Mapping,完全的硬件T&L(Transform & Lighting),把原来有CPU计算的数据直接交给显示芯片处理,大大解放了CPU,也提高了芯片的使用效率。GeForce256拥有4条图形纹理信道,单周期每条信道处理两个象素纹理,工作频率120MHz,全速可以达到480Mpixels/Sec,支持SDRAM和DDR RAM,使用DDR的产品能更好的发挥GeForce256的性能。其不足之处就在于采用了0.22微米的工艺技术,发热量比较高。
2000年,nVidia开发出了第五代的3D图形加速卡---Geforce 2,采用了0.18微米的工艺技术,不仅大大降低了发热量,而且使得GeForce2的工作频率可以提高到200MHz。Geforce 2拥有四条图形纹理信道,单周期每条信道处理两个象素纹理,并且使用DDR RAM解决显存带宽不足的问题。在Geforce 256的基础上,GeForce2还拥有NSR(NVIDIA Shading Rasterizer),支持Per-Pixel Shading技术,同时支持S3TC、FSAA、Dot-3 Bump Mapping以及硬件MPEG-2动态补偿功能,完全支持微软的DirectX 7。而面对不同的市场分级,它相继推出了低端的GF2 MX系列以及面向高端市场的GF2 Pro和GF GTS,全线的产品线让nVidia当之无愧地成为显卡的霸主。
3Dfx在被nVidia收购之前还推出了Voodoo4/5,VooDoo4 4500使用一颗VSA-100芯片,VooDoo5 5500使用两颗VSA-100芯片,而VooDoo5 6000使用四颗VSA-100芯片,可惜由于各方面的原因,Voodoo4/5并不能让没落的3Dfx有一丝丝起色,最终难逃被nVidia收购的命运。
而作为nVidia主要竞争对手的ATI,也在两千年凭借T&L技术打开市场。在经历“曙光女神”的失败後,ATI也推出了自己的T&L芯片RADEON 256,RADEON也和NVIDIA一样具有高低端的版本,完全硬件T&L,Dot3和环境映射凹凸贴图,还有两条纹理流水线,可以同时处理三种纹理。但最出彩的是HYPER-Z技术,大大提高了RADEON显卡的3D速度,拉近了与GEFORCE 2系列的距离,ATI的显卡也开始在市场占据主导地位。
两千年的低端市场还有来自Trident的这款Blade T64,Blade XP核心属于Trident第一款256位的绘图处理器,采用0.18微米的制造工艺,核心时钟频率为200 MHz,像素填充率达到1.6G,与Geforce2GTS处于同一等级,支持Direct X7.0等等。可惜由于驱动程序以及性能等方面的原因,得不到用户的支持。
[3] 

显卡铁面双雄

踏入2001年以后,如同桌面处理器市场的Intel和AMD一样,显卡市场演变为nVidia与ATI两雄争霸的局势。nVidia方面,凭借刚刚推出的Geforce 3系列占据了不少市场,Geforce 3 Ti 500,Geforce 2 Ti和Geforce 3Ti,Geforce MX分别定位于高中低三线市场。与GeForce 2系列显卡相比,GeForce 3显卡最主要的改进之处就是增加了可编程T&L功能,能够对几乎所有的画面效果提供硬件支持。GeForce 3总共具有4条像素管道,填充速率最高可以达到每秒钟800 Mpixels。Geforce 3系列还拥有nfiniteFX顶点处理器、nfiniteFX像素处理器以及Quincunx抗锯齿系统等技术。
而作为与之相抗衡的ATI Radeon 8500/7500系列,采用0.15微米工艺制造,包括6000万个晶体管,采用了不少新技术(如TruformSmartshader等)。并根据显卡的核心/显存工作频率分成不同的档次——核心/显存分别为275/550MHz的标准版,核心/显存为250/500MHz的RADEON 8500LE,核心/显存频率分别为300/600MHz的Ultra版,以及中端的Radeon 7500,低端的Radeon 7200,7000等产品。值得一提的是Radeon 8500还支持双头显示技术
2002年,nVidia与ATI的竞争更加白热化。为巩固其图形芯片市场霸主地位,nVidia推出了Geforce 4系列,分别为GeForce4 Ti4800,GeForce4 Ti 4600, GeForce4 Ti4400, GeForce4 Ti4200,GeForce4 MX 460, GeForce4 MX 440 和GeForce4 MX 420。GeForce4 Ti系列无疑是最具性价比的,其代号是NV25,它主要针对当时的高端图形市场,是DirectX 8时代下最强劲的GPU图形处理器。芯片内部包含的晶体管数量高达6千3百万,使用0.15微米工艺生产,采用了新的PBGA封装,运行频率达到了300MHz,配合频率为650MHz DDR显存,可以实现每秒49亿次的采样。GeForce4 Ti核心内建4条渲染流水线,每条流水线包含2个TMU(材质贴图单元)。Geforce 4系列从高到低,横扫了整个显卡市场。
作为反击,ATI出品了R9700/9000/9500系列,首次支持DirectX 9,使其在与NVidia的竞争中抢得先机。而R9700更是在速度与性能方面首次超越NVidia。R9700支持AGP 8X、DirectX 9,核心频率是300MHz,显存时钟是550MHz。RADEON 9700,实现了可程序化的革命性硬件架构。符合绘图回事商品AGP 8X最新标准,配有8个平等处理的彩绘管线,每秒可处理25亿个像素,4个并列的几何处理引擎更能处理每秒3亿个形迹及光效多边形。而R9000是面向低端的产品,R9500则直挑Ti4200。
同年,SiS发布了Xabre系列。它是第一款AGP 8×显卡,全面支持DirectX 8.1,在发布之时是相当抢眼的。Xabre系列图形芯片采用0.15微米工艺,具备4条像素渲染流水线,并且每条流水线拥有两个贴图单元。理论上可提供高达1200M Pixels/s的像素填充率和2400M Texels/s的材质填充率。随後发布的Xabre600,采用0.13微米工艺,主频和显存频率都提高了不少,性能与GeForce4 Ti4200差不多。
2003年的显卡市场依旧为N系与A系所统治。nVidia的Gf FX 5800(NV30)系列拥有32位着色,颜色画面有质的提高,在基础上推出的GeForce FX 5900,提高了晶体管数,降低了核心频率与显存频率,改用了256B99v DDR以提高了显存带宽。後半年还推出了GF FX 5950/5700系列,以取代GF FX 5900/5600。而ATI推出了RADEON 9800/pro/SE/XT,凭借其超强的性能以及较低的售价,再次打败GF GX 5800。这一年市场上的主流产品还有GF FX5600,GF FX5200和RADEON 9600和RADEON 9200。
2004年也是ATI大放异彩的一年,不过其最大的功臣却是来自于面向中低端的Radeon 9550。这款2004年最具性价比的显卡,让ATI在低端市场呼风唤雨。R9550基于RV350核心,采用0.13微米制程,核心频率为250MHz,显存频率为400MHz,4条渲染管道,1个纹理单元,同时兼容64bit和128bit。这款产品是9600的降频版,但是通过改造,都可以变成R9600,性价比极强。而老对手的N卡方面,却只推出了一款新品GF FX 5900XT/SE,而与R9550处于同一竞争线的5200,5500与5700LE系列,虽然性能不错,可惜价格却没有优势,被R9550彻底打败。2004年让nVidia郁闷了一整年。
ATI从2005年开始就一直被Nvidia压制,无论是1950XTX对抗7900GTX,2900XT对抗8800GTX,3870X2对抗9800GX2,在旗舰产品上,ATi一直属于劣势,但在2008年6月发生了转机,ATi发布了RV770,无论是从市场定价还是从性能上都是十分让人满意的,特别是改善了A卡在AA上的性能不足,RV770的中端4850的价格更是让Nvidia措手不及,无奈在一周内9800GTX降价1000元,但无论是性能还是价格依旧挡不住4850的攻势,4870紧接着发布,采用DDR5显存的RV770浮点运算能力更是达到了1TB/S,Nvidia发布的新核心GT200的旗舰版本GTX280虽然在性能上暂时取得了暂时的领先,但是和4870相比只有10%的性能差距,而且由于工艺较落后,导致成本过高,没有性价比,就在人们以为ATi放弃旗舰,准备走性价比路线时,ATi推出了R700,也就是4870X2,并且大幅度改良了桥接芯片的性能,领先GTX280高达50-80%,而GTX280的核心面积已经大的恐怖,不可能衍生出单卡双芯,所以ATI依靠单卡双芯重新夺得了性能之王。
但是在2009年初,Nvidia凭借其新推出的GTX295,重新夺回显卡性能之王宝座。2009年9月22日,AMD正式发布了业界第一款DirectX 11显卡:ATI Radeon HD 5800系列:HD5870/5850,其中HD5870是ATI最新单核心旗舰显卡,HD5870显卡采用RV870核心,其主要竞争对手是GTX295。在NVIDIA最新GT300显卡发布之后,AMD和NVIDIA在DX 11的新一轮竞争又会开始。
[3] 

显卡独显接口

显卡AGP接口

AGP(Accelerate Graphical Port,加速图像处理端口)接口是Intel公司开发的一个视频接口技术标准,是为了解决PCI总线的低带宽而开发的接口技术。它通过将图形卡与系统主内存连接起来,在CPU和图形处理器之间直接开辟了更快的总线。其发展经历了AGP1.0(AGP1X/2X)、AGP2.0(AGP4X)、AGP3.0(AGP8X)。最新的AGP8X其理论带宽为2.1Gbit/秒。到2009年,已经被PCI-E接口基本取代(2006年大部分厂家已经停止生产)。

显卡PCI-E接口

PCI Express(简称PCI-E)是新一代的总线接口,而采用此类接口的显卡产品,已经在2004年正式面世。早在2001年的春季“英特尔开发者论坛”上,英特尔公司就提出了要用新一代的技术取代PCI总线和多种芯片的内部连接,并称之为第三代I/O总线技术。随后在2001年底,包括Intel、AMD、DELL、IBM在内的20多家业界主导公司开始起草新技术的规范,并在2002年完成,对其正式命名为PCI Express。

显卡PCI接口

PCI(Peripheral Component Interconnect)接口由英特尔Intel)公司1991年推出的用于定义局部总线的标准。此标准允许在计算机内安装多达10个遵从PCI标准的扩展卡。最早提出的PCI总线工作在33MHz频率之下,传输带宽达到133MB/s(33MHz * 32bit/s),基本上满足了当时处理器的发展需要。随着对更高性能的要求,1993年又提出了64bit的PCI总线,后来又提出把PCI 总线的频率提升到66MHz。PCI接口的速率最高只有266MB/S,1998年之后便被AGP接口代替。不过仍然有新的PCI接口的显卡推出,因为有些服务器主板并没有提供AGP或者PCI-E接口,或者需要组建多屏输出,选购PCI显卡仍然是最实惠的方式。[3] 

显卡维护

把好显卡质量关
显卡的做工和电气性能直接影响到显卡的工作稳定性,因此显卡的质量非常重要。一块高质量的显卡,应具备以下特征,选用的元件和底板质量上乘,元件分布和电路走线合理,具备该级别显卡应有的基本功能,做工质量过硬。劣质的显卡为了节省成本,往往是偷工减料,省去应有的功能,甚至使用劣质的元件,这样的产品,往往成为运行不稳定的因素,比如花屏、死机等。
在显卡选购时,一定要选择质量可靠、做工较好的产品,这样用起来会省心一些。
注意显卡散热
随着显示芯片技术的发展,显示芯片内部的晶体管越来越多,集成度也越来越高,这样的结果就造成芯片的发热量变得越来越大,因此散热的问题也日渐突出。
如果显卡散热风扇质量不理想,就需要更换的风扇。在购买新的显卡风扇时,最好将显卡带上,购买合适的显卡风扇。
由于风扇大多使用弹簧卡扣或者螺钉固定,因此我们可以使用螺丝刀和镊子轻易的将其取下,并拔掉其连接的电源接头。更换时先把芯片上原有的导热硅脂清理干净,然后再涂上导热硅脂,把新的风扇装—下并按原样固定好,插好电源接头即可。
使用热管散热的显卡,由于其占用的空间比使用散热风扇的大,因此安装这类显卡的时候要特别注意。另外显卡的显存也需要散热,我们可以使用自粘硅脂在现存颗粒上,粘贴固定散热片就可以了。
安装适合的驱动程序
这是很必要的,装了好的显卡没驱动程序会大大降低显卡的性能。
过度超频
部分的显卡由于使用了技术参数较高的元件,因此具有不俗的超频能力,所以不少的玩家都崇尚超频显卡以获得性能的提升。然而有一利必有一弊,超频也会导致芯片的热量大增,当达到一定程度时,就会发生花屏、死机的问题,即使不如此,也会在某些应用场合如游戏中出现不稳定的现象,因此超频必须适度。[3] 

显卡软件配置

显卡DirectX

DirectX并不是一个单纯的图形API,它是由微软公司开发的用途广泛的API(Application Programming Interface,应用程序编程接口),它包含有Direct Graphics(Direct 3D+Direct Draw)、Direct Input、Direct Play、Direct Sound、Direct Show、Direct Setup、Direct Media Objects等多个组件,它提供了一整套的多媒体接口方案。只是其在3D图形方面的优秀表现,让它的其它方面显得暗淡无光。DirectX开发之初是为了弥补Windows 3.1系统对图形、声音处理能力的不足,已发展成为对整个多媒体系统个方面都有决定性影响的接口。
Direct3D(简称D3D)
DirectX是微软开发并发布的多媒体开发软件包,其中有一部分叫做Direct3D。大概因为是微软的手笔,有的人就说它将成为3D图形的标准。

显卡OpenGL

OpenGL是OpenGraphicsLib的缩写,是一套三维图形处理库,也是该领域的工业标准。计算机三维图形是指将用数据描述的三维空间通过计算转换成二维图像并显示或打印出来的技术。OpenGL就是支持这种转换的程序库,它源于SGI公司为其图形工作站开发的IRIS GL,在跨平台移植过程中发展成为OpenGL。SGI在1992年7月发布1.0版,后成为工业标准,由成立于1992年的独立财团OpenGL Architecture Review Board (ARB)控制。SGI等ARB成员以投票方式产生标准,并制成规范文档(Specification)公布,各软硬件厂商据此开发自己系统上的实现。只有通过了ARB规范全部测试的实现才能称为OpenGL。1995年12月ARB批准了1.1版本,最新版规范是在SIGGRAPH2007公布的OpenGL 3.0。[3] 

显卡双卡技术

SLICrossFire分别是Nvidia和ATI两家的双卡或多卡互连工作组模式。其本质是差不多的。只是叫法不同SLI Scan Line Interlace(扫描线交错)技术是3dfx公司应用于Voodoo 上的技术,它通过把2块Voodoo卡用SLI线物理连接起来,工作的时候一块Voodoo卡负责渲染屏幕奇数行扫描,另一块负责渲染偶数行扫描,从而达到将两块显卡“连接”在一起获得“双倍”的性能。SLI中文名速力,到2009年SLI工作模式与早期Voodoo有所不同,改为屏幕分区渲染。
CrossFire,中文名交叉火力,简称交火,是ATI的一款多重GPU技术,可让多张显示卡同时在一部电脑上并排使用,增加运算效能,与NVIDIA的SLI技术竞争。CrossFire技术于2005年6月1日,在Computex Taipei 2005正式发布,比SLI迟一年。从首度公开截至2009年,CrossFire经过了一次修订。[3] 

显卡支持条件

从上到下8800GTS(G80) 6800Ultra 6800GT 从上到下8800GTS(G80) 6800Ultra 6800GT
组建SLI和Crossfire,需要几个方面。
1.需要2个以上的显卡,必须是PCI-E,不要求必须是相同核心,混合SLI可以用于不同核心显卡
2.需要主板支持,SLI授权已开放,支持SLI的主板有NV自家的主板和Intel的主板,如570 SLI(AMD)、680i SLI(Intel)。Crossfire开放授权INTEL平台较高芯片组,945.965.P35.P31.P43.P45.X38.X48.。AMD自家的770X 790X 790FX 790GX均可进行crossfire。
3.系统支持。
4.驱动支持。
[3] 

显卡并行工作

无论是Nvidia还是ATI,均可用自己最新的集成显卡和独立显卡进行混合并行使用,但是由于驱动原因,Nvidia的MCP78只能和低端的8400GS,8500GT混合SLI,ATi的780G,790GX只能和低端的2400PRO/XT,3450进行混合Crossfire
不同型号显卡之间进行Crossfire
ATI部分新产品支持不同型号显卡之间进行交火,比如HD3870 与HD3870组建交火系统,或者HD4870与HD4850之间组建交火系统。这种交火需要硬件以及驱动的支持,并不是所有型号之间都可以。HD4870与HD4850交火已取得不错的成绩。[3] 

显卡俗称类型

A卡:代表AMD(ATI)的显卡品牌系列
N卡:代表NVIDIA的显卡品牌系列
两款显卡实力均衡,不相上下。各有千秋。
[5] 

显卡移动平台

虽然近年笔记本显卡进步显著,但移动平台受限于散热,功率等问题,性能落后于台式平台是不争的事实。
词条图册 更多图册
参考资料
词条标签:
中国通信学会 计算机学 科技 数码