光阴似箭
――
绿巨人
NVIDIA显卡
发展简史回顾
转自
ChipHell
论坛
heyuanming
帖子
1993
年,
Jen-Hsun Huang
(黄仁勋)、
Curtis Priem
和
Chris Malachowsky
决定成立一个新的图形开发公司,在当时也许是一个很不起眼的事情,可是历史证明,从那时注定今天会出现一个举世闻名的显示芯片制造商
――nVIDIA
。他们当时的梦想也非常简单
――
研制世界最先进的图形加速芯片。
一、初遇挫折
nVIDIA
公司的第一个产品是
NV-1
,这是一个好的开始,但是距离成功还很遥远。
Diamond
选用了该芯片,制造了非常不受欢迎的
Diamond Edge
显示卡。
nVIDIA
自认为可以做些与众不同的事情,于是用四边形代替了传统的三角形加速方案,可是对于
nVIDIA
和
Diamond
,这个转变都非常不受欢迎。可以说
NV-1
是个失败,甚至连
Jen-Hsun Huang
也这样认为。
nVIDIA
并没有因为
NV-1
的失败而停止,他们接受了一家第三方公司的委托,为该公司研制
NV-2
。在接受了
NV-1
教训的基础上,
nVIDIA
在
NV-2
的研制策划上花费了相当大的工夫。可是由于各种原因,这家公司放弃了对
NV-2
的支持,没有了资金援助,
NV-2
的研制计划进入了暂停阶段。当时的
nVIDIA
已经身无分文,虽然他们已经有一个半产品,但是却没有给他们带来丝毫效益。看起来
nVIDIA
也会象其它一些刚刚开始的显示芯片公司一样,注定要从此消失了。
3dfx
推出的
Voodoo
就在这时,
nVIDIA
启用了极具天才的
David Kirk
,开始重新研制
NV-3
。
NV-3
的目标是成为当时最先进的图形芯片,并准备在一个芯片中集成优秀的
2D
和
3D
性能
。在
1995
年,
3dfx
发布了公司创立以来的第一个产品
――Voodoo
,并赢得了广泛的欢迎。而
Rendition
在稍微早些于
3dfx
的时候也发布了
V1000
芯片,而且已经被几大
显卡
厂家采用,销售量最后直逼
Voodoo
,成为第二家受欢迎的产品。在这个时候,
nVIDIA
必须找一个恰当的时机切入市场。
二、苦尽甘来:创时代的
Riva 128
Riva 128
1998
年
2
月,
nVIDIA
推出了创时代的芯片
Riva 128
,这款芯片将
AGP
显卡的概念真正的带入到电脑业界中,因为在这款显卡上市以前的
AGP
显卡可以说只能是试验产品,几乎没有任何
3D
加速功能,而这款
Riva 128
的上市,让人们看到了
AGP
显卡的前景,而也就是这款显卡开始了
nVIDIA
和
3dfx
的业界王者之争。
Riva 128
的
2D
性能非常接近当时
2D
性能的杰出代表
Matrox
,虽然它的
3D
性能也相当不错。由于
Voodoo
加速卡采用的
PCI
接口,而在那个时候,
PCI
的工艺要远远强于
AGP
,所以
Riva 128
在整体的表现上逊色于
Voodoo
,但是它的出现给
Voodoo
显卡带来了很大的威胁,也同时表明了
nVIDIA
称雄显卡业界的决心。
1998
年底,
Riva 128
成为众多
OEM
厂商的喜爱之物。于是市上出现了一种集成了快速
2D
和
3D
核心、并能充分展示
AGP
强大能力的显示卡。一些大公司
DELL
、
Gateway
等纷纷采用由
STB
和
Diamond
制造的
Riva 128
显卡。由于
Diamond
的
OEM
声望,
Riva 128
的出货量比
3dfx
和
Rendition
加起来还多。这是
nVIDIA
公司一个巨大的成功,从而也积聚了足够的资金来发展他们下一代的产品,它们就是
128ZX
和
TNT
。
三、激烈的碰撞
1997
年冬季结束时,
nVIDIA
宣称将发布
Riva 128ZX
和
“Voodoo 2
杀手
”――TNT
(
128
位双纹理结构)。
Riva 128ZX
对
Riva 128
做了根本性的改变,它最大支持
8MB
的显存,并支持
AGP 2X
,而且在提高视觉效果的同时也加快了速度。
TNT
则是大家都热切期盼的产品。
虽然
Riva 128ZX
可以支持
8MB
的显存和更大的理论显示带宽,但是它极差的软硬件兼容性使得这款芯片根本无从作为,很快的淡出了市场。
nVIDIA
宣称
TNT
不仅仅是
Voodoo 2
杀手,也是
Voodoo 2 SLI
的终结者。这是
3D
显示芯片第二大制造商的重要举措,它所包含的新技术要比
Voodoo 2
多得多,而且比单个
Voodoo 2
要快两倍。
3dfx
的下一代产品是
Banshee
,按照
3dfx
的说法,
Banshee
在单纹理应用中要比
Voodoo 2
快,但是在多纹理应用中却要慢一些(例如
Quake II
)。看起来,在同
nVIDIA
的这场竞争中,情况对
3dfx
相当不利。
Riva 128ZX
伴随着春天的来临,
Matrox
发布了
G200
,
nVIDIA
也发布了
Riva 128ZX
,但是并没有提及
TNT
。
G200
由于制造商和驱动程序的问题,在
1998
年的夏天停止供货。而
128ZX
并没有受到广大消费者的青睐,相反却受到不少
OEM
厂商的欢迎。人们焦急地等待着
TNT
的到来,准备用有限的金钱去享受一下非凡的快感。终于在
98
年夏天结束之时,进行了一次
TNT
的
alpha
样品和
Banshee alpha
样品的较量,结果
Banshee
不敌
TNT
,但是分数却非常接近。一块只有
12MB
显存的
Voodoo 2
在大多数应用中居然可以和
TNT
相比,太令人吃惊了。
Voodoo 2 SLI
杀手怎么了?
TNT
显卡
TNT
最初的设计给人印象很深,它准备采用
0.35
微米制造工艺,芯片的核心频率设计为
125Mhz
,显存也可以达到这个频率。可是在研制过程中,
125Mhz
被降为
110Mhz
,然后又降到
90Mhz
,即使就是这样,由于
TNT
的复杂结构,芯片还是会产生巨大的热量(
TNT
所用的晶体管和
Pentium II
一样多)。而
Banshee
的时钟频率为
100Mhz
,最终的性能也和
TNT
非常接近,
TNT
所缺乏的是和一部分软件的兼容性。这就是
Banshee
的优点,它可以和所有为
Voodoo
系列编写的应用软件兼容。
TNT
比
Banshee
多的是一大堆的特色和一个
OpenGL ICD
支持。
第三代显卡王冠的争夺集中在
TNT
、
Banshee
、
Voodoo 2
和
G200
这四种显卡中间,
S3
发布
Savage3D
时,由于它的驱动程序实在太糟糕,所以并没有被人们考虑进入王冠争夺后选者之列。当
TNT
的驱动程序越来越成熟时,它的性能也开始超越
Voodoo 2
,但效果并不是很明显。由于在之前,
nVIDIA
对于
TNT
做了大量的宣传,可是由于
TNT
的表现太不尽人意,给它原来显得老实公司的印象蒙上了一层阴影。虽然
TNT
仍然赢得
OEM
厂商的青睐,而且它的出货量远远大于
Banshee
和
G200
,可是仍然赶不上
Voodoo 2
。当时除了听说
nVIDIA
正致力于
NV-6
和超级芯片
NV-10
的开发之外,人们没有再听到关于
nVIDIA
的任何消息。
四、霸主初登场
――TNT2
TNT2
当
1999
年
2
月,
Voodoo 3
被捧得最高之时,
nVIDIA
对外发布了
NV-6
,也就是后来的
TNT2
。他们允诺该芯片可以作到
TNT
所能完成的任何工作,而且能作得更好,同时还支持一些新的特征:
32MB
显存和
AGP 4X
等。
nVIDIA
直接将
Voodoo 3
作为竞争对手。这对于
nVIDIA
的发展方向是一个巨大的进步。
当
TNT2
最终向公众发布时,展示在人们面前的是一块非常优秀的产品,在任何一种分辨率下都能赶上
Voodoo 3
,并且还拥有更多的特色。既然
TNT2
是基于
TNT
的,因此它拥有非常成熟的驱动程序,最大的特色就是拥有极为出色的
OpenGL ICD
支持。当
Q3Test
问世时,由于极好的特征和
OpenGL ICD
支持,
TNT2
理所当然地成为首选。虽然
3dfx
适时推出了
OpenGL ICD beta
版驱动程序,但是它的功能和
TNT
系列相比太差劲了。
TNT2
成为
3dfx
的恶梦
大力神(
Hercules
现在已经退出)显卡在一段时间内成为性能最高的显卡,它的
TNT2 Ultra
核心频率可以达到
175Mhz
,显存可以达到
200Mhz
。
TNT2
也支持
32MB
显存和视频输出,这对于
OEM
合伙人来说极具魅力。基于
TNT2
芯片的产品一直保持快速的步调增长,到这年的夏天,很快就已经有许多版本的
TNT2
显卡在市场销售了,包括
TNT2 ULTRA
加强版、
TNT2
标准版、
TNT2 M64
、
TNT2 VANTA
。当华硕公司率先推出经过超频处理后的
TNT2 PRO
显卡时,
3dfx
公司可以算是败局已定了。在
1999
年中,采用
TNT2
系列芯片的显卡几乎抢占了近
80%
的显卡市场。
TNT2
赢得了广泛的市场,当时人们的目光又集中在了长久以来等待的
NV-10
身上。
NV-10
除了具有
TNT2
的所有特征之外,最重要的就是具有转换和光照处理几何引擎,它可以将
CPU
从繁重的几何运算中解脱出来,解决了
3D
图形中的两个瓶颈问题。
nVIDIA
希望借助
NV-10
结束
3D
图形和现实生活之间的差距。
五、极具历史意义的
GeForce 256
1999
年
8
月,
nVIDIA
终于正式发表了
NV-10
,就是
GeForce 256
。技术特征和以前预计的差不多,只有一件事不令人满意,就是它的时钟频率。由于它的时钟频率只有
120Mhz
,因此它的四象素纹理管道看起来要比
TNT2
的双象素纹理管道慢一些。实际上,最近采用
0.22
微米技术的
TNT2
芯片的频率可以达到
200Mhz
,它的填充速度基本上可以达到
GeForce 256
的水平。
在
6
个月以前,争论的焦点还在
16
位真彩和
32
位真彩之间,现在则转移到填充速度和几何处理上。对于这场争论,有两个统一的意见:
“
在当时的游戏中,填充速度是非常重要的;我们最后还是需要硬件
T&L
技术。
”nVIDIA
在这场论战中处于什么角色呢?很显然,他们有
T&L
,没有填充速度。
从这款显卡的出色表现中,我们清楚地看到了
NVIDIA
强大的实力。随后各大电脑厂商又推出了基于这款芯片的
DDR
版本显卡,采用了性能更为出色的
DDR
显存,这样再度提高了显卡的成本,采用了
DDR
显存的显卡虽然在性能上又再度有所提高,但是近
3000
元的价格在当时让越来越多的人望而却步了。
六、从无冕之王到绝对王者:
Geforce2
系列
Geforce2 GTs
不进步就将被淘汰。面临
S3
、
3dfx
等公司的竞争,尽快与对手拉开差距是扩大市场最有效的方法。当
S3
公司的
SAVAGE 2000
刚刚露出水面,
3dfx
公司正式宣布
VooDoo5
的时候,
nVIDIA
即公布了其下一代产品
NV15
,也就是
Geforce2 GTs
显卡,这款显卡的性能要比
Geforce256
还有近
50%
的提高,但是在价格上还是不能很好的进行控制,所以虽然人们清楚的知道这款显卡是最快最好的,但是市场上的销售主流仍然是
TNT2
系列显卡。在各厂家纷纷推出
Geforce2 GTs
显卡和基于
DDR
显存的
GTs
版本显卡后,
nVIDIA
公司的地位得以更好的巩固,慢慢的成为了显卡业界的无冕之王。
在控制高端显卡市场的同时,
nVIDIA
继续研发低端市场显卡,推出了基于
0.18
微米工艺的
TNT2 VANTA LT
芯片,但是由于这款显卡只能够支持
8MB
的显存设计,所以这款显卡在市场上的销量并不算好,为了能够更好的控制中低端市场,
nVIDIA
公司再度让世界疯狂了!
Geforce2 MX
2000
年
6
月,
nVIDIA
公司正式推出了在
Geforce2 GTs
研发基础上改良的
Geforce2 MX
显示芯片,这款芯片采用了当时最新的工艺和技术,但是价格上却低的让人难以置信,也许在美国市场价格宣布后,人们还没有什么直观的认识,当这款显卡在国内上市时,人们真的开始疯狂了,千元左右的价格,和
Geforce256 DDR
版本相当的性能,使得这款显卡成为当时性价比最高的一款显卡。
Geforce2 GTs ULTRA
在宣布了这款高性价比的
MX
芯片后,
nVIDIA
公司再度重拳出击,宣布了当时家用显卡之王
�D�DGeforce2 GTs ULTRA
,这款显卡在整体的性能上又比
Geforce2 GTs
提高了不少,虽然价格极高:
500
美元左右,但是在
Geforce2 MX
和
Geforce2 GTs ULTRA
这两个
"
栋梁
"
的支撑下,
nVIDIA
王朝将变得更加稳固,无冕之王已经变成了绝对的王者。
七、新一代霸主产生:
nVIDIA
收购
3dfx
数次与
nVIDIA
交手惨败之后,
VSA100
可谓是
3dfx
的最后赌注,这也是一款充满着争议的产品。但是上市日期一拖再拖,被喻为历史上最难产的显卡产品之一。直到此时,
3dfx
还是没有觉醒过来,在
DirectX
几乎一统天下的局面下还是坚持不开放
Glide
源代码,更斥巨资收购了
STB
来闭门造卡,使得昔日的盟友纷纷改投
nVIDIA
的门下。而最终产能严重不足的
VSA100
无法挑起拯救
3dfx
的大梁,江郎才尽的
3dfx
作出最后一击,收购
Gigapixel
公司企图获得
Microsoft
将要推出的
X-BOX
的图形芯片订单。但是兵败如山倒,
Microsoft
最终却选择了竞争对手
nVIDIA
,这个噩耗使得
3dfx
的股票大跌,奄奄一息的
3dfx
最终被
nVIDIA
收购,一代王朝宣告灭亡。
3dfx
最后的绝唱
3dfx
的失败发人深思,纵看它的发展历程,可以看出
3dfx
输掉的不是技术和资金,而是一连串企图独霸市场的错误策略,过分高估自身实力,
Glide
本身是一个很好的
API
但却因为
3dfx
想独霸技术而随它一起灭亡了;且不说它收购
STB
闭门造卡而得罪众多的板卡制造商,就连致力发展
DirectX
的
Microsoft
和大力推广
AGP
规范的
Intel
也不放在眼内,逆势而行及固步自封的短见策略令到一意孤行的
3dfx
一步一步走上了绝路。
此时一位强有力的挑战者顽强地登上了竞技舞台,这就是与
nVIDIA
针锋相对的
ATi
。作为资格较老的图形显示芯片公司,
ATi
有着它的生存之道,多年的征战也使得
ATi
累积了丰富的作战经验。在
3dfx
时代,
ATi
的
3D Rage
系列芯片虽然
3D
性能并不是十分特出,但是它却提供了很好的
DVD
回放加速功能,配合其低价策略使得它在
OEM
市场中也占有一席之位。而且凭着出色的视频及多媒体性能,使得
ATi
避免了与
3dfx
和
nVIDIA
在
3D
游戏性能方面的正面交峰,即使在零售市场,采用
3D Rage
系列芯片的显卡也一直是用户的
“
第三方
”
选择。
八、王者的尊严
――Geforce 4Ti
在及时发现来自于
ATi
的威胁之后,
nVIDIA
不仅仅是提高
GeForce2
频率来仓促应付,而是动用具有里程碑意义的
GeForce3
。在大约半年不到的时间内,
GeForce3
主宰了高端市场,而
GeForce2 MX
继续帮助
nVIDIA
抢占中低端市场份额。
ATi
顽强应战,在
Radeon 7500
在核心技术方面无法对抗
GeForce3
的情况下,及时推出了
Radeon 8500
,成为其救命稻草。作为
DirectX8
级别显卡,支持
Pixel Shader
与
Vertex Shader
是最主要的功能,而
Radeon 8500
不仅继承这些特性,还融入
TRUFORM
、
SMARTSHADER
、
SMOOTHVISION
及
HYPER-Z II
等新技术。
捍卫
nVIDIA
尊严的
GeForce4 Ti
面对
ATi
的挑战,
GeForce3
显然已经力不从心,即便是最高频率的
GeForce3 Ti500
也只能勉强与
Radeon 8500
打个平手。在这样一个关键时刻,
nVIDIA
又一次展现出其产品研发方面的强大实力,
GeForce4 Ti
凭借出色的表现捍卫了王者的尊严。
GeForce4 Ti
在
T&L
单元方面采用
nfiniteFX II
引擎,它加入了第二个
Vertex Shader
(顶点处理单元)流水线。在高工作频率下,使得
GeForce4 Ti
的处理能力有可能高于
GeForce3
将近三倍。而在全屏反锯齿方面,
GeForce4 Ti
采用新的
Accuview AA
技术,改善了取样方式并且优化了渲染的过程,可以进一步保证在高分辨率下的显示速度。显存带宽也一直是制约显卡性能的瓶颈,
GeForce4 Ti
为了摆脱瓶颈的限制,引入了
LightSpeed Memory Architecture II
(
LMA II
)光速显存构架
II
技术,它的原理就是优化渲染过程和压缩技术的采用。
GeForce4 Ti
的出现应该说令
ATi
哑口无言,因为
Radeon 8500
已经量产,而且
ATi
的产能暂时不允许研发同级别新产品。更为重要的是,当年微软即将公布
DirectX9
标准,
ATi
已经无暇顾及
DirectX8
平台的竞争。不过平心而论,
Radeon 8500
败给
GeForce4 Ti
更多的是面子问题,让
ATI
信心大收打击的是面对
GeForce4 MX
的束手无策,其后果相当严重,中低端利润大量流入竞争对手的口袋。
ATi
甚至找不到一款同级别的对抗产品。
九、与对手的
DirectX 9
之战
在
nVIDIA
的
GF4 Ti
系列风光了很长一段时间后,
ATI
高调发布了支持
DirectX 9
的
R300
核心的
Radeon 9700
,无可争议地坐上了显卡性能王者的宝座,更重要的是重新点燃了
ATI
与
nVIDIA
决战的信心。
面对
ATI
的进攻,
nVIDIA
毫不犹豫地选择了还击,但一直以六个月为产品开发周期的
nVIDIA
却偏偏在这个节骨眼上跟不上自己制定的步伐。原计划在
2002
年秋季发布的
NV30
一拖再拖,直到
11
月份才发布芯片,但是却因为一些细节问题甚至直到
2003
年才推出成品。
NV30
核心的
GeForce FX5800
系列史无前例地配备
8
条渲染管线,这也自然表现出比
FX5600/5700
等更好的性能。然而对比同时代的
ATi Radeon 9700
系列,
nVIDIA
并没有什么优势,关键原因就在于显存配置方面,渴望时刻保持领先的
nVIDIA
在
GeForce FX5800 Ultra
中选择了尚未普及的
DDR2
显存。然而遗憾的是,这也成为
NV30
的一大败笔。
GDDR2
不仅因为成本问题难以普及,其自身的技术也并不成熟。
误入
GDDR2
泥沼的
FX5800
在
GeForce FX5800 Ultra
中,
8
枚
GDDR2
显存芯片需要消耗
28W
功耗,而且造成了巨大的发热量。撇开为了散热而带来的成本问题不谈,即便是恼人的噪音问题都已经让
nVIDIA
尴尬不已,这也注定
NV30
不会取得类似于其前辈们的成功。当我们见到带有水冷散热以及外置电源的
GeForce FX5800 Ultra
显卡时,或许更多的感觉不是赞叹,而是一种莫名的悲哀。如果说
GDDR2
显存为
NV30
带来出色的性能也就罢了,然而位宽仅仅
128Bit
的
GDDR2
显存很大程度上成为性能发挥的瓶颈。在使用频率为
1GHz
的
GDDR2
显存时,
16GB/s
的带宽却是令人难以完全满意,与
ATi Radeon 9700 Pro
相比落下不少。
尽管
GeForce FX5800
并不算成功,但是面向中低端市场的
GeForce FX5200
以及
FX5600
等一系列面向中低端的产品还是能让
nVIDIA
保持着较大的市场份额。
GeForce FX5800
和
Radeon 9700
的交锋让双方充满了火药味,双方不约而同地选择了重整旗鼓。
FX5800
显然是让人的失望的。面对
Radeon 9800Pro
的
Smoothvision 2.1
,
FX5800
显得较为单薄,似乎在吃
GeForce4
时代
Accuview
抗锯齿引擎的老本。
坐吃山空自然就会被动挨打,因此
nVIDIA
为最新的
FX5900
装配了
Intellisample HTC
技术,有效改善了全屏抗锯齿以及各向异性过滤的效果。与
FX5800
所使用的
Intellisample
技术相比,
Intellisample HTC
技术增加了更多的高级纹理、色彩以及
Z
轴压缩算法以提升图象质量,
1
:
4
的无损压缩技术也在显存带宽提升的帮助下得到了更好的发挥。此外,
Intellisample HTC
技术还很大程度上改善了显存带宽的利用率,这一点与
ATi
的
HyperZ
技术十分类似。事实上,如果
NV35
不对
Intellisample
技术进行改进的话,其改用
256Bit GDDR1
之后的显存带宽提升将被无情地浪费。如果说
Intellisample HTC
技术令人难以信服的话,那么
Ultra Shadow
光影技术绝对没有任何猫腻,可谓是
FX5900
真正让人眼睛一亮的闪光点。
Ultra Shadow
光影技术可以进行大量阴影处理的硬件加速功能,从而改善
3D
画面的效果。而且已经有多款游戏采用了这一技术,并获得了很不错的效果。
FX5900
帮助
nVIDIA
迅速走出困境
在现实生活中,光源前面只要有物体遮挡就会有阴影。而在
3D
游戏中,为了表达这一
“
简单
”
的现象就不得不用去程序员大量的尽力以及硬件资源,这也直接造成
3D
游戏画面不够真是,缺乏动感。精确上的阴影表现效果是创造真实场景的关键因素,多光源与数量众多的对象以及角色之间的互动需要多次循环编程,而且更为复杂的方面还在于每一帧中的每一个光源都必须根据每个对象进行计算。
Ultra Shadow
技术的魅力在于能够大大加快这一实现过程,程序员能够在场景内定义一个固定区域,计算此区域内光源对物体产生的效果,预先排除不需要进行计算的区域。由于
Ultra Shadow
技术提高了光影计算的速度,同时又将程序员从繁琐低效的工作中解放出来,因此这项技术很被看好,业界甚至将其地位与经典的
T&L
、
VertexShader
以及
PixelShader
相提并论。
GeForce FX5900
与
Radeon 9800
应该说打成平手,即便是后期的
GeForce FX5950 Ultra
与
Radeon 9800XT
也仅仅是主频上的低层次较量。
相对而言,更为让人关注的还是
Radeon 9600
与
GeForce 5700
系列的对抗。同样作为面向中端市场的简化版产品,
Radeon 9600
在频率相同时有着比
GeForce 5700
系列更好的性能。此外,
ATi
还专门针对中国市场推出了
Radeon 9550
,再加上显卡厂商的鼎立支持,超频之后甚至达到超越
Radeon 9600XT
的性能。
Radeon 9550
第一次让
nVIDIA
感受在中低端市场的切肤之痛,
GeForce 5700 Ultra
的成本没能很好地控制,因而很难对抗
Radeon 9550
。
十、帝国保卫战:
Geforce 6
系列驰骋于
PCI Express
平台
2004
年
4
月一声春雷,
NV40
将
DirectX 9.0c
以及
Shader Model 3.0
规范带到大家的眼前。
NVIDIA PCI-E
显卡也随即进入了
GeForce 6
时代,和
GeForce FX
时代不同,
2004
年是
PCI-Express
标准大普及的一年。
i915P/i925X
价格的急速下降和
nForce 4
系列芯片组的上市让
PCI-Express
有了广阔的市场利益空间和技术应用层面。
从
nVIDIA
对待
GeForce FX5700
系列的态度不难看出它已经提前放弃了
NV3X
,
GeForce 6
阵营才是其真正看重的产品。客观而言,
GeForce 6
系列确是成功的产品,也让继
3dfx
后的新一代霸主
nVIDIA
保住了颜面与市场。而且拿出了
3dfx
时代的
SLI
技术让
GeForce 6
系列的高端产品轻易地登上了平台性能的宝座,就算中低端产品也对解禁了对
SLI
的支持,无疑增加了更多的噱头。
虽然早期上市的旗舰级
GeForce 6800
依然采用了
AGP
界面,但定位稍低,基于原生
PCI-E
芯片的
GeForce 6600
随后就马上出现在零售市场,使得
PCI-Express
显卡的普及有了实质性的飞跃。相当一部分玩家对
PCI-E
显卡的了解,也是从这个时候开始的。
Geforce 6
而竞争对手
ATi
则将产品线拉得很长,
Radeon 9550
演变而来的
X300
、
X550
以及
X600
进驻中低端
PCI Express
平台,而
X700
作为高端
X800
系列的简化版来与
nVIDIA
进行中高端的角逐。
低端竞争:
GeForce 6200
系列
Vs X300
系列:
GeForce 6200
除了内核仅有
4
条像素渲染流水线外,其架构与
GeForce 6800
系列相比所发生的变化还算不是很大。最明显的区别应该是其显存控制器不支持
Color-compression
(色彩压缩)和
Z-compression
(
Z
压缩)压缩技术。色彩压缩功能可以实时将色彩数据以
6:1
的比例做无失真压缩,在很多情况下,所有多边形边缘的色彩数据都能够彻底进行压缩,缺少这一功能对于整体性能的影响还是有一点。与此同时,
Z
压缩技术对于减轻显存负担也有很大的帮助,缺少这一功能导致
GeForce 6200
在启用全屏抗锯齿或是各向异性过滤时的性能带来负面影响。
然而值得肯定的是,
GeForce 6200
系列支持
CineFX 3.0
引擎,而且
Shader Model 3.0
、
64
位纹理混合过滤、
32bit
象素着色渲染精度也一应俱全,甚至第二代
UltraShadow
阴影渲染优化技术也融入其中,并且完整支持
DirectX 9.0c
。与上一代的
GeForce FX5200
相比,
GeForce 6200
系列的缩水程度显然不是很明显,因此其性价比还是值得肯定。相比之下,
RV350
尽管也是四条渲染管线,但是核心技术已经落后
GeForce 6200
整整一代。
具备
TurboCache
技术的
GF 6200TC
在频率以及显存位宽相同的情况下,
GeForce 6200
的整体表现还是强于
Radeon 9550
。在
PCI Express
平台,所谓的
“X300
-
X550
-
X 600”
阵营其实仅仅是主频变化,而
nVIDIA
的
GeForce 6200
系列则衍生出只能支持
64bit
显存位宽的
GeForce 6200A
以及具备
Turbo Cache
显存优化技术的
GeForce 6200TC
。从这一层面来看,
nVIDIA
显然更为灵活。也许目前
nVIDIA
的
GeForce 6200
还没能展现出性价比优势,但随着价格逐步调整,今后的市场表现力将会得到加强。
中端竞争:
GeForce 6600
系列让
nVIDIA
称霸中端
如果说
2004
年的
9550
让
ATI
称霸低端市场的话,那么
GF6600
则是
2005
年
nVIDIA
的中端之王。
GeForce 6600
系列分为三大版本:
GeForce 6600LE
、
GeForce 6600
标准版以及
GeForce 6600GT
,其中最特殊的当属
GeForce 6600LE
。
NV43-V
核心的
GeForce 6600LE
只有
4
条渲染管线,因此严格意义上来说属于
GeForce 6200
级别的产品,应该说面向中低端的定位会更加合理。但是
GeForce 6600LE
最大的特色是
nVIDIA
不再对核心显存规格进行限制,花样尽出的厂商可以把
GF6600LE
武装成多种角色,这也使得
GF6600LE
具有相当复杂的产品线,同时也会因此而拥有较强的生命力。
可以
SLI
工作的
GeForce 6600LE
NV43
:第一款真正意义上的原生
PCI-E
显卡
NV43
核心
GeForce 6600
有两种规格:
GeForce 6600GT
和
GeForce 6600
标准版。其中
GT
版性能更强,其核心显
/
存频率达到
500/1000MHz
,采用
GDDR3
显存。而
GeForce 6600
标版频率为
300MHz/500
。在目前发布的产品,两者还有一点不同,那就是
GeForce 6600GT
可以硬件支持
nVIDIA SLI
技术。
GeForce 6600
系列的
NV43
核心
但是
nVIDIA
在面对
ATi
发布的
CrossFire
技术时也开始有所改变,其正式宣布
GeForce 6600
标准版可以驱动支持
SLI
技术,也有可能授权
VIA
的
DualGFX
芯片组(
PT894 Pro
与
K8T890 Pro
)。而厂商们也开始采用不同显存规格产品的
6600
,使得
6600
的战斗力也越来越强。
nVIDIA
的
SLI
技术令
ATi
疲于应付
十一、再接再厉:
Geforce 7
系列
2005
年是名副其实的
DirectX 9.0c
之年,就连一直在对
DirectX 9.0c
的支持上慢半拍的
ATI
也在这一年的年末将自己的全线产品带入了
SM3.0
的时代。凭借着对业界的敏锐嗅觉和对新技术的执着,
NVIDIA
在
2005
年的夏天强势推出了
GeForce 7
,将在
GeForce 6
时代积累的优势进一步扩大,并和
Radeon X1000
系列展开更加激烈的竞争。
从产品的技术上看,
GeForce 7
的推出,并没有带来像之前
GeForce FX
时代跨入到
GeForce 6
那样的震撼。但技术前进的脚步并不会停止,
GeForce 7
的推出很好的向人们展示了
NVIDIA
对技术的深厚理解和消费者心理的良好把握,
GeForce 7
也造就了
NVIDIA
显卡史上最丰富的产品线(包括
AGP
产品)。
GeForce 7800GTX
首款上市的
GeForce 7800GTX
依然采用了成熟的
110nm
工艺,在
NV40
的基础上增加了透明抗锯齿能诸多新技术,占据了显卡性能之王半年之久。
2006
年
2
月后,价格更低的
GeForce 7300/7100
相继出现在市场上,低端的
7300GT
更是将
nVIDIA
强大的市场操作手段体现的淋漓尽致。
2006
年
3
月,随着
GeForce 7900/7600
系列
GPU
的发布,
nVIDIA 7
系列显示核心形成了较为完整的高中低端产品线,并全部实现了
90nm
化。
新的制程工艺,使
GeForce 7900/7600
系列显卡制造成本相对降低,频率提升同时功耗水平显著降低。另外,
GeForce 7900GTX/7900GT/7600GT GPU
都能够支持双头
2560x1600
高分辨率显示,而
PureVideo
也借
84.12
版
H.264 Forceware
程序得到性能提升,这意味着
nVIDIA
在对大屏幕和高清视频的软硬件支持方面更进了一步。
同时,
nVIDIA
还展示了定位于超高端的
Quad SLI
技术。这种极具震撼力的技术采用
4
块
GPU
协同运作,最高能够实现
32x AA
,提供了比双
GPU SLI
更高的图像质量和速度表现,为适应未来的高端超负荷运算奠定了基础。
2006
年
5
月,
nVIDIA
发布号称是当时
“
世界上最快的单一模式显卡
”――7950 GX2
。该款
nVIDIA 7950 GX2
显卡包含两个
7900 GTX GPU
,核心频率为
500MHz
,
1GB GDDR3 SDRAM
(每个核心
512MB
),内存频率为
600MHz
(
1.2GHz
有效)。
7950GX2
该款
nVIDIA 7950 GX2
显卡具有两个插槽,可以提供两个
dual-link DVI
输出,还配备一个
HD
兼容
TV
输出端口,并且支持
HDCP
反盗版系统。运行在
1600x1200 4x/8x
相对于
GeForce 7900 GTX
有了
15
-
80%
的性能提升。
十二、帝国时代无可争议的王者:
GeForce 8800
系列
如果说,在
GeForce 7
时代,
NVIDIA
还有值得畏惧的竞争对手,那么到了
GeForce 8
时代,
NVIDIA
进入了一个无对手的
“
帝国时代
”
。随着
2006
年秋季
ATI
被
AMD
的收购,行业巨头之间的关系出现了微妙的变化。图形芯片领域,由之前的双雄争霸变成了一家独大,而这一形势又随着代号
G80
的
GeForce 8800
显卡的上市而逐渐明朗和被人们所认同,以至于有人说是
“
怪兽来了
”
。
“
半年更新、一年换代
”――
这就是能与
“
摩尔定律
”
相提并论的
“
黄氏定律
”
!回顾近年来
NVIDIA
高端产品的发展历程,几乎半年一次的新产品更替速度不仅让竞争对手疲于应付,每一次性能
/
功能的提升则更加巩固了
NVIDIA
在全球图形领域
NO.1
的王者地位,先发制人的策略更是有效提升了高端产品的销量!
GeForce 8800GTS
GeForce 8800GTX
2006 年11 月8 日 ,NVIDIA
推出了第
8
代,也是其第
4
代
PCI-E
显卡:
GeForce 8800GTX/GTS
。
DX10
第一卡的美誉已经花落
NVIDIA
。
2007 年4 月18 日 ,nVIDIA
发布了新款
DirectX 10
级别图形核心
GeForce 8600 GTS
,
8600 GT
和
8500 GT
。该系列主流产品提供对
Shader Model 4.0
、
GigaThread
技术以及
nVIDIA Quantum Effects
物理处理技术的支持。
nVIDIA Lumenex
引擎的引入则实现了
128
位浮点高动态范围光照和
16x
抗锯齿效果。
新的主流旗舰产品
GeForce 8600 GTS
将接替
GeForce 7900 GS
的位置。在产品定位上,它紧跟
GeForce 8800 GTS 320MB
。基于
GeForce 8600 GTS
的显卡产品内建
32
个流处理器,运行频率为
1.45GHz
。
nVIDIA
推荐的显卡核心及显存频率分别为
675MHz
和
1.0GHz
。
GeForce 8600 GT
产品同样拥有
32
个流处理器,但运行频率降为
1.18GHz
。推荐的核心及显存频率分别为
540MHz
和
700MHz
。
GeForce 8500 GT
是主流产品线的最底端型号。
8500 GT
内建
16
个流处理器,频率为
900MHz
。核心及显存的推荐频率为
450MHz
和
400MHz
。
以上三个型号均采用了
nVIDIA
的
PureVideo HD
视频处理技术。
PureVideo HD
技术提供对
H.264
,
VC-1
,
MPEG-2
高分辨率及标准分辨率视频格式的硬件加速。
2007 年5 月2 日 ,nVIDIA
抢在
ATI
发布
R600
之前正式发布其新款旗舰级显卡
8800Ultra
,至此
GeForce 8
系列的高中低端全线产品均已部署完毕。
GeForce 8800Ultra
实际上
8800Ultra
与
8800GTX
并没有本质区别,
NVIDIA
通过大幅提升频率的方式再次提高了顶级显卡的性能表现。但是大家千万不要认为这只是简单的官方超频而已,
8800Ultra
和
GTX
相比硬件配置方面有了很大的改进。
G80
带来前所未有的设计,统一
Shader
架构(
Unified Shader
)带来强劲的性能。
G80
完全硬件支持
DirectX10
的各项先进特性,例如
Geometry Shaders
、
stream out
、
Improved instancing
和
Shader Modle4.0
,支持这些特性使得
Geforce8800 GPU
拥有极高性能。所有的
DirectX9
、
OpenGL
和先前的
DirectX
程序和游戏在
Geforce8800 GPU
的
Unified
设计都有高性能的演出。具备
128
个
Unified Shader
的
8800GTX
具备万亿浮点处理能力(
Teraflops of floating point
)。
GigaThread
技术应用在
G80
,支持数千个线程并行运行。高品质的各向异性过滤、高效的
Early
-
Z
技术和动态分支、高达
86.4GB/S
的恐怖显存带宽。
G80
拥有足够强大马力应付在
XHD
分辨率和高画面质量设定下畅快进行游戏,
16xAA
所带来的效果也仅仅是带来相当于
4xAA
所带来的系统花销。
SLI
技术会带来接近翻倍性能的提升的表现。
128bit
精度的
HDR
和
16x
抗锯齿的结合带来顶级画质。内建的
PureVideo HD
功能的
G80
可以在低
CPU
占用率上面确保流畅完美的
HD
和
SD Playback
回放。有效的功耗占用和管理给
Geforce8800
带来更好的
Performance per watt
(每瓦特性能)和
Performance per square millimeter
(每平方毫米效能)表现。
虽然
ATI
(确切地说是
AMD
)在
2007
年
5
月带来了
R600
,但是其高端的
HD X2900XT
的总体表现多多少少令
AMD-ATI
的支持者们感到失望。人们期待着
AMD-ATI
下一款产品能有所发挥,以挽回当前的劣势。但是螳螂捕蝉,黄雀在后,或许采用更先进技术的
G92
已经悄然待发了。时间会证明一切目前
NVIDIA
还是牢牢占据绝对优势,不是吗?