光阴似箭——绿巨人NVIDIA显卡发展简史回顾<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />
转自ChipHell论坛heyuanming帖子
1993年,Jen-Hsun Huang(黄仁勋)、Curtis Priem和Chris Malachowsky决定成立一个新的图形开发公司,在当时也许是一个很不起眼的事情,可是历史证明,从那时注定今天会出现一个举世闻名的显示芯片制造商——nVIDIA。他们当时的梦想也非常简单——研制世界最先进的图形加速芯片。
<?xml:namespace prefix = v ns = "urn:schemas-microsoft-com:vml" />
一、初遇挫折
nVIDIA公司的第一个产品是NV-1,这是一个好的开始,但是距离成功还很遥远。Diamond选用了该芯片,制造了非常不受欢迎的Diamond Edge显示卡。nVIDIA自认为可以做些与众不同的事情,于是用四边形代替了传统的三角形加速方案,可是对于nVIDIA和Diamond,这个转变都非常不受欢迎。可以说NV-1是个失败,甚至连Jen-Hsun Huang也这样认为。
nVIDIA并没有因为NV-1的失败而停止,他们接受了一家第三方公司的委托,为该公司研制NV-2。在接受了NV-1教训的基础上,nVIDIA在NV-2的研制策划上花费了相当大的工夫。可是由于各种原因,这家公司放弃了对NV-2的支持,没有了资金援助,NV-2的研制计划进入了暂停阶段。当时的nVIDIA已经身无分文,虽然他们已经有一个半产品,但是却没有给他们带来丝毫效益。看起来nVIDIA也会象其它一些刚刚开始的显示芯片公司一样,注定要从此消失了。
就在这时,nVIDIA启用了极具天才的David Kirk,开始重新研制NV-3。NV-3的目标是成为当时最先进的图形芯片,并准备在一个芯片中集成优秀的2D和3D性能。在1995年,3dfx发布了公司创立以来的第一个产品——Voodoo,并赢得了广泛的欢迎。而Rendition在稍微早些于3dfx的时候也发布了V1000芯片,而且已经被几大显卡厂家采用,销售量最后直逼Voodoo,成为第二家受欢迎的产品。在这个时候,nVIDIA必须找一个恰当的时机切入市场。
二、苦尽甘来:创时代的Riva 128
Riva 128
1998年2月,nVIDIA推出了创时代的芯片Riva 128,这款芯片将AGP显卡的概念真正的带入到电脑业界中,因为在这款显卡上市以前的AGP显卡可以说只能是试验产品,几乎没有任何3D加速功能,而这款Riva 128的上市,让人们看到了AGP显卡的前景,而也就是这款显卡开始了nVIDIA和3dfx的业界王者之争。Riva 128的2D性能非常接近当时2D性能的杰出代表Matrox,虽然它的3D性能也相当不错。由于Voodoo加速卡采用的PCI接口,而在那个时候,PCI的工艺要远远强于AGP,所以Riva 128在整体的表现上逊色于Voodoo,但是它的出现给Voodoo显卡带来了很大的威胁,也同时表明了nVIDIA称雄显卡业界的决心。
1998年底,Riva 128成为众多OEM厂商的喜爱之物。于是市上出现了一种集成了快速2D和3D核心、并能充分展示AGP强大能力的显示卡。一些大公司DELL、Gateway等纷纷采用由STB和Diamond制造的Riva 128显卡。由于Diamond的OEM声望,Riva 128的出货量比3dfx和Rendition加起来还多。这是nVIDIA公司一个巨大的成功,从而也积聚了足够的资金来发展他们下一代的产品,它们就是128ZX和TNT。
三、激烈的碰撞
1997年冬季结束时,nVIDIA宣称将发布Riva 128ZX和“Voodoo 2杀手”——TNT(128位双纹理结构)。Riva 128ZX对Riva 128做了根本性的改变,它最大支持8MB的显存,并支持AGP 2X,而且在提高视觉效果的同时也加快了速度。TNT则是大家都热切期盼的产品。
虽然Riva 128ZX可以支持8MB的显存和更大的理论显示带宽,但是它极差的软硬件兼容性使得这款芯片根本无从作为,很快的淡出了市场。
nVIDIA宣称TNT不仅仅是Voodoo 2杀手,也是Voodoo 2 SLI的终结者。这是3D显示芯片第二大制造商的重要举措,它所包含的新技术要比Voodoo 2多得多,而且比单个Voodoo 2要快两倍。3dfx的下一代产品是Banshee,按照3dfx的说法,Banshee在单纹理应用中要比Voodoo 2快,但是在多纹理应用中却要慢一些(例如Quake II)。看起来,在同nVIDIA的这场竞争中,情况对3dfx相当不利。
Riva 128ZX
伴随着春天的来临,Matrox发布了G200,nVIDIA也发布了Riva 128ZX,但是并没有提及TNT。G200由于制造商和驱动程序的问题,在1998年的夏天停止供货。而128ZX并没有受到广大消费者的青睐,相反却受到不少OEM厂商的欢迎。人们焦急地等待着TNT的到来,准备用有限的金钱去享受一下非凡的快感。终于在98年夏天结束之时,进行了一次TNT的 alpha 样品和Banshee alpha 样品的较量,结果Banshee不敌TNT,但是分数却非常接近。一块只有12MB显存的Voodoo 2在大多数应用中居然可以和TNT相比,太令人吃惊了。Voodoo 2 SLI杀手怎么了?
TNT显卡
TNT最初的设计给人印象很深,它准备采用0.35微米制造工艺,芯片的核心频率设计为125Mhz,显存也可以达到这个频率。可是在研制过程中,125Mhz被降为110Mhz,然后又降到90Mhz,即使就是这样,由于TNT的复杂结构,芯片还是会产生巨大的热量(TNT所用的晶体管和Pentium II一样多)。而Banshee 的时钟频率为100Mhz,最终的性能也和TNT非常接近,TNT所缺乏的是和一部分软件的兼容性。这就是Banshee的优点,它可以和所有为Voodoo系列编写的应用软件兼容。TNT比Banshee多的是一大堆的特色和一个OpenGL ICD支持。
第三代显卡王冠的争夺集中在TNT、Banshee、Voodoo 2和G200这四种显卡中间,S3发布Savage3D时,由于它的驱动程序实在太糟糕,所以并没有被人们考虑进入王冠争夺后选者之列。当TNT的驱动程序越来越成熟时,它的性能也开始超越Voodoo 2,但效果并不是很明显。由于在之前,nVIDIA对于TNT做了大量的宣传,可是由于TNT的表现太不尽人意,给它原来显得老实公司的印象蒙上了一层阴影。虽然TNT仍然赢得OEM厂商的青睐,而且它的出货量远远大于Banshee 和G200,可是仍然赶不上Voodoo 2。当时除了听说nVIDIA正致力于NV-6和超级芯片NV-10的开发之外,人们没有再听到关于nVIDIA的任何消息。
四、霸主初登场——TNT2
TNT2
当1999年2月,Voodoo 3被捧得最高之时,nVIDIA对外发布了NV-6,也就是后来的TNT2。他们允诺该芯片可以作到TNT所能完成的任何工作,而且能作得更好,同时还支持一些新的特征:32MB显存和AGP 4X等。nVIDIA直接将Voodoo 3作为竞争对手。这对于nVIDIA的发展方向是一个巨大的进步。
当TNT2最终向公众发布时,展示在人们面前的是一块非常优秀的产品,在任何一种分辨率下都能赶上Voodoo 3,并且还拥有更多的特色。既然TNT2是基于TNT的,因此它拥有非常成熟的驱动程序,最大的特色就是拥有极为出色的OpenGL ICD支持。当Q3Test问世时,由于极好的特征和OpenGL ICD支持,TNT2理所当然地成为首选。虽然3dfx适时推出了OpenGL ICD beta版驱动程序,但是它的功能和TNT系列相比太差劲了。
大力神(Hercules 现在已经退出)显卡在一段时间内成为性能最高的显卡,它的TNT2 Ultra核心频率可以达到175Mhz,显存可以达到200Mhz 。TNT2也支持32MB显存和视频输出,这对于OEM合伙人来说极具魅力。基于TNT2芯片的产品一直保持快速的步调增长,到这年的夏天,很快就已经有许多版本的TNT2显卡在市场销售了,包括TNT2 ULTRA加强版、TNT2标准版、TNT2 M64、TNT2 VANTA。当华硕公司率先推出经过超频处理后的TNT2 PRO显卡时,3dfx公司可以算是败局已定了。在1999年中,采用TNT2系列芯片的显卡几乎抢占了近80%的显卡市场。
TNT2赢得了广泛的市场,当时人们的目光又集中在了长久以来等待的NV-10身上。NV-10除了具有TNT2的所有特征之外,最重要的就是具有转换和光照处理几何引擎,它可以将CPU从繁重的几何运算中解脱出来,解决了3D图形中的两个瓶颈问题。nVIDIA希望借助NV-10结束3D图形和现实生活之间的差距。
五、极具历史意义的GeForce 256
1999年8月,nVIDIA终于正式发表了NV-10,就是GeForce 256。技术特征和以前预计的差不多,只有一件事不令人满意,就是它的时钟频率。由于它的时钟频率只有120Mhz,因此它的四象素纹理管道看起来要比TNT2的双象素纹理管道慢一些。实际上,最近采用0.22微米技术的TNT2芯片的频率可以达到200Mhz,它的填充速度基本上可以达到GeForce 256的水平。
在6个月以前,争论的焦点还在16位真彩和32位真彩之间,现在则转移到填充速度和几何处理上。对于这场争论,有两个统一的意见:“在当时的游戏中,填充速度是非常重要的;我们最后还是需要硬件T&L技术。”nVIDIA在这场论战中处于什么角色呢?很显然,他们有T&L,没有填充速度。
从这款显卡的出色表现中,我们清楚地看到了NVIDIA强大的实力。随后各大电脑厂商又推出了基于这款芯片的DDR版本显卡,采用了性能更为出色的DDR显存,这样再度提高了显卡的成本,采用了DDR显存的显卡虽然在性能上又再度有所提高,但是近3000元的价格在当时让越来越多的人望而却步了。
六、从无冕之王到绝对王者:Geforce2系列
Geforce2 GTs
不进步就将被淘汰。面临S3、3dfx等公司的竞争,尽快与对手拉开差距是扩大市场最有效的方法。当S3公司的SAVAGE 2000刚刚露出水面,3dfx公司正式宣布VooDoo5的时候,nVIDIA即公布了其下一代产品NV15,也就是Geforce2 GTs显卡,这款显卡的性能要比Geforce256还有近50%的提高,但是在价格上还是不能很好的进行控制,所以虽然人们清楚的知道这款显卡是最快最好的,但是市场上的销售主流仍然是TNT2系列显卡。在各厂家纷纷推出Geforce2 GTs显卡和基于DDR显存的GTs版本显卡后,nVIDIA公司的地位得以更好的巩固,慢慢的成为了显卡业界的无冕之王。
在控制高端显卡市场的同时,nVIDIA继续研发低端市场显卡,推出了基于0.18微米工艺的TNT2 VANTA LT芯片,但是由于这款显卡只能够支持8MB的显存设计,所以这款显卡在市场上的销量并不算好,为了能够更好的控制中低端市场,nVIDIA公司再度让世界疯狂了!
2000年6月,nVIDIA公司正式推出了在Geforce2 GTs研发基础上改良的Geforce2 MX显示芯片,这款芯片采用了当时最新的工艺和技术,但是价格上却低的让人难以置信,也许在美国市场价格宣布后,人们还没有什么直观的认识,当这款显卡在国内上市时,人们真的开始疯狂了,千元左右的价格,和Geforce256 DDR版本相当的性能,使得这款显卡成为当时性价比最高的一款显卡。
在宣布了这款高性价比的MX芯片后,nVIDIA公司再度重拳出击,宣布了当时家用显卡之王――Geforce2 GTs ULTRA,这款显卡在整体的性能上又比Geforce2 GTs提高了不少,虽然价格极高:500美元左右,但是在Geforce2 MX和Geforce2 GTs ULTRA这两个"栋梁"的支撑下,nVIDIA王朝将变得更加稳固,无冕之王已经变成了绝对的王者。
七、新一代霸主产生:nVIDIA收购3dfx
数次与nVIDIA交手惨败之后,VSA100可谓是3dfx的最后赌注,这也是一款充满着争议的产品。但是上市日期一拖再拖,被喻为历史上最难产的显卡产品之一。直到此时,3dfx还是没有觉醒过来,在DirectX几乎一统天下的局面下还是坚持不开放Glide源代码,更斥巨资收购了STB来闭门造卡,使得昔日的盟友纷纷改投nVIDIA的门下。而最终产能严重不足的VSA100无法挑起拯救3dfx的大梁,江郎才尽的3dfx作出最后一击,收购Gigapixel公司企图获得Microsoft将要推出的X-BOX的图形芯片订单。但是兵败如山倒,Microsoft最终却选择了竞争对手nVIDIA,这个噩耗使得3dfx的股票大跌,奄奄一息的3dfx最终被nVIDIA收购,一代王朝宣告灭亡。
3dfx的失败发人深思,纵看它的发展历程,可以看出3dfx输掉的不是技术和资金,而是一连串企图独霸市场的错误策略,过分高估自身实力,Glide本身是一个很好的API但却因为3dfx想独霸技术而随它一起灭亡了;且不说它收购STB闭门造卡而得罪众多的板卡制造商,就连致力发展DirectX的Microsoft和大力推广AGP规范的Intel也不放在眼内,逆势而行及固步自封的短见策略令到一意孤行的3dfx一步一步走上了绝路。
此时一位强有力的挑战者顽强地登上了竞技舞台,这就是与nVIDIA针锋相对的ATi。作为资格较老的图形显示芯片公司,ATi有着它的生存之道,多年的征战也使得ATi累积了丰富的作战经验。在3dfx时代,ATi的3D Rage系列芯片虽然3D性能并不是十分特出,但是它却提供了很好的DVD回放加速功能,配合其低价策略使得它在OEM市场中也占有一席之位。而且凭着出色的视频及多媒体性能,使得ATi避免了与3dfx和nVIDIA在3D游戏性能方面的正面交峰,即使在零售市场,采用3D Rage系列芯片的显卡也一直是用户的“第三方”选择。
八、王者的尊严——Geforce 4Ti
在及时发现来自于ATi的威胁之后,nVIDIA不仅仅是提高GeForce2 频率来仓促应付,而是动用具有里程碑意义的GeForce3。在大约半年不到的时间内,GeForce3主宰了高端市场,而GeForce2 MX继续帮助nVIDIA抢占中低端市场份额。ATi顽强应战,在Radeon 7500在核心技术方面无法对抗GeForce3的情况下,及时推出了Radeon 8500,成为其救命稻草。作为DirectX8级别显卡,支持Pixel Shader与Vertex Shader是最主要的功能,而Radeon 8500不仅继承这些特性,还融入TRUFORM、SMARTSHADER、SMOOTHVISION及HYPER-Z II等新技术。
捍卫nVIDIA尊严的GeForce4 Ti
面对ATi的挑战,GeForce3显然已经力不从心,即便是最高频率的GeForce3 Ti500也只能勉强与Radeon 8500打个平手。在这样一个关键时刻,nVIDIA又一次展现出其产品研发方面的强大实力,GeForce4 Ti凭借出色的表现捍卫了王者的尊严。GeForce4 Ti在T&L单元方面采用nfiniteFX II引擎,它加入了第二个Vertex Shader(顶点处理单元)流水线。在高工作频率下,使得GeForce4 Ti的处理能力有可能高于GeForce3将近三倍。而在全屏反锯齿方面,GeForce4 Ti采用新的Accuview AA技术,改善了取样方式并且优化了渲染的过程,可以进一步保证在高分辨率下的显示速度。显存带宽也一直是制约显卡性能的瓶颈,GeForce4 Ti为了摆脱瓶颈的限制,引入了LightSpeed Memory Architecture II(LMA II)光速显存构架II技术,它的原理就是优化渲染过程和压缩技术的采用。
GeForce4 Ti的出现应该说令ATi哑口无言,因为Radeon 8500已经量产,而且ATi的产能暂时不允许研发同级别新产品。更为重要的是,当年微软即将公布DirectX9标准,ATi已经无暇顾及DirectX8平台的竞争。不过平心而论,Radeon 8500败给GeForce4 Ti更多的是面子问题,让ATI信心大收打击的是面对GeForce4 MX的束手无策,其后果相当严重,中低端利润大量流入竞争对手的口袋。ATi甚至找不到一款同级别的对抗产品。
九、与对手的DirectX 9之战
在nVIDIA的GF4 Ti系列风光了很长一段时间后,ATI高调发布了支持DirectX 9的R300核心的Radeon 9700,无可争议地坐上了显卡性能王者的宝座,更重要的是重新点燃了ATI与nVIDIA决战的信心。
面对ATI的进攻,nVIDIA毫不犹豫地选择了还击,但一直以六个月为产品开发周期的nVIDIA却偏偏在这个节骨眼上跟不上自己制定的步伐。原计划在2002年秋季发布的NV30一拖再拖,直到11月份才发布芯片,但是却因为一些细节问题甚至直到2003年才推出成品。NV30核心的GeForce FX5800系列史无前例地配备8条渲染管线,这也自然表现出比FX5600/5700等更好的性能。然而对比同时代的ATi Radeon 9700系列,nVIDIA并没有什么优势,关键原因就在于显存配置方面,渴望时刻保持领先的nVIDIA在GeForce FX5800 Ultra中选择了尚未普及的DDR2显存。然而遗憾的是,这也成为NV30的一大败笔。GDDR2不仅因为成本问题难以普及,其自身的技术也并不成熟。
误入GDDR2泥沼的FX5800
在GeForce FX5800 Ultra中,8枚GDDR2显存芯片需要消耗28W功耗,而且造成了巨大的发热量。撇开为了散热而带来的成本问题不谈,即便是恼人的噪音问题都已经让nVIDIA尴尬不已,这也注定NV30不会取得类似于其前辈们的成功。当我们见到带有水冷散热以及外置电源的GeForce FX5800 Ultra显卡时,或许更多的感觉不是赞叹,而是一种莫名的悲哀。如果说GDDR2显存为NV30带来出色的性能也就罢了,然而位宽仅仅128Bit的GDDR2显存很大程度上成为性能发挥的瓶颈。在使用频率为1GHz的GDDR2显存时,16GB/s的带宽却是令人难以完全满意,与ATi Radeon 9700 Pro相比落下不少。
尽管GeForce FX5800并不算成功,但是面向中低端市场的GeForce FX5200以及FX5600等一系列面向中低端的产品还是能让nVIDIA保持着较大的市场份额。
GeForce FX5800和Radeon 9700的交锋让双方充满了火药味,双方不约而同地选择了重整旗鼓。FX5800显然是让人的失望的。面对Radeon 9800Pro的Smoothvision 2.1,FX5800显得较为单薄,似乎在吃GeForce4时代Accuview 抗锯齿引擎的老本。
坐吃山空自然就会被动挨打,因此nVIDIA为最新的FX5900装配了Intellisample HTC技术,有效改善了全屏抗锯齿以及各向异性过滤的效果。与FX5800所使用的Intellisample 技术相比,Intellisample HTC技术增加了更多的高级纹理、色彩以及Z轴压缩算法以提升图象质量,1:4的无损压缩技术也在显存带宽提升的帮助下得到了更好的发挥。此外,Intellisample HTC技术还很大程度上改善了显存带宽的利用率,这一点与ATi的HyperZ技术十分类似。事实上,如果NV35不对Intellisample技术进行改进的话,其改用256Bit GDDR1之后的显存带宽提升将被无情地浪费。如果说Intellisample HTC技术令人难以信服的话,那么Ultra Shadow光影技术绝对没有任何猫腻,可谓是FX5900真正让人眼睛一亮的闪光点。Ultra Shadow光影技术可以进行大量阴影处理的硬件加速功能,从而改善3D画面的效果。而且已经有多款游戏采用了这一技术,并获得了很不错的效果。
在现实生活中,光源前面只要有物体遮挡就会有阴影。而在3D游戏中,为了表达这一“简单”的现象就不得不用去程序员大量的尽力以及硬件资源,这也直接造成3D游戏画面不够真是,缺乏动感。精确上的阴影表现效果是创造真实场景的关键因素,多光源与数量众多的对象以及角色之间的互动需要多次循环编程,而且更为复杂的方面还在于每一帧中的每一个光源都必须根据每个对象进行计算。Ultra Shadow技术的魅力在于能够大大加快这一实现过程,程序员能够在场景内定义一个固定区域,计算此区域内光源对物体产生的效果,预先排除不需要进行计算的区域。由于Ultra Shadow技术提高了光影计算的速度,同时又将程序员从繁琐低效的工作中解放出来,因此这项技术很被看好,业界甚至将其地位与经典的T&L、VertexShader以及PixelShader相提并论。GeForce FX5900 与Radeon 9800应该说打成平手,即便是后期的GeForce FX5950 Ultra 与Radeon 9800XT也仅仅是主频上的低层次较量。
相对而言,更为让人关注的还是Radeon 9600与GeForce 5700系列的对抗。同样作为面向中端市场的简化版产品,Radeon 9600在频率相同时有着比GeForce 5700系列更好的性能。此外,ATi还专门针对中国市场推出了Radeon 9550,再加上显卡厂商的鼎立支持,超频之后甚至达到超越Radeon 9600XT的性能。Radeon 9550第一次让nVIDIA感受在中低端市场的切肤之痛,GeForce 5700 Ultra的成本没能很好地控制,因而很难对抗Radeon 9550。
十、帝国保卫战:Geforce 6系列驰骋于PCI Express平台
2004年4月一声春雷,NV40将DirectX <?xml:namespace prefix = st1 ns = "urn:schemas-microsoft-com:office:smarttags" />9.0c以及Shader Model 3.0规范带到大家的眼前。NVIDIA PCI-E显卡也随即进入了GeForce 6时代,和GeForce FX时代不同,2004年是PCI-Express标准大普及的一年。i915P/i925X价格的急速下降和nForce 4系列芯片组的上市让PCI-Express有了广阔的市场利益空间和技术应用层面。
从nVIDIA对待GeForce FX5700系列的态度不难看出它已经提前放弃了NV3X,GeForce 6阵营才是其真正看重的产品。客观而言,GeForce 6系列确是成功的产品,也让继3dfx后的新一代霸主nVIDIA保住了颜面与市场。而且拿出了3dfx时代的SLI技术让GeForce 6系列的高端产品轻易地登上了平台性能的宝座,就算中低端产品也对解禁了对SLI的支持,无疑增加了更多的噱头。
虽然早期上市的旗舰级GeForce 6800依然采用了AGP界面,但定位稍低,基于原生PCI-E芯片的GeForce 6600随后就马上出现在零售市场,使得PCI-Express显卡的普及有了实质性的飞跃。相当一部分玩家对PCI-E显卡的了解,也是从这个时候开始的。
Geforce 6
而竞争对手ATi则将产品线拉得很长,Radeon 9550演变而来的X300、X550以及X600进驻中低端PCI Express平台,而X700作为高端X800系列的简化版来与nVIDIA进行中高端的角逐。
低端竞争:GeForce 6200系列Vs X300系列:
GeForce 6200除了内核仅有4条像素渲染流水线外,其架构与GeForce 6800系列相比所发生的变化还算不是很大。最明显的区别应该是其显存控制器不支持Color-compression(色彩压缩)和Z-compression(Z压缩)压缩技术。色彩压缩功能可以实时将色彩数据以6:1的比例做无失真压缩,在很多情况下,所有多边形边缘的色彩数据都能够彻底进行压缩,缺少这一功能对于整体性能的影响还是有一点。与此同时,Z压缩技术对于减轻显存负担也有很大的帮助,缺少这一功能导致GeForce 6200在启用全屏抗锯齿或是各向异性过滤时的性能带来负面影响。
然而值得肯定的是,GeForce 6200系列支持CineFX 3.0引擎,而且Shader Model 3.0、64位纹理混合过滤、32bit象素着色渲染精度也一应俱全,甚至第二代UltraShadow阴影渲染优化技术也融入其中,并且完整支持DirectX 9.0c。与上一代的GeForce FX5200相比,GeForce 6200系列的缩水程度显然不是很明显,因此其性价比还是值得肯定。相比之下,RV350尽管也是四条渲染管线,但是核心技术已经落后GeForce 6200整整一代。
在频率以及显存位宽相同的情况下,GeForce 6200的整体表现还是强于Radeon 9550。在PCI Express平台,所谓的“X300-X550-X600”阵营其实仅仅是主频变化,而nVIDIA的GeForce 6200系列则衍生出只能支持64bit显存位宽的GeForce 6200A以及具备Turbo Cache显存优化技术的GeForce 6200TC。从这一层面来看,nVIDIA显然更为灵活。也许目前nVIDIA的GeForce 6200还没能展现出性价比优势,但随着价格逐步调整,今后的市场表现力将会得到加强。
中端竞争:GeForce 6600系列让nVIDIA称霸中端
如果说2004年的9550让ATI称霸低端市场的话,那么GF6600则是2005年nVIDIA的中端之王。GeForce 6600系列分为三大版本:GeForce 6600LE、GeForce 6600标准版以及GeForce 6600GT,其中最特殊的当属GeForce 6600LE。NV43-V核心的GeForce 6600LE只有4条渲染管线,因此严格意义上来说属于GeForce 6200级别的产品,应该说面向中低端的定位会更加合理。但是GeForce 6600LE最大的特色是nVIDIA不再对核心显存规格进行限制,花样尽出的厂商可以把GF6600LE武装成多种角色,这也使得GF6600LE具有相当复杂的产品线,同时也会因此而拥有较强的生命力。
可以SLI工作的GeForce 6600LE
NV43:第一款真正意义上的原生PCI-E显卡
NV43核心GeForce 6600有两种规格:GeForce 6600GT和GeForce 6600标准版。其中GT版性能更强,其核心显/存频率达到500/1000MHz,采用GDDR3显存。而GeForce 6600标版频率为300MHz/500。在目前发布的产品,两者还有一点不同,那就是GeForce 6600GT可以硬件支持nVIDIA SLI技术。
GeForce 6600系列的NV43核心
但是nVIDIA在面对ATi发布的CrossFire技术时也开始有所改变,其正式宣布GeForce 6600标准版可以驱动支持SLI技术,也有可能授权VIA的DualGFX芯片组(PT894 Pro与K8T890 Pro)。而厂商们也开始采用不同显存规格产品的6600,使得6600的战斗力也越来越强。
nVIDIA的SLI技术令ATi疲于应付
十一、再接再厉:Geforce 7系列
2005年是名副其实的DirectX 9.0c之年,就连一直在对DirectX 9.0c的支持上慢半拍的ATI也在这一年的年末将自己的全线产品带入了SM3.0的时代。凭借着对业界的敏锐嗅觉和对新技术的执着,NVIDIA在2005年的夏天强势推出了GeForce 7,将在GeForce 6时代积累的优势进一步扩大,并和Radeon X1000系列展开更加激烈的竞争。
从产品的技术上看,GeForce 7的推出,并没有带来像之前GeForce FX时代跨入到GeForce 6那样的震撼。但技术前进的脚步并不会停止,GeForce 7的推出很好的向人们展示了NVIDIA对技术的深厚理解和消费者心理的良好把握,GeForce 7也造就了NVIDIA显卡史上最丰富的产品线(包括AGP产品)。
GeForce 7800GTX
首款上市的GeForce 7800GTX依然采用了成熟的110nm工艺,在NV40的基础上增加了透明抗锯齿能诸多新技术,占据了显卡性能之王半年之久。
2006年2月后,价格更低的GeForce 7300/7100相继出现在市场上,低端的7300GT更是将nVIDIA强大的市场操作手段体现的淋漓尽致。
2006年3月,随着GeForce 7900/7600系列GPU的发布,nVIDIA 7系列显示核心形成了较为完整的高中低端产品线,并全部实现了90nm化。
新的制程工艺,使GeForce 7900/7600系列显卡制造成本相对降低,频率提升同时功耗水平显著降低。另外,GeForce 7900GTX/7900GT/7600GT GPU都能够支持双头2560×1600高分辨率显示,而PureVideo也借84.12版H.264 Forceware程序得到性能提升,这意味着nVIDIA在对大屏幕和高清视频的软硬件支持方面更进了一步。
同时,nVIDIA还展示了定位于超高端的Quad SLI技术。这种极具震撼力的技术采用4块GPU协同运作,最高能够实现32x AA,提供了比双GPU SLI更高的图像质量和速度表现,为适应未来的高端超负荷运算奠定了基础。
2006年5月,nVIDIA发布号称是当时“世界上最快的单一模式显卡”——7950 GX2。该款nVIDIA 7950 GX2显卡包含两个7900 GTX GPU,核心频率为500MHz,1GB GDDR3 SDRAM(每个核心512MB),内存频率为600MHz(1.2GHz有效)。
7950GX2
该款nVIDIA 7950 GX2显卡具有两个插槽,可以提供两个dual-link DVI输出,还配备一个HD兼容TV输出端口,并且支持HDCP反盗版系统。运行在1600×1200 4x/8x相对于GeForce 7900 GTX有了15-80%的性能提升。
十二、帝国时代无可争议的王者:GeForce 8800系列
如果说,在GeForce 7时代,NVIDIA还有值得畏惧的竞争对手,那么到了GeForce 8时代,NVIDIA进入了一个无对手的“帝国时代”。随着2006年秋季ATI被AMD的收购,行业巨头之间的关系出现了微妙的变化。图形芯片领域,由之前的双雄争霸变成了一家独大,而这一形势又随着代号G80的GeForce 8800显卡的上市而逐渐明朗和被人们所认同,以至于有人说是“怪兽来了”。
“半年更新、一年换代”——这就是能与“摩尔定律”相提并论的“黄氏定律”!回顾近年来NVIDIA高端产品的发展历程,几乎半年一次的新产品更替速度不仅让竞争对手疲于应付,每一次性能/功能的提升则更加巩固了NVIDIA在全球图形领域NO.1的王者地位,先发制人的策略更是有效提升了高端产品的销量!
GeForce 8800GTS
GeForce 8800GTX
2006年11月8日,NVIDIA推出了第8代,也是其第4代PCI-E显卡:GeForce 8800GTX/GTS。DX10第一卡的美誉已经花落NVIDIA。
2007年4月18日,nVIDIA发布了新款DirectX 10级别图形核心GeForce 8600 GTS,8600 GT和8500 GT。该系列主流产品提供对Shader Model 4.0、GigaThread技术以及nVIDIA Quantum Effects物理处理技术的支持。nVIDIA Lumenex引擎的引入则实现了128位浮点高动态范围光照和16x抗锯齿效果。
新的主流旗舰产品GeForce 8600 GTS将接替GeForce 7900 GS的位置。在产品定位上,它紧跟GeForce 8800 GTS 320MB。基于GeForce 8600 GTS的显卡产品内建32个流处理器,运行频率为1.45GHz。nVIDIA推荐的显卡核心及显存频率分别为675MHz和1.0GHz。
GeForce 8600 GT产品同样拥有32个流处理器,但运行频率降为1.18GHz。推荐的核心及显存频率分别为540MHz和700MHz。
GeForce 8500 GT是主流产品线的最底端型号。8500 GT内建16个流处理器,频率为900MHz。核心及显存的推荐频率为450MHz和400MHz。
以上三个型号均采用了nVIDIA的PureVideo HD视频处理技术。PureVideo HD技术提供对H.264,VC-1,MPEG-2高分辨率及标准分辨率视频格式的硬件加速。
2007年5月2日,nVIDIA抢在ATI发布R600之前正式发布其新款旗舰级显卡8800Ultra,至此GeForce 8系列的高中低端全线产品均已部署完毕。
GeForce 8800Ultra
实际上8800Ultra与8800GTX并没有本质区别,NVIDIA通过大幅提升频率的方式再次提高了顶级显卡的性能表现。但是大家千万不要认为这只是简单的官方超频而已,8800Ultra和GTX相比硬件配置方面有了很大的改进。
G80带来前所未有的设计,统一Shader架构(Unified Shader)带来强劲的性能。G80完全硬件支持DirectX10的各项先进特性,例如Geometry Shaders、stream out、Improved instancing和Shader Modle4.0,支持这些特性使得Geforce8800 GPU拥有极高性能。所有的DirectX9、OpenGL和先前的DirectX程序和游戏在Geforce8800 GPU的Unified 设计都有高性能的演出。具备128个Unified Shader的8800GTX具备万亿浮点处理能力(Teraflops of floating point)。GigaThread技术应用在G80,支持数千个线程并行运行。高品质的各向异性过滤、高效的Early-Z技术和动态分支、高达86.4GB/S的恐怖显存带宽。
G80拥有足够强大马力应付在XHD分辨率和高画面质量设定下畅快进行游戏,16xAA所带来的效果也仅仅是带来相当于4xAA所带来的系统花销。SLI技术会带来接近翻倍性能的提升的表现。128bit精度的HDR和16x抗锯齿的结合带来顶级画质。内建的PureVideo HD功能的G80可以在低CPU占用率上面确保流畅完美的HD和SD Playback回放。有效的功耗占用和管理给Geforce8800带来更好的Performance per watt(每瓦特性能)和Performance per square millimeter(每平方毫米效能)表现。
虽然ATI(确切地说是AMD)在2007年5月带来了R600,但是其高端的HD X2900XT的总体表现多多少少令AMD-ATI的支持者们感到失望。人们期待着AMD-ATI下一款产品能有所发挥,以挽回当前的劣势。但是螳螂捕蝉,黄雀在后,或许采用更先进技术的G92已经悄然待发了。时间会证明一切目前NVIDIA还是牢牢占据绝对优势,不是吗?
转载于:https://blog.51cto.com/urlem/78587