jy00952077 发表于 2008-3-2 16:06:01

风风雨雨已十载 DirectX 10年回顾

  风风雨雨已十载 DirectX 10年回顾
  DirectX是Microsoft开发的基于Windows平台的一组API,它是为高速的实时动画渲染、交互式音乐和环境音效等高要求应用开发服务的。从Windows 95开始,人们就开始接触了DirectX2.0,WindowsNT4.0里面升级的则是DirectX3.0a,但微软跳过了DirectX4的版本。到了Windows98,它就是Windows家族操作系统中不可缺少的核心成员之一。Windows 98中集成了DirectX5,Windows2000中集成了DirectX 6,Windows Me中集成了DirectX 7,而Windows XP天生就带了DirectX 8.1,最新的Vista则是集成了Direct X 10。那么Direct X是如何发展起来的?本文就将试图寻着DX的10年发展轨迹,来探讨DX以及围绕在它周围的两家主要竞争对手:nVIDIA和ATI。
  第一幕:Direct X 6.0的身处的3D战国时代
  在上世纪末,3D图形卡市场处于纷乱的战国时代,在应用程序接口(API)亦是如此。在显卡和芯片制造上,存在大量的显卡制造商和多家图形芯片的供应商。在那个时代,非公版的显卡是主流,非公版的驱动也是主流;相同芯片的显卡,会由于驱动的不同而有很大的性能差异。这是显卡制造商通常是老牌厂商,实力往往不逊色于图形芯片制造商。芯片的设计和板卡制造在一个专业高度分工的年代,精品显卡频出。
  微软的Direct X 6.0也是那个时代也是一位竞争者,只是竞争的对手是3Dfx的Glide以及开放的OpenGL。微软的对手是一家规模不大、影响不小的3DFX。3Dfx的Voodoo系列在游戏中拥有无可比拟的画质和速度。所以,Glide成为了大多数游戏的接口标准,问津DX6的开发商聊聊,而且为了博得玩家的喜爱,通常支持Direct X的游戏也支持Glide。微软和旗下的Direct X承受了相当巨大的压力。
  DirectX6中的Direct3D(以下所说的Direct X都是指D3D部分)添加的新特性包括:
  * 几何形体的灵活顶点格式定义
  * 几何形体的顶点缓冲存储
  * 支持多纹理渲染
  * 自动纹理管理
  * 可选深度缓冲(使用Z Buffer或W Buffer)
  * 凹凸环境贴图(BUMPENVMAP)
  
  http://publish.it168.com/2007/0727/images/561997.jpg
  3DMark2000中的环境凹凸贴图
  代表产品:nVIDIA的NV4/NV5 ;ATI的Rage128;S3的Savage 3D
  nVIDIA在那个时代初露头角,它选择了D3D标准(事实上D3D也是唯一的选择,3DFX不向其他厂商的芯片开放Glide标准,OpenGL则是一个完全开放的标准)。nVIDIA的第一款DX6产品是NV4,成品就是大名鼎鼎的Riva TNT。正如它的名字所包含的,NV4是一颗投向3D图形卡市场的重型炸弹。
  RIVA TNT最多可以支持16MB的显存(在1998年,这是海量显存哦),核心工作在90MHz的频率上。大约半年之后,nVIDIA推出了改进型的NV5,显卡产品的名称为RIVA TNT2,核心频率提高到了125/166/183MHz三个水平,极大的提高了3D渲染速度。
  RIVA TNT的重要性体现在速度上。单块RIVA TNT就可以在大多数情况下击败大红大紫的Voodoo 2 12MB,只有在SLI的情况下,RIVA TNT才不是Voodoo2的对手;到了TNT2,单块Voodoo 2已经完全不是TNT2的对手,尤其是,单块Voodoo2只能处理最多12MB的纹理,而TNT2可以处理最高达到32MB的纹理。
  延伸阅读:TNT是“TwiN Texel”的缩写。因为NV4拥有2条32bit象素流水线,在一个时钟周期内可以处理两个象素,这一规格就是当时Voodoo2的水准。在3DFX如日中天的时候,这样一款产品的确具有“炸弹”的威力。尤其是,TNT的芯片采用BGA球形封装,工作频率要高过当时的Voodoo2。
  画质方面,TNT可以进行16bit,24bit或者是32bit色深的渲染,Voodoo却只能进行16bit色深的渲染,这也是TNT吸引众人的原因之一。3DFX对16bit的“忠贞”直到Voodoo4时代才终结,但此时的3DFX自己也逐渐没落。
  http://publish.it168.com/2007/0727/images/562000.jpg
  RIVA TNT的代表产品:Diamond Viper V550 16MB
  当时的ATI是一家典型的“小资”厂商。无论是OEM还是零售渠道都过的非常滋润。ATI自从建立之日起就一直自己生产芯片和显卡。ATI的产品给人的印象是:做工精致,但性能十分有限。大体上ATI当时的主打产品Rage 128的速度要逊色TNT2不少,只是在32bit色深的条件下性能损失比较小。
  http://publish.it168.com/2007/0727/images/562010.jpg
  堪称顶级做工的Rage 128 Pro
  http://publish.it168.com/2007/0727/images/562012.jpg
  两块Rage 128 组成的Fury MAXX,可惜受到驱动的限制,它只能在Win98下工作
  Savage 3D是老牌图形厂商S3推出的一款呕心沥血的DX6产品。不过这款产品出现之后的实际性能让人大感意外,速度差,画质差,除了便宜,Savage 3D的产品几乎没有什么卖点。
  代表游戏
  第二幕:Direct X 7.0带来的3D技术拐点
  
  DirectX 7.0绝对是3D发展史上的拐点,也是芯片和显卡制造商nVIDIA、ATI各自的转折点。微软在Direct X7.0中首次引入了“硬件移动和光照”引擎的概念,英文是“Hardware T&L”。这一技术的出现对3D画质的提高具有里程碑式的意义。我们知道,3D物体的表现需要阴影,而只有光源才能产生阴影;物体的移动才能产生动态的画面。在3D画面中,光源越多,产生的阴影也就越丰富,越有可能产生接近真实的效果,但是多光源的场景对系统的资源是极大的消耗。在DirectX 7之前,负责光源的产生和物体移动计算的载体都是CPU,不仅速度低(因为CPU还有大量的其他任务要完成),而且实现的效果也差。显卡内部集成硬件级别的移动和光照引擎之后,3D画面渲染中的光源和物体位移的计算都交由图形处理器负责,大大降低了3D渲染对CPU的依赖,不仅提高了渲染速度,也极大地改善了画质。从那时起,图形加速芯片被一个新的名字所替代:GPU。
  DX7的主要升级之处是:
  * 硬件移动和光源(T&L)支持
  * 立方体表面的环境贴图
  * 改进的纹理渲染
  * 自动纹理坐标生成、纹理转换、投影纹理和任意面裁剪
  * 支持Intel MMX架构、Intel单指令多数据流(SIMD)、SSE和 AMD 3DNow!架构。
  代表产品nVIDIA:NV10;ATI:R100;Matrox:G400
  http://publish.it168.com/2007/0727/images/562071.jpg
  nVIDIA的NV10,也就是GeForce256,是一款具有历史意义的的产品,也是显卡发展史上最经典的产品之一。nVIDIA首次赋予了NV10以“GPU”的名称,也就是“Graphic Process Unit”,图形芯片彻底摆脱了单纯的渲染角色,参与了3D处理的进程更多步骤。从Riva TNT到GeForce256,nVIDIA逐渐步入全盛时代。GeForce也就是Geometry Force(几何威力)的缩写,这个充满能量的名字,nVIDIA至今仍然在沿用。
  延伸阅读:GeForce256问世之后,nVIDIA又推出了改进版的GeForce2系列,该款芯片的研发代号为NV15。NV15使用了当时先进的0.18微米工艺制造,集成了四条象素管道,每条管道可以在一个时钟周期内处理两个象素。显存方面,GeForce2终于正式将DDR内存作为显卡的标准配置。
  http://publish.it168.com/2007/0727/images/562074.jpg
  GeForce2 GTS
  ATI在DX7时代启动了新一代的强力元素:“镭”。Rage128完成历史使命之后,ATI的民用显卡全部使用了Radeon+数字的方式来命名。Radeon系列的第一款产品就给人以惊喜,因为在Radeon以前,ATI的产品给人的印象是稳定有余,性能不足。而Radeon可以抵抗当时最强的GeForce2 GTS,它采用了2条象素管道,每条管道一个始终周期内可以处理3个纹理。R100延续了ATI显卡的低发热传统,其实使用散热片即可满足需求,但为了体现“高端显卡”的特征,ATI为Radeon配备了一个精巧的小风扇。
  http://publish.it168.com/2007/0727/images/562128.jpg
  
  延伸阅读:提到nVIDIA,就不能不提及3Dfx,这家极具个性的公司最终还是败给了nVIDIA,其实更准确的说,是输给了自己。nVIDIA从一开始就坚持了开放生产的政策,自己只生产芯片,成品卡由其他厂商制造,将利润的一部分分给了下游的厂商。这种在当时极为罕见的做法nVIDIA至今仍在保持。3DFX倒是从开放授权转型为独立制造板卡。收购著名的板卡制造商STB是3DFX公司历史上最重要,也是最致命的决定。
  收购了STB,3DFX的Voodoo3顺利的成为“原厂产品”,但由于在技术上的保守:16bit渲染,16bit Z缓冲以及不支持AGP规范中的纹理映射,加之微软强力推广D3D接口标准,3DFX的Glide逐渐失宠。经历了Voodoo3 的最后辉煌,Voodoo4/Voodoo5成为了名副其实的没落贵族,即便3DFX的产品已经支持32bit渲染,24bit Z缓冲。
  DX7时代的代表软件:3DMark2000
  
  DX7时代还催生了另外一家软件开发商:Madonion(疯洋葱)。在3DMark2000出现之前,衡量显卡3D性能的主要项目是游戏,但使用游戏测试的弊端相当明显:没有固定的场景,不同的显卡即便运行相同的场景也会因为前后的动作或者路径的差别而得出有较大误差的数据,除了游戏,当时有一款相当重要的测试软件――3D Winbench99,只是它着重考察显卡对3D特效的支持,速度并非考察的重点。
  http://publish.it168.com/2007/0727/images/562146.jpg
  http://publish.it168.com/2007/0727/images/562148.jpg
  3DMark2000的测试场景
  不过要说3DMark2000就是一款纯粹意义上的DX7测试软件也有失偏颇。3DMark2000使用了Max-Payne游戏引擎开发,但是它加入了不少DX7的特性测试。支持DX7的显卡在3DMark2000中会有很大的优势。
  DirectX 7.0完成了两个重要的任务:确立了Direct 3D在民用3D领域内的标准地位;实现了3D处理流程上的革命性转换。紧紧追随Direct X标准的nVIDIA和ATI也逐步成为了这个领域内仅有的两位有实力互相竞争对手。终于到了DirectX8.0登场的时候了。

jy00952077 发表于 2008-3-2 16:06:58

  和前作一样,DX8.0具备完全的向下兼容性,但Direct X自身的结构发生了变化,这一改变也再度颠覆了人们对3D画面的认识,重新定义了3D。长期以来人们希望有朝一日,能够在PC上实现电影级的3D画质,但出色和逼真的3D画面的首要元素就是“动态与实时”,但以往的3D API中的固定渲染函数和模型始终与理想存在鸿沟。DX8从软件方面为3D画面的生成树立了新标杆,它引入了“象素着色引擎(Pixel Shader)”和“顶点处理引擎(Vertex Shader)”:Pixel Shader则控制着物体表面的色彩和外观,Vertex Shader被用来描述和修饰3D物体的几何形状,同时也用来控制光照和阴影;这两个概念涵盖了3D图形技术的全部。

         代表产品:nVIDIA:NV20;ATI:R200/RV200

  Direct X 8.0时代,nVIDIA的代表产品是GeForce3系列以及ATI的Radeon 7500/8500系列。nVIDIA一共先后推出三款GeForce3产品,分别是GeForce3,衍生产品GeForce3 Ti 200以及Ti 500。GeForce3除了继续升级硬件上的规格之外,还引入了可编程顶点和光照函数以及Lightspeed Memory Architecture(光速显存架构)。代号为NV20的GeForce3是一款完全支持DX8规格的显卡。作为着眼于画质提高的产品,GeForce3需要提高在FSAA开启下的游戏运行速度(GeForce2在这个问题上吃了很大的亏)。处理FSAA,需要大幅度提高GPU处理象素的能力,这离不开显存带宽的升级,LMA就为GPU与显存的连接开创了一条宽阔道路和新的思维,可编程函数的采用大大提高了硬件在执行操作时候的灵活性。从此之后,配合DX,GPU的可编程性也成为了今后产品的一个必备的特性。

  http://publish.it168.com/2007/0727/images/562180.jpg

  GeForce3

  ATI的R200是一款支持DX8.1的产品,RV200则是一款DX 8.0的产品。两者的成品命名为Radeon 8500以及Radeon 7500。也就是从这一代DX产品开始,ATI在产品策略上发生了重大的改变:开放授权,允许其他厂商生产ATI的产品。这一决定对于ATI后来的成功是决定性的。ATI此前一直打造的“原厂产品”仅仅限于在北美地区销售,第三方厂商的产品价格低,灵活性更大,大大增加了ATI产品的销量。无论是3Dfx还是ATI,都因为在授权的问题上做出的决定而改变了自身的命运:开放的态度使得ATI繁荣,封闭则导致3Dfx的末落。

  http://publish.it168.com/2007/0727/images/562197.jpg

  做工极为出色的ATI Radeon8500

           延伸阅读:DX8随后又升级到了DX8.1的版本。在DX8.1中,微软将Vertex Shader的版本从1.3版升级到了1.4版。nVIDIA从NV25开始提供对DX8.1的完全硬件支持。NV25也就是我们熟悉的GeForce4 Ti系列,共有三款:Ti4200,Ti4400以及Ti4600,之后nVIDIA又推出了支持AGP 8X接口标准的Ti4200-8X,Ti4800SE以及Ti4800(NV28)

  

  http://publish.it168.com/2007/0727/images/562200.jpg

  GeForce4 Ti4600

  代表游戏:Madonion的3DMark2001

    3DMark2001(SE)借助DX8登上了历史的舞台,它也是成为了历史上最经典的基准3D测试软件之一。至今,这款七年之前的软件――3DMark2001的得分仍然在刷新中。3DMark2001的得分由七个场景的成绩综合而来,最后一个场景Mother Nature充分展示乐DX8.0的效果。后面的Pixel Shader即使演算出的画面更是令人叹为观止:

  http://publish.it168.com/2007/0727/images/562226.jpg

  http://publish.it168.com/2007/0727/images/562230.jpg

  http://publish.it168.com/2007/0727/images/562234.jpg

  上图是由GeForce3生成的Pixel Shader场景测试

  2002年底,微软发布了新一代的DirectX――DirectX 9.0。DX9.0随后被直接集成在当时发行的操作系统Windows XP中。依靠着自身的优势和操作系统的威力,Direct X 9.0再度垄断了主流的3D API。DirectX9.0 的再度升级引发的冲击绝不亚于当初DirectX 7.0带来的“硬件T&L”。

  前一版的Pixel Shader语言被限制为只能使用最多6个材质和28条指令,2.0版则将这一上限提升至最大16材质和160条指令,新增了很多强化的运算和操作。DX9的另一项重大改进是彻底抛弃“硬件T&L”单元,象素着色引擎(Pixel Shader)的精度达到了浮点级,Vertex Shader(顶点着色引擎)的编程比以往更为复杂。DX9中的Vertex Shader还增加了流程控制以及更多的常量,每个引擎的着色指令增加到了1024条。

  DX9将Shader的版本全部从1.4版升级到了2.0版,因为基于强大可编程的Pixel Shader是实现电影级别效果的3D场景的真正精华和要素所在。在DX9中,2.0版的Shader,可以支持高级程序和汇编语言,软件开发人员还可以将其汇编代码嵌入较高级的程序语言中。Pixel Shader2.0的架构是完全可编程的,它可以在不占用显存的情况下实现纹理效果的即时演算以及动态纹理贴图。在DX 8.1中,Pixel Shader 1.4只能支持28个硬件指令,操作6个材质;DX9.0中的Pixel Shader 2.0则可以支持160个硬件指令,同时操作16个材质。理论上,有了DX9.0 API,软件上离实现电影级别的显示效果又离PC近了一步,确实,在硬件的配合下,基于DX9.0 API的3D画面又有了长足的进步。

  DX9中的Vertex Shader 2.0增加Vertex程序的灵活性,因为它引入了流程控制,增加了新的指令。Vertex程序最多可以由1024条指令组成(之前的DX8只能用128条指令),增加指令可以带来更为宏大和卓越的3D表现,新的操作不仅大大简化了代码的编写,并且能够表现更加复杂的效果。

  代表产品nVIDIA:NV30/NV35/NV38;ATI:R420/R423

  nVIDIA也清楚,单靠驱动程序软件是无法弥合两代显卡之间的差距的,nVIDIA需要的是一款真正的DX9产品。压力之下,nVIDIA拿出了堪称其历史上最失败的一款产品:GeForce FX 5800。FX5800是nVIDIA收购3Dfx之后推出的首款产品。产品中“FX”的字样也满足了3Dfx的忠实粉丝对这家传奇公司的思念。代号为NV30的GeForce FX 5800原本被nVIDIA寄予厚望,是一位经历数度跳票的难产儿。可惜的是,更长时期的“孕育”没有使FX 5800更成熟,相反FX5800更像是一位被匆匆推上战场的“童子军”:巨大的发热,犹如飞机引擎的散热器噪声还有诸多无缘无故挂掉的产品成就了nVIDIA历史上的传奇败笔。迄今,能够正常工作的FX5800已经不多了,完好的5800Ultra更是罕见。

  http://publish.it168.com/2007/0727/images/562285.jpg

  GeForce FX5800Ultra

    延伸阅读:在FX5800上栽了大跟头之后,nVIDIA在下一款产品中体现了一贯的保守作风:GeForceFX 5900。FX 5900是nVIDIA在DX9时代中第一位有竞争力的战士。FX5900的代号为NV35,根据nVIDIA的惯例,尾数为5的芯片属于上一代的改进型。的确,FX5900的改进相当多,比如使用更为成熟的制造工艺,重新使用DDR内存。不久,nVIDIA又推出了基于NV38的更高频的旗舰产品:GeForceFX 5950Ultra

  http://publish.it168.com/2007/0727/images/562364.jpg

  GeForceFX 5900Ultra

  http://publish.it168.com/2007/0727/images/562291.jpg

  GeForceFX 5950Ultra

  GeForceFX 5900系列还诞生了一位经典:5900XT;这款产品在内部规格上完全保留了NV35的全部特征,仅仅是降低了GPU和显存的频率,将顶级产品与主流的产品的差距交由超频来弥补。

  http://publish.it168.com/2007/0727/images/562297.jpg

  ATI终于在DX9的战场上好好的赢了一把,R9700Pro以及可以改造的R9500让ATI赚得盆满钵满。接着ATI又更上一层楼,推出了抵抗NV35的产品――R350/R360。R350/R360就是Radeon9800系列。R350/R360改进了制造工艺,与迎头赶上的NV35展开的激烈争斗恐怕是迄今为止nVIDIA与ATI之间最为势均力敌的一次。

  http://publish.it168.com/2007/0727/images/562378.jpg

         延伸阅读:率先进入DX9领域的是ATI。ATI也终于首次在规格上领先nVIDIA的产品。ATI的Radeon9700 Pro(R300)系列以及Radeon9500 Pro系列曾经将nVIDIA逼到了绝境:在完全基于DX9 API的3DMark03测试中,nVIDIA当时的旗舰产品GeForce4 Ti4600的得分居然只有Radeon9700Pro的1/4到1/5,这种成绩一度引起了nVIDIA的强烈反应,甚至不惜通过以驱动优化的方法来提高GeForce4的得分,进一步引发了3DMark03封杀部分Forceware驱动的事件。

jy00952077 发表于 2008-3-2 16:07:52

  http://publish.it168.com/2007/0727/images/562252.jpg

  R9700Pro

  代表软件:3DMark2003

  3DMark2001SE大获成功之后,Madonion(之后改名为Futuremark)的下一款产品备受期待。那就是3DMark2003。Futuremark这次没有使用任何游戏引擎来制作3DMark2003,3DMark2003是一款完全基于DX9编写的测试软件。因为随着Shader的加入,这些工作都可以由API(也就是DX9)和GPU自身解决,显卡将执行全部的DX9代码。3DMark03的有效得分是由四个场景的成绩综合得出的,只有完全DX9规格的显卡才能运行全部四个场景。不过,在四个场景中,第一个场景使用的DX7,第二个和第三个都是DX8.1,最后一个才是基于DX9.0的。

  http://publish.it168.com/2007/0727/images/562276.jpg

  http://publish.it168.com/2007/0727/images/562279.jpg

  http://publish.it168.com/2007/0727/images/562280.jpg

  代表软件:3DMark2005

  3DMark05彻底抛弃了DX8,完全基于DX9.0编写。3DMark05的测试场景数目进一步减少,只剩下了3个,但每个场景都是对显卡的巨大考验。3DMark05可以支持SM 2a,2b以及3这三种版本,所以它是一款DX9.0c时代的测试软件。

  http://publish.it168.com/2007/0727/images/562305.jpg

  http://publish.it168.com/2007/0727/images/562306.jpg

  http://publish.it168.com/2007/0727/images/562307.jpg

  DirectX 9.0c

  在DX9.0b的基础上,微软又推出了升级版DX9.0c,这一版本的Direct X被集成到了Windows XP SP2升级包内。c版的改进之处是微软将Shader Model的版本升级到了3.0。即象素着色器(Pixel Shader)和顶点处理器(Vertex Shader)的版本都从2.0升级到了3.0。随着此次升级,Shader Model 3.0所支持的指令数以几何级数的形式增长着:Pixel Shader3.0和Vertex Shader3.0的最大指令数迅猛增长到了65535个,更多的特效也被融入到c版的DX9.0中,这一代的显卡所生成的3D画面日趋真实,与此同时,GPU硬件的处理速度继续提升。

  3DMark06则是3DMark05的升级版本。但3DMark06对显卡的要求更高,它需要支持SM3.0标准的显卡才能运行全部场景:

  http://publish.it168.com/2007/0727/images/562313.jpg

  http://publish.it168.com/2007/0727/images/562315.jpg

  http://publish.it168.com/2007/0727/images/562332.jpg

  3DMark06使用了更多的光源,阴影的效果也更为真实

  代表产品 nVIDIA:NV40/NV45/G70;ATI:R520/R580

  NV40的确成为一款让世人震惊的产品。因为在NV40之前,没有一款新作的性能可以做到在前作基础上翻番的程度。NV40不仅做到了,而且在生产上nVIDIA也没有什么困难。性能强,供货充足让nVIDIA体验到了一种会当凌绝顶的味道。作为当时唯一支持SM 3.0的DX9显卡,6800仍然是目前性能最强,保有量最大的AGP显卡之一。

  NV40是nVIDIA最后一款原生的AGP产品,从NV45开始,nVIDIA全线转入PCI-E接口。NV45其实就是NV40的PCI-E版。NV45虽然没有革命性的架构变化,但它多了一个杀手锏:SLI。这项曾令无数Voodoo迷疯狂的技术在消失了数载之后重获新生。双6800互联之后,性能最多可以提升50%,这为高画质高速度的3D应用打下了基础。

  nVIDIA发布的GeForce6系列的确称得上“帝国反击战”,面对来势汹汹的“绿眼睛”,ATI拿出了R420/R423。两款产品的代号是X800Pro/XT。R42x系列VPU内部集成了16条象素着色管道,与GeForce6800U一致。

  延伸阅读:G70/G71

    在每天都有新技术诞生的IT行业,16管线的标准很快就在升级大战中落伍。nVIDIA的G70将管线数目再度提高50%,达到了24管线,这就是7800GTX。缩水版的G70――800GT的管线数目保持在20的水准,仍然多于上一代旗舰6800Ultra。

  

  

  http://publish.it168.com/2007/0727/images/562350.jpg

  7800GT

  http://publish.it168.com/2007/0727/images/562354.jpg

  7800GTX

  G70采用了110nm制造工艺,90nm的“螃蟹”吃得ATI十分的痛苦。nVIDIA在NV30的痛苦过去之后,就成为了制造工艺上的保守派。直到TSMC的90nm工艺成熟之后,nVIDIA才推出了自己的首款90nm GPU――G71,G71的代表产品是7900GTX。

  http://publish.it168.com/2007/0727/images/562369.jpg

  7900GTX

  http://publish.it168.com/2007/0727/images/562373.jpg

  R423核心的X800XT       R520是ATI的一款极度难产的作品。其曲折的出生经历和苦难的生世丝毫不比NV30强。R520使用了TSMC的90nm制造工艺生产,集成了16条管线。如此先进的工艺仍然难以咽下R520这么多的晶体管,这是R520难产的直接原因。R520彻底解决了ATI显卡没有SM3.0这件武器的困难。R520的成品名称为X1800XT,这款苦难的产品问世没有多久就停产退市,ATI不能容忍一款不完美的产品-R520,它用“完美版的R520”――R580取而代之。R580旗舰产品的规格仍然保持在16管线的水平上,但工艺更为成熟。

  http://publish.it168.com/2007/0727/images/562381.jpg

  X1800XT(R520)

  http://publish.it168.com/2007/0727/images/562382.jpg

  X1900XT(R580)

  http://publish.it168.com/2007/0727/images/562383.jpg

  X1950交火       Direct X 10如期而止,而且带来了“革命性”的变化。Shader Moel在DX10中升级到了4.0版。SM4.0不再限制指令条数的上限,HDR无需解码即可实现,这可以大大减少GPU在处理HDR+AA时的负担,取得速度与画质的平衡。

  不过DX10最大的改变是彻底取消了“顶点引擎”和“着色引擎”的划分,也就是采用了“统一架构(Unified Shader)”。顶点引擎和着色引擎的分离一直是DX8以来的传统,我们在谈论一款显卡的时候,总是要提到这款产品有“xx条渲染管线,多少组顶点处理单元”。这种模式的最大弊端就是,因为3D画面是动态的,这就使得着色渲染单元和顶点生成单元的负荷几乎不可能同时达到最大的程度。因此在绝大多数情况下,着色处理器和顶点处理器会有硬件资源得不到充分利用的情况。“统一架构”彻底解决了显卡内部的“专业化”分工带来的资源利用不充分的问题。在DX10的标准中,GPU中的Shader都可以用来进行着色操作或者是生成顶点,这更有利于动态3D画面的处理。

  代表产品:nVIDIA:G80;ATI:R600

jy00952077 发表于 2008-3-2 16:08:27

  G80是8800系列的研发代号,它也是全球首款支持DX10标准的GPU。在G80的架构中,nVIDIA彻底摒弃了象素着色处理器和顶点处理器的划分标准(这是DX10所推荐的方式),代之以“流处理器(Streaming Processor)”的概念。Streaming Shader可以同时提供Pixel Shader、Vertex Shader、几何和物理引擎操作功能,是一个全功能的Shader。Unified Shader Architecture意味着一个流处理器可以同时执行多种Shader的操作,大大提升了效率的结构。最高端的8800GTX内部集成了128个流处理器,8800GTS则是96个。

  http://publish.it168.com/2007/0727/images/562385.jpg

  http://publish.it168.com/2007/0727/images/562386.jpg

  http://publish.it168.com/2007/0727/images/562388.jpg

  G80三杰:8800GTS,8800GTX以及最强的8800Ultra

  R600是ATI被AMD收购之后推出的首款产品,也是最后一款刻有ATI印痕的产品,之后的GPU设计以及参与都将由AMD的参与。和NV30一样,R600的最大特点也不在产品本身,而在于不断的跳票。在推迟了大半年之后,“艰难出世”的R600并未带来性能的巅峰,R600只能勉强胜过nVIDIA的8800GTS,但是我们也能看到R600上的“浓郁ATI色彩”,那就是在视频和音频上的丰富功能。

  http://publish.it168.com/2007/0727/images/562391.jpg

  R600的产物:R2900XT

  DirectX旗帜下的经典游戏:

  《上古卷轴》

  

  

  http://publish.it168.com/2007/0727/images/562396.jpg

  

  http://publish.it168.com/2007/0727/images/562398.jpg

  http://publish.it168.com/2007/0727/images/562399.jpg

  http://publish.it168.com/2007/0727/images/562400.jpg

  

  

  

  

  

  

  

  

  

  《上古卷轴》是一款RPG游戏(角色扮演类)。随着Direct X版本的不断升级,原本对显卡要求相对较低的RPG也逐渐“沦为”了“显卡杀手”。《上古卷轴》就是一个典型的案例,《上古卷轴:湮灭》由于支持DX9.0c,大多数显卡在运行这款游戏的时候都特别艰难:

  

  《极品飞车》

  赛车历史上最长寿的作品算得上《极品飞车》了,不是每个人都能成为现实中的“x环xx郎”,但是只要有一台PC,就能实现开着顶级跑车在城市飚车的梦想。《极品飞车》最初是Voodoo卡的绝配,不过随着3Dfx的衰落,Direct 3D逐渐成为《极品飞车》的唯一选择。最新的《极品飞车:碳化》已经借助Direct X 9.0c将画质提升到了空前的水准,当然它对显卡的要求之高也是空前的。

  http://publish.it168.com/2007/0727/images/562412.jpg

  《极品飞车:碳化》,大量的光源制造了逼真的效果,也使得绝大多数显卡都不堪重负

  《古墓丽影》

  一个美貌的女子在全球各地的古墓中不断地挖掘。曾经有评论指出《古墓丽影》这款游戏的情节过于简单。但简单的美同样拥有无穷的吸引力,《古墓丽影》每一版的更新就如《哈里-波特》的更新那样引人瞩目。第一款《古墓丽影》的发售日期是1996年11月,而最近的一款是《古墓丽影:传奇》,发售时间是2005年6月。《古墓丽影》为玩家带来了全新的3D视角,早期《古墓丽影》的贴图和画质在今天看来都显得粗制滥造,不过在当时,劳拉仍然是最受欢迎的游戏女主角:

  http://publish.it168.com/2007/0727/images/562416.jpg

  http://publish.it168.com/2007/0727/images/562418.jpg

  《半条命》

  1998年推出的《半条命》获得了E3的大奖。这款第一人称视角的游戏对未来游戏发展产生的影响是很大的。制作公司Valve也因为《半条命》而大红大紫。从画面和画质的角度看,《半条命》绝对不是最漂亮的Direct 3D游戏,但绝对是可玩性最强的D3D游戏之一。《半条命2》完全使用DirectX9的代码编写,但只要是DX7以上级别的显卡都能保证基本的流畅运行,开放的兼容性的确是《半条命》成功的重要因素。《半条命》的最大贡献是它的衍生版本《半条命:反恐精英》,也就是大家熟悉的不能再熟悉的CS。《半条命》没有再理会当时的Glide,而是选择了OpenGL和Direct 3D加速方式,如今,几乎所有的显卡都在用Direct 3D的模式运行CS。

  尾声:我们在玩游戏还是游戏在玩我们 ――Direct X对电脑游戏的戕害

  Direct X成就:业界标准

  Direct X的背后是微软。如果不是微软的强推,Direct X是不会有今日的成功的。当然,微软对操作系统的垄断只是一个因素,还有一个很重要的成功因素就是Direct X给软件和硬件开发商带来的简单易用的特点。

  对于一款接口程序而言,它起到的作用是连接应用程序和硬件,无数款硬件面对无数款游戏以及3D应用软件,需要的是一个标准。初始的时候,Glide也担任过这个角色。Direct X能逐步赶超Glide,是因为Direct X自身复杂性大大增加的同时,使用的简易性。

  DirectX,从一个小而脆弱的标准成长为民用3D领域内的唯一标准,离不开微软和nVIDIA,ATI及时而且是成功地转型也极大促进了GPU领域内的竞争。单靠微软,而没有硬件厂商的参与,DX是不会有今日辉煌的。回顾10年DX的发展,两个词是必须提到的:画质和速度。

  在DX的早期,DX首先要解决的是速度问题,因为3Dfx的Glide以及Voodoo显卡是当时速度和画质的优秀结合体。早期版本的DX没有过多的纠缠于画质,因为凭借当时的硬件环境,任何旨在大幅度提高画质的函数应用都会严重降低3D画面的显示速度。在进入DX7的时代之后,硬件T&L概念引入令得3D画面出现了第一次“质”的提高,那时GPU的发展才进入了速度和画质同步发展的轨道。

  DX的进步遵循了两个基本的原则:更简单但是更多的函数,这意味着软件开发者可以直接利用DX中现有的函数,硬件方面,支持DX的GPU也尽可能地做到对软件开发的便利化。DX时代也是游戏发展的大飞跃时期,因为画质和特效都可以由DX标准以及支持DX标准的硬件来实现,游戏开发者更多的需要考虑可玩性和人工智能。这就是统一标准的好处。

  Direct X隐忧:游戏和玩家,谁在玩谁

  Direct X在十年的时间中,逐渐成为了民用3D领域内的唯一标准。标准的统一自然有益于软件和硬件的开发,因为这会大大降低研发的成本,同时获得最高的速度。不过,游戏投胎Direct X,却不一定都是好事。

  随着Direct X的升级,游戏的画面也越来越壮观,显卡被淘汰的速度也越来越快。代表游戏中笔者选取了四款,但实际中游戏的数目远远不止这四款,可是论可玩性的话,能够超过这四款的PC游戏恐怕寥寥无几。PC平台的游戏正在朝着一种畸形的方向发展:厂商在不断的增加画面的华丽程度,游戏的精髓却仍然没有太大的改变。造成这种局面,Direct X难辞其咎。开放性平台的最大问题就是软件与硬件的不匹配。玩家拿到一款PC游戏,首先是考虑我的机器能够运行吗?《极品飞车:碳化》的复杂程度已经达到了8800GTX都略略感到吃力的程度了,这种扫荡现有大部分显卡的游戏产生的速度是很高的。华丽的画面留给人的印象是无法长久的,单纯追求画质,导致现有的系统无法以流畅的速度运行逼迫着玩家不断的升级显卡和CPU以及内存。环顾XBOX360,PS系列,以及大红大紫的Wii,游戏机市场的繁荣并不是偶然的。当玩家购买游戏机之后,他唯一需要继续投资的就是买各种各样的游戏软件,无需顾忌未来的游戏是否能够在游戏机上顺利的运行,开发商也可以在一个相对封闭的硬件环境中开发游戏,不用担心速度是否成为瓶颈。比较这两者,是不是有一种投资硬件也烙得个“吃力不讨好”的感觉呢。毕竟,真正的专业领域,Direct X是沾不到的。

依诺冰缘 发表于 2008-3-8 20:04:34

无聊的生活和无聊的东西

依诺冰缘 发表于 2008-3-8 20:05:10

:huffy1 我把思明币都输光啦·55

依诺冰缘 发表于 2008-3-8 20:05:49

:titter1 所以我非要在这里踩多几脚!!

依诺冰缘 发表于 2008-3-8 20:06:23

:titter1 我保证最后踩一次·~嘿嘿·~

五花肉 发表于 2008-3-8 20:06:37

:1shocked1 。。。。对LZ表示佩服。。。。:mad1 :mad1

夜孤灵 发表于 2008-3-14 15:13:00

哇哦 哇哦
长知识咯~~:happy1
页: [1]
查看完整版本: 风风雨雨已十载 DirectX 10年回顾