页面

2007年6月3日

关于DX10

电脑报已经有一年的时间不买了,最近去朋友那玩的时候看到了,就拿起来翻。

基本上还是老样子,硬件方面就是些营销策略,市场行情方面的信息,顶多来个横向评测。我想看到的是对未来技术的展望之类的。

正这么想着,还真给我翻到了一篇,讲的是在DX10时代NVIDIA和AMD各自的设计策略。作者应该是专业的半导体从业人员,讲的比较深入,有的地方我看的云里雾里的。下面凭记忆大概说一些我看得懂的东西:

渲染管线统一之后,本来我以为今后比较两家产品性能要方便多了,不会出现以前那样的情况:一个是16/6的像素/顶点管线,一个是12/8的管线,你说哪个个强?这没法比了,只能说像DOOM3那样高纹理渲染内容的游戏,前者强,像HF2那样多边形物理渲染比较多的游戏后者强。现在我们直接看G80和R600的统一渲染管线数量,G80:128个,R600:64个。一看这不是胜负很明显了吗?非也非也,因为G80采用了非常冒险的标量运算单元(ALU),也就是本来每个时钟周期要4D(4路通道,除了R,G,B还有个Alphla,这是业内的标准做法)操作,现在它只用1D的操作,让NVIDIA产生这种想法的原因是现在除了基础的纹理像素渲染需要4D操作,很多渲染特效都根本不需要4D操作,比如高光HR特效,Shader3.0特效(一周期只需要1D),还有很多我还没见过的DX10的特效,这就使传统的4D设计产生了很多资源浪费现象(因为传统的设计每个周期必须要进行一次4D操作),并且这种现象随着未来显卡任务从纹理计算到更多的特效渲染会变的越来越严重,现在G80的设计想从根本上解决这个问题,也就是说它的128路管线理论上只相当于32路4D管线,但是因为它的执行效率高的多,也基本上能跟AMD的64路管线打个平手。但是PCB版设计的复杂程度能大大降低,成本也就比AMD的底。

但是现实真的像NVIDIA想象的那么美好吗?设计者是方便了,但是对每个运算周期延迟的要求高多了,比如G80一周期1s的延迟就相当于R600能有4s的延迟,降低延迟没有别的办法,加频率!加电压!估计G80又要让我们看到外接电源的“奇观”了。综合来看,对成品率的控制估计还不如AMD。并且AMD也有着自己的杀手锏:环形显存带宽,从X1系和7系的表现来看,同样的显存位宽,AMD的环形总线设计肯定要比NVIDIA的强,我们知道AMD的环形显存总线分内部带宽和外部带宽,比如以前外部带宽跟它的对手一样,256bit,但是内部带宽只有128bit,这种情况AMD还是能和对手打个平手,现在呢?X2系列AMD已经把内部带宽和外部带块统一了,都是256bit!而NVIDIA还是用的传统设计的256bit,高下立判。

还有对于H.256视频解压的支持NVIDIA虽然也一直不遗余力,但自从X系列之后AMD(ATI)就一直走在它的前面。如果你买显卡很大程度是为了看HDTV高清的话,X2300是非常合适的选择。

没有评论:

发表评论