热词世界杯

万亿级的对决:Nvidia与AMD战事升级

2008-06-17 17:11 作者:PConline产业资讯·PhoeniX 责任编辑:zhengzhihui

  业界的两个老对头NVIDIA和AMD都在本周一发布了自己的下一代图形处理器技术,并且都宣称自家芯片能提供万亿次计算(Teraflop)能力。

  不过,两家公司的“相似点”仅止于此。实际上,两种芯片的微架构在所采用多核方法、显存、硅集成电路、生产工艺和软件上,都存在极大差别。

AMD的“狡辩”?

  AMD这次的新品发布方法打破传统,没有采取过去的先高端,然后逐步衍生出低端产品的模式,相反,他们推出了一种面向主流图形市场的产品,通过一种专利性的互连技术把两种芯片整合在一块pcb板上,提供顶级性能。“我们不想先推出一个巨型单GPU(图形处理器),然后再按照不同市场区间关闭部分功能,”AMD发言人说。

  这种战略对目前陷入经济困境的AMD来说很合理,他们在电脑处理器产品蓝图的制定上现在也趋于保守。当前的做法在降低成本和风险的同时,能让AMD公司获得最大回报。

  AMD的图形部门总经理Rick Bergman否认这与公司近期的财政问题有关,称相关决策基于对产量和规模的分析,并且早在两年多前已经做出。“我预测,我们的竞争对手下一代GPU会走上同一条路,”Bergman说。“他们现在所生产的是最后一个单GPU产品。”

  AMD称自己的4850显卡功耗约110瓦,售价仅199美元,但却提供了NVIDIA售价649美元、功耗高达236瓦的最新高端芯片GTX280的75%的性能。而将两块这样的芯片整合在一块PCB板上后,其性能比NVIDIA高出大约30%。

AMD 4850显卡
AMD 4850显卡本周一起上市

  比4850性能稍高的4870定价299美元,两种芯片都采用55纳米生产工艺,芯片面积是16x16毫米,相比之下,NVIDIA仍然采用65纳米生产工艺,芯片面积大约是24x24毫米。但NVIDIA却得以保住最强图形处理器的称号,这在游戏及技术社区中可能会有一定优势。

  AMD称自己的技术在两个方面领先于对手。首先,其芯片集成超过500个核心,是NVIDIA最新芯片240个核心的两倍有多;另外,他们试用了GDDR5显存,运行频率在3.2GHz以上,而NVIDIA继续使用现有的GDDR3显存,频率最高仅1.1GHz。尽管如此,凭着高达512bit的显存位宽,NVIDIA部分芯片仍可提供高达每秒102Gbytes的带宽。NVIDIA的GPU运算部门总经理Andy Keane透露,NVIDIA最新图形芯片架构中,由于显存位宽增长速度追不上处理资源,部分应用程序中可能会出现存储瓶颈。

  AMD的Rick Bergman表示,采用更主流的设计让他们有机会在今年秋天发布一款针对笔记本电脑、功耗低于7瓦的芯片。“NVIDIA的这种新核心就肯定没机会在今年秋季出现在笔记本上,”Bergman说。

  NVIDIA的这种新GPU集成14亿个晶体管,运行速度高达1.6GHz,同一时间处理的线程数从上一代的10000个大幅提升到30000个,另外,这次升级还添加了AMD芯片早就有的对双精度浮点运算的支持。

NVIDIA GTX280显卡
NVIDIA采用全新架构的新一代显卡GTX280

  和上一代产品发布时一样,这种性能上的吹嘘及对对手产品的定义总是有点不清不楚的。“(双方)总是搬出一大堆的规格数字,”图形市场观察机构Jon Peddie Research首席分析师Jon Peddie说。

在科学运算领域殊途同归

  虽然如此,Jon Peddie赞扬了NVIDIA积极把图形芯片向科技运算市场推进的努力。NVIDIA为这类高端应用发布了一些双层PCB板的产品,其中包括一种拥有4个GPU的1U系统,提供了高达每秒4万亿次运算(TFlops)的强大性能,售价7995美元。

  此外,NVIDIA更新了Cuda开发环境。它能帮助编程人员修改C程序来充分利用并行运算的优势,支持所有主流32位和64位操作系统,内含多个并行运算工具。对于Cuda的未来,NVIDIA计划添加对Fortran和多GPU系统的支持,此外,NVIDIA还在研究如何支持C++和增加一个硬件调试器。

  在这个方面,AMD倾向于一些第三方硬件和开源软件来把自己的图形芯片引入科技运算应用领域。现在他们正支持一个刚冒起的编程语言OpenCL作为其推动科技运算的编程环境。AMD图形部门总经理Rick Bergman透露,他们正为OpenCL开发一个编译器和一些工具。“预期在2009年将实现对这种语言的全部支持,”他说。

英特尔Larrabee前途成谜

  很多人都知道,英特尔正准备推出一种名为Larrabee、基于多个改良x86核心的新一代微架构。英特尔首席技术官贾斯汀(Justin Rattner)上周在一个场合中表示,Larrabee代表着图形芯片架构从传统的采用光栅化技术(Rasterisation)向全新的光线追踪技术长期转移过程的开始。AMD及一些业界分析师对这种说法给予了否定。

英特尔Larrabee芯片
英特尔Larrabee芯片蓝图

  无论是Rick Bergman,还是Jon Peddie Research的Jon Peddie都认为,这些新一代图形处理器并不足以应付光线追踪的庞大处理需求,对于英特尔所说的行业正在向此方向转移感到怀疑。
 
  Jon Peddie说,“英特尔所说的16或者就算是80核的Larrabee芯片能很好地处理光线追踪是很可笑的。”他指出,即使是今天AMD和NVIDIA产品中的上百个核心都还未能完全应付这项任务。“光线追踪被过分夸大了,未来两至四年内不会出现这样的情况,”Peddie说。

  “不要把赌注压在光线追踪能改变市场之上,因为未来2-5年内不可能发生,”AMD的Rick Bergman也同意这种看法。“光线追踪在一些实时互动不太重要的小市场可能有用,但图形市场的绝对主流是游戏和视频,”他补充说。(PhoeniX)

分享到: QQ空间 新浪微博 腾讯微博 更多