CPU迈向多内核设计,并行编程技术须加油 |
时间:2005/8/22 9:41:00 作者: 来源:ic72 浏览人数:1296 |
|
|
|
Nvidia公司首席科学家David Kirk日前在美国斯坦福大学举行的第17届热门芯片(Hot Chips)研讨会上表示,业界需要加强芯片应用中识别和保存并行机制的技术的研究。
在比较通用CPU和图形处理器(GPU)的未来时,Kirk指出,编程技术正面临一场危机,这不仅有可能冲击CPU市场的未来,还有可能终结图形性能领域的进展,尽管GPU一直得到改进。
“如果我们正视通用CPU的现状,”Kirk说道,“我们就会看到其架构正快速移向多线程和多内核设计。但我们并未看到有更多的线程运行。在编程过程中,算法内的并行机制经常被隐藏或丢失。”
Kirk的悲观论调源于游戏开发商试图利用新型多核CPU芯片的事例。“我们已经看到一些游戏受限于CPU吞吐量。我们可以以比CPU传送数据更快的速度渲染图像。但当游戏开发商尝试使用双核CPU时,我们发现实质上对第二片CPU内核没有任何好处。如果开发商不是很清楚内核与缓存之间的作用,我们会发现双核机上运行的应用实际上速度更慢。”
与之形成对比的是,Kirk指出,GPU内的架构完全不同。“图形经常被并行调用,”他表示。“我们管线的每一段(stage),情景里每一个顶点(vertex),图像里的每一个像素,都是独立的。而且,我们还付出了大量努力,避免在编辑过程中隐藏并行机制。”
这就使得GPU开发人员可以简单地添加更加的顶点处理器和描影引擎(shading engine),从而能以并行方式处理更多顶点和像素——只要处理技术允许的话。“我们受限于芯片面积,而非并行机制,”Kirk补充说。
Kirk的担忧在于,尽管GPU能够继续添加执行部件以利用几乎无限的平行图形任务,但CPU可能已接近可延展性的极限。他表示:“我们需要大学在本科(undergraduate)课程中增加并行编程技术,而不是在研究生(graduate)阶段才开始涉及。”他补充说:“对并行语言的研究已停滞不前。对Java虚拟机和Web编程的研究工作已经足够多了。”
|
|
|
|
|
|
|
|