计算机科学

首页 > 计算机科学

Intel Larrabee

2018-09-03 09:32:58     所属分类:并发计算
Intel Larrabee
代号 Larrabee
制作工艺 工程样品为45奈米
预定计划实际产品使用32或22奈米[1]
Direct3D版本 Direct3D 10?
OpenGL版本
OpenCL版本
前代产品 Intel 740

英特尔Larrabee,是英特尔公司的通用图形处理器(GPCPU)的开发代号/核心代号。有别于英特尔当时的英特尔GMA系列集成式显示核心,“Larrabee”显示核心是英特尔继Intel 740以后又一独立式显示核心,研发团队、开发概念等都与英特尔的集成式显示核心的完全不同。原计划最迟于2010年作为消费级图形处理器产品推出市场,但由于多次的“跳票”、研发进度不如预期、图形性能不佳、功耗过高等因素,[2]最终英特尔于2010年5月宣布取消发布相关显卡的计划,而“Larrabee”研究计划亦无后续消息。[3]但是,同样是2010年,英特尔公布的的Intel MIC多处理器架构中继承了大量由“Larrabee”研究计划而来的设计元素,最大的区别在于前者专注于为高性能运算而设计的多处理器协同运算,后者是作为图形处理器(GPU)而生。

目录

  • 1 缘起
  • 2 架构
    • 2.1 x86“IA”核心
      • 2.1.1 浮点运算
      • 2.1.2 整数运算
      • 2.1.3 超线程
      • 2.1.4 快取架构
    • 2.2 图形引擎
    • 2.3 图形程序接口
    • 2.4 通用运算以及硬件加速
    • 2.5 总线以及存储器接口
    • 2.6 电源管理
  • 3 制造和合作推广
  • 4 计划状态
    • 4.1 后续项目
  • 5 评价及影响
  • 6 参考
  • 7 外部链接

缘起

英特尔最后的独立显卡产品是I740。后来英特尔的平台化策略中,I740显示核心被集成于芯片组中的北桥芯片,成为Intel的一系列集成式芯片组产品。2006年以后,ATI/AMD和NVIDIA都推出了相关的GPGPU产品。英特尔为保持优势,遂计划重新推出独立显卡产品,而核心架构与英特尔的集成式显示核心和超微、英伟达的一般显示核心不同。

架构

英特尔的Larrabee图形处理项目完全有别于现时所有图形处理技术(包括英特尔自家的集成式显示核心),不同于超微以及英伟达一直以来使用的仅有图形运算指令的流处理技术,而是基于自家的x86架构,指令方面除了拥有部分新的图形处理指令以外保有大量的x86指令,使得Larrabee拥有比竞争对手更为灵活的可编程特性以及更为强大的通用运算处理能力,算是英特尔发展多核心x86并发运算架构的一个延伸。[4]

Intel Larrabee的核心布局略图

x86“IA”核心

与当时以及现时一般的图形处理器不同,一般的图形处理器是采用流式处理器作为核心运算单元/渲染器。而Larrabee采用x86架构的,称为“IA”的处理核心,概念上就是传统CPU核心,这些处理单元就是传统意义上的着色器或核心运算单元,不过就单个运算单元而言,一个“IA”核心的数据吞吐量要比单个流式处理器/算术逻辑单元要高得多。就单个核心而言,对比当下的CPU核心,“IA”核心也只是微核心。[5]

奔腾P54C核心的架构图

事实上,每个“IA”核心基于旧有的首代奔腾P54C核心改造而来,而非当时最新的Nehalem架构处理器核心,英特尔认为,当年仅具有五级流水线且仅能依序运行的奔腾P54C核心,相比拥有14级管线的拥有复杂的乱序运行结构的Nehalem,更有图形化改造潜力,而且奔腾核心即使经过改造使核心规模扩增,透过芯片制程工艺的发展改进,多x86核心更易于达成。[6]预计将采用45奈米甚至是32或22奈米。[7]2008年8月,英特尔称Larrabee芯片内的核心数量上可以随意增加或减少,以8的倍数改变,而且性能在8至48核心数量范围内基本上成线性关系,英特尔官方报称浮点性能可达到TeraFLOPS级别。[4]所有的“IA”核心,运作频率会是2.0GHz。Intel声称,这个时钟频率下32个“IA”核心时的显示核心运算性能可以达到2TeraFLOPS。[8]处理器仍采用顺序而非乱序运行架构。[9]整个“IA”核心内部是多指令流多数据流(MIMD)形式布局,两个整数算术逻辑单元使用各自的指令发射端,而16个ALU的浮点单元则以单指令流多数据流(SIMD)的形式共用一个指令发射端。[10]

英特尔公布的“IA”核心架构图

英特尔在旧有的奔腾P54C核心上,新增线程分派单元、二级快取、矢量运算单元及其寄存器、超线程等、删减前段总线(FSB)改以环形总线节点替代。即使是既有单元,也作了大量的修改变更。因此Larrabee并非单纯是奔腾P54C改进。[11]

浮点运算

新增512比特SIMD矢量单元,由16个/宽幅,32位的矢量ALU组成,共用一个指令发射端,相当于现在CPU核心内部的浮点运算单元,但对比当时的Core 2 DUO仅有的8宽幅的32位浮点运算单元每核心每时钟周期仅能进行8次单精度浮点运算,各“IA”核心每时钟周期能进行16次单精度(32位)浮点运算。若以Larrabee拥有10个核心去计算,每个周期一共可以支持160个单精度矢量运算;Core 2 Duo双核心处理器只可以支持16个。[5]所以,Larrabee的浮点运算性能比传统的处理器强。核心亦支持一套新的矢量指令集,用作矢量存储器、整数和浮点计算。浮点运算方面,支持IEEE标准的单双精度。[12][11]

与NVIDIA的GeForce 8相似,每一个矢量运算单元在一个周期中,只会运算一个颜色数据,务求提升单元的使用率。不过,在数据流通方面,一切都是以代码形式出现。而传统的显示核心,一般都会使用专门的逻辑单元,去管理数据流通。[13]

整数运算

但在标量/整数数据中,主流处理器始终较有优势。Core 2 Duo是单核每周期处理四个,Larrabee只是单核两个。二级缓存方面,每一个核心将会拥有256KB。Larrabee并非是单纯建基于旧的Pentium核心,指令解码除了奔腾原有的指令以外,新增Larrabee专用标量指令以及新的x86指令,标量运算单元也加入对新指令的支持,在每一个标量单元中,由两个负责标量运算的算术逻辑单元组成,组成一个主要和辅助指令运行管线,拥有各自对应的指令发射端。一个可以处理x86或新引入的Larrabee标量指令集,一个用来处理简单的ALU计算或者x86指令集的子集命令。[11]

超线程

Larrabee还会有特殊的超线程特性,支持单核运行四条线程。为支持单核四路超线程技术,矢量和标量单元各自拥有4组寄存器。[11]

快取架构

原有的一级数据和指令快取均由8KB扩增至32KB,其位宽也扩增至512位;二级快取容量为256KB,每核心独占;存储器寻址能力亦达到64位,与现代的处理器相若。[11]

图形引擎

英特尔曾经聘请了专注光线跟踪的研究员,预计Larrabee显示核心可以支持相关技术。[14] 在DirectX和OpenGL中,仍然会使用栅格化渲染,但将以软件实现。[15]而且,这种以软件方式实现的光线追踪、光栅化等作业将简化代码。[16]

不过传统的纹理/材质的采样、解压缩、混合等作业仍由固定功能的纹理材质单元处理。但纹理/材质等快取则是以x86数据的形式暂存于IA核心内的二级快取上,须进入“IA”核心访问,因此,纹理单元亦具有虚拟地址转换特性来访问这些数据。[11][17][11]

图形程序接口

Larrabee可以同时支持DirectX和OpenGL。由于是通用核心,亦可以支持物理加速[18]。图形API方面,它支持主流的 DirectX和OpenGL,而Intel亦会推出自家的标准。目的是充分发挥多x86核心的性能。[19][20]

消除混叠技术方面,除了传统的MSAA等抗锯齿技术,还会实现利用CPU进行的形态过滤抗锯齿(MLAA)。MLAA是一种后期抗锯齿技术,虽然由英特尔最先提出,但最先实现此技术的是AMD,AMD在发布Radeon HD 6000系列显示核心时率先引入,后来Radeon HD 5000也予以支持。[21]

通用运算以及硬件加速

支持x86指令集、新增Larrabee指令集,使得普通的编程语言也能方便调用GPU以实现GPU加速,非常明确的GPGPU的设计方向。不同于对手英伟达和超微需要专门的应用程序接口,而且还需要额外的学习过程方能方便使用。[19]

针对视频方面,Larrabee显示核心内有专门的视频处理单元。[22]

总线以及存储器接口

Larrabee显示核心内部使用环形总线,与ATI的Radeon R600相似,但每个方向是512位(双向1024位),而显示存储器与其控制器的连接仍采用CrossBar的形式,而Radeon R600是显示存储器和其控制器之间使用单向256比特(双向512位)的环形总线。[23] 各“IA”核心、显示存储器控制器、图形引擎、PCI-E接口等亦使用此总线互相通讯。系统接口为PCI-E 2.0/2.1 x16。存储器将使用GDDR5显示存储器,但也会兼容GDDR3、GDDR4。[19][24][25]Larrabee核心内部还会实现虚拟内存共享,可以使CPU访问显示存储器中的数据,而GPU也可访问主存中的数据。[17]

电源管理

Larrabee面世时的产品并没有配备任何节能技术,原来英特尔x86 CPU上常见的C1E/EIST等节电技术并没有移植到“IA”核心上。英特尔声称第二代的Larrabee显示核心将会加入一些节电技术。[26]

制造和合作推广

英特尔表示,Larrabee的芯片届时会采用自家的32奈米或22奈米制程,尽管2009年时发布的工程样品仍然使用45奈米制程,并且表示显示芯片的制造不会外包给台积电等厂商,但显卡的制造则效仿英伟达和超微的做法,交给合作伙伴厂商来完成。[27]2008年时英特尔也透露已经与一些显卡制造商进行过洽谈,[28]甚至有传言指索尼也在英特尔的积极游说下曾经打算在研发PS4时使用Larrabee项目,尽管索尼和英特尔并没有直接承认此事,但PS4的确改用了x86架构处理器,放弃POWER架构的Cell处理器以便于一般计算机游戏转为游戏主机电子游戏。[29][30][31]除此以外任天堂的Wii U在开发初期也有类似传言,微软也不例外。[32]

计划状态

原预计“Larrabee”会在2008年第三季度推出样本,在2009年正式发布,但实际上2009年才有工程样品,发布日期也推迟到2010年,但最终还是在2010年5月被突然宣布中止[33][34]

2009年11月4日,英特尔官方宣布首代“Larrabee”芯片不会有消费级图形核心产品发布。[35]“Larrabee”最初发布时也只有一个软件平台,在这个消息发布后不久,尽管Larrabee项目本身并未取消[36],但已被转为一个图形处理和高性能运算的开发平台,变成纯粹的研发用途[37][38][39]。英特尔对此的理由是,由于Larrabee的硬件和软件开发进度都比预期有所落后,英特尔需要根据目前的状况来作出未来的战略调整,[40]英特尔亦表明在2010年“Larrabee”计划会作进一步的更新。

但其实在2009年的国际超级计算机大会中,英特尔已经只字不提Larrabee。而英特尔曾经展示的Larrabee样品,单精度浮点运算性能只有1TFlops。与此同时相对应的是,AMD的Radeon HD 5970的单精度浮点性能已经达到4.64TFlops。而采用x86指令集架构作为图形编程架构,硬件更要兼容旧有的一系列图形标准,如Direct3D、OpenGL等。核心架构设计对于图形处理而言过于复杂,相信亦是Larrabee项目改变的主因之一。在2010年9月,英特尔承认Larrabee架构“构想美好,但不现实”,它在图形处理方面存在缺陷,所以就算有成品出现,不仅图形性能都会不佳,连带影响浮点运算能力,而且功耗亦会比较高。利用软件实现一切过往硬件实现的功能,包括传统上的光栅化,效率将会很低。[41][42][43]

由“Larrabee”项目中直接推出图形核心的计划于2010年5月被中止。[3]2010年5月25日,英特尔通过官方博客宣布“Larrabee”不会作为图形处理器发布,但会推出与高性能运算相关的产品和英伟达的Tesla运算加速卡竞争。[44]

后续项目

其后英特尔还首度承认MIC项目其实就是Larrabee项目的后续完善版本。[45]

在Larrabee项目取消以前,除了Larrabee外,英特尔还有若干个其他类似的Many-Core项目,例如POD[46]。Intel曾经推出过“Knights Ferry”,当时被认为属于Larrabee的产品线。不过,它被用来面向软件开发人员。目的是让他们充分了解Intel的多核心架构。“Knights Ferry”的核心频率是1.2GHz,拥有32个x86核心。支持特别的超线程技术,单一核心能模拟成四个核心。

Larrabee显卡计划被取消后,同样是在2010年,英特尔MIC多处理器架构(“众核”架构)随即发布,更将此前的“Knights Ferry”项目也收归其中,尽管该架构亦沿用Larrabee项目的诸多设计元素(甚至连图形处理的电路单元也一并保留[47]),但不再作为图形处理器使用,而是以实现高性能运算相关的多处理器协同运算为目的,在芯片上集成远比现行x86处理器要多得多的x86处理器核心。该新项目的首款工程样卡即是原有的“Knights Ferry”,仍采用45奈米制程;而实际正式发售的产品是使用22奈米制程制造,开发代号“Knights Corner”,拥有50个x86核心,已于2012年8月推出的Xeon Phi协处理器(运算加速卡),面向高性能运算市场,为主处理器提供运算加速。[45]而2014年,英特尔公布第二代Xeon Phi,核心代号“Knight Landing”,采用不同于上一代的、基于Silvermont微架构的处理器单元设计,但仍然有AVX-512等上一代Xeon Phi采用的“Knights Corner”核心的特性,采用14奈米工艺制造,并且不再保留用于图形运算的电路单元,[47]在2015年3月正式对外展示了相关硬件以及其演示。[48]

评价及影响

英伟达CEO黄仁勋经常对Larrabee大造文章,批评Larrabee的种种不合理之处,并称英特尔在IDF上认为“Larrabee的出现会使显示核心将在两到三年内消失”这番消息是不切实际的“笑话”,认为Larrabee的性能在老旧的x86架构的拖累下不可能有出色表现;[49][50]也批评英特尔没能在可编程和固定功能上作出合理平衡,过分强调可编程,而图形处理任务过程当中并非全部都可以透过可编程来实现,即使有但性能也会非常糟糕[51];还认为英特尔此举纯属对此故弄玄虚,企图利用幻灯片上的纸面数据忽悠图形处理行业,即使Larrabee有产品也只是急于求成的不良品[52]。对这些批评,英特尔戏称他是Larrabee的公关经理,而且不带薪酬。[53][54]

一些媒体还对英特尔利用x86核心作GPU存疑,认为英特尔仍然没能将图形处理放在首位,因为对于常用的图形程序接口诸如DirectX以及OpenGL都没有硬件上的支持而只是软件支持,即使是英特尔声称要开发自家的图形API,其实也不过是充分利用多x86核心而已,相当于多核心优化,由此看出英特尔研发Larrabee的目的更多地是照顾通用运算而非图形处理。[55]也有媒体认为,英特尔利用自己专长的x86架构来开发显示核心纯属偷懒且急于求成之举。[56]

优良的架构亦需要驱动程序的配合,但过往英特尔的集成式显示核心,由于驱动差,很多原本硬件支持的功能都不被支持,立体图像的质量亦较差。所以,纵使英特尔希望与不同的显卡厂商合作推出“Larrabee”显卡,但都只持观望态度。英特尔也承认,在高性能图形驱动程序的编写能力和经验上不如NVIDIA和AMD。为了提高厂商和公众的信心,英特尔特意强调Larrabee的驱动程序开发团队是独立于其IGP产品,而且,Larrabee的驱动程序编写将作为一个重点来攻关。[57][58]

“Larrabee”项目的中止使得索尼决定以AMD的中央处理器和显示核心产品作为PS4游戏主机的CPU和GPU。[29]日本媒体Impress Watch认为英特尔的Larrabee移植至游戏主机困难重重。[59]

尽管Larrabee项目后来被中止,但是对英伟达以及超微研发图形处理器的理念亦产生不少影响。NVIDIA在2010年推出的NVIDIA GeForce 400系列时所用的“Fermi”架构便引用Larrabee的一些设计概念,将GPU内部模块化,每个模块内部下辖多组流处理器(称为“SM”单元)以及一些特殊单元,构成一个称为“GPC”的模块,除了没有独立的存储器控制器以及显示输出单元,每个GPC模块相当于一个小型GPU,各GPC模块的数据共用由新增的全域二级快取实现;AMD在2011年底推出的AMD Radeon HD 7000系列时所用的“次世代图形核心”(Graphics Core Next)架构更是大量引用Larrabee项目的设计概念,将一些流处理器以及一些指令分派单元合作一个模块,称为“CU”。[60]

参考

  1. ^ Intel修改Larrabee产品计划. zdnet.com.cn. 2010-01-04 [2013-05-16]. 
  2. ^ Intel: Initial Larrabee graphics chip canceled | Nanotech - The Circuits Blog - CNET News
  3. ^ 3.0 3.1 Ryan Smith, Intel Kills Larrabee GPU, Will Not Bring a Discrete Graphics Product to Market, www.anandtech.com (AnandTech), 25 May 2010 
  4. ^ 4.0 4.1 Intel披露独立显卡芯片Larrabee详细资料. CNETNews.com.cn. CNETNews.com.cn. 2008-08-06 [2013-05-20]. 
  5. ^ 5.0 5.1 英特尔新一代显卡架构Larrabee解析. 天极yesky. 45it.com. 2008-08-30 [2013-05-21]. 
  6. ^ Intel的Larrabee显卡基于古老的Pentium架构. [2013-05-20]. 
  7. ^ Larrabee 独显很可能采用 32nm 制程工艺 互联网档案馆的存档,存档日期2008-11-20.
  8. ^ 奔腾归来:Intel Larrabee 基于 P5 架构
  9. ^ Intel 制霸显卡新起点 Larrabee 全解析 互联网档案馆的存档,存档日期2008-12-24.
  10. ^ Larrabee lives! 50-core Intel Xeon Phi unveiled, lures supercomputers away from Nvidia Tesla. EXTREMETECH. 2012-06-26 [2013-05-20]. 
  11. ^ 11.0 11.1 11.2 11.3 11.4 11.5 11.6 后藤弘茂:英特尔Larrabee架构新指令剖析. Impress Watch. yesky.com. 2008-10-02 [2013-05-21]. 
  12. ^ Intel 独立显卡 Larrabee 三季度出样
  13. ^ Larrabee: A Many-Core x86 Architecture for Visual Computing (PDF). Intel. [2008-08-06]. doi:10.1145/1399504.1360617. (原始内容 (PDF)存档于2008-09-20). 
  14. ^ Intel 独立显卡 Larrabee 支持光线追踪
  15. ^ Intel:光线追踪不是 Larrabee 的重点
  16. ^ IDF第二日 Intel再次展示Larrabee显卡. mydrivers.com. 2009-09-24 [2013-05-21]. 
  17. ^ 17.0 17.1 剖析Larrabee利器之共享虚拟内存. zdnet.com. 2009-12-08 [2013-05-21]. 
  18. ^ Intel:Larrabee 浮点运算能力 2TFlops
  19. ^ 19.0 19.1 19.2 X86架构的GPU?解读Larrabee规格特性. Tom's Hardware. pcpop.com. 2009-04-10 [2013-05-20]. 
  20. ^ Intel之呐喊 Larrabee无需DirectX. 小熊在线. sina.com.cn. 2008-07-17 [2013-05-20]. 
  21. ^ Intel:且看CPU怎么实现MLAA抗锯齿 - zdnet.com.cn
  22. ^ Intel 透露 Larrabee 架构细节
  23. ^ Intel Larrabee:核心翻番、性能翻番
  24. ^ Intel Larrabee 核心翻番 性能翻番. mydrivers.com. enet.com.cn. 2008-08-05 [2013-05-21]. (原始内容存档于2016-03-09). 
  25. ^ Intel于i7后重大举措 Larrabee显卡雏形 - 163.com
  26. ^ 英特尔Larrabee显卡不支持节能技术. Fudzilla. 2008-07-16 [2013-05-21]. 
  27. ^ 英特尔Larrabee独立显卡发展AIB/AIC - www.sina.com.cn
  28. ^ 三雄争霸!Intel和AIB厂商密谈larrabee显卡事宜 - expreview.com
  29. ^ 29.0 29.1 E3评论:PS4上AMD捡了Intel Larrabee的剩饭? - mydrivers.com
  30. ^ Rumor: Sony considered Larrabee for PS4, will reconsider for PS5, PS6. joystiq.com. 2009-12-28 [2013-05-26]. 
  31. ^ Rumor: Intel Larrabee Tapped For PS4 GPU [Update]. playstationlifestyle.net. 2009-02-08 [2013-05-26]. 
  32. ^ E3评论 PS4上AMD捡了Larrabee的剩饭?. enet.com.cn. [2013-05-26]. (原始内容存档于2013-09-02). 
  33. ^ Intel kills Larrabee discrete GPU, will focus on integrated graphics
  34. ^ Intel Larrabee显卡首次现场演示 - mydrivers.com
  35. ^ Intel's Larrabee GPU put on ice, more news to come in 2010
  36. ^ 英特尔:Larrabee 独立显卡项目未取消
  37. ^ Intel:Larrabee 显卡初期只是软件开发平台
  38. ^ 新闻分析:Intel Larrabee 缘何陷入僵局
  39. ^ Intel 独立显卡基本泡汤
  40. ^ Intel Cancels Larrabee Retail Products, Larrabee Project Lives On - AnandTech :: Your Source for Hardware Analysis and News
  41. ^ Intel:Larrabee显卡初期只是软件开发平台 - mydrivers.com
  42. ^ Intel 彻底放弃 Larrabee 架构独立显卡? 互联网档案馆的存档,存档日期2010-09-22.
  43. ^ Intel承认推出Larrabee独立显卡不现实 - expreview.com
  44. ^ Technology@Intel · An Update On Our Graphics-related Programs
  45. ^ 45.0 45.1 Intel未来战略解析:Larrabee显卡复活 - chinabyte.com
  46. ^ PCINLIFE: Intel Larrabee GPU 体系结构初览 互联网档案馆的存档,存档日期2009-06-29.
  47. ^ 47.0 47.1 bolvar. 下一代Xeon Phi割掉Larrabee尾巴,抛弃纹理单元变身纯计算卡. expreview.com. expreview.com. 
  48. ^ bolvar. 240个处理器核心同时100%负载是一种什么样的体验?. expreview.com. expreview.com. 
  49. ^ NVIDIA作别英特尔执意单飞 甩脱授权纠纷黄仁勋只身前行. ittime.com.cn. 2009-11-26 [2013-05-21]. (原始内容存档于2013-06-28). 
  50. ^ 黄仁勋的童心与雄心. CEOCIO信息. 2009-11-20 [2013-05-21]. 
  51. ^ 专访Nvidia黄仁勋:英特尔不足为惧. iworkstation.com.cn. 2009-06-02 [2013-05-21]. (原始内容存档于2013-04-20). 
  52. ^ 专访黄仁勋:Nvidia要与英特尔展开长期抗战. chinaunix.net. 2008-05-16 [2013-05-21]. (原始内容存档于2013-07-03). 
  53. ^ Intel:黄仁勋是 Larrabee 最佳代言人[失效链接]
  54. ^ Intel Larrabee拥有独立驱动研发团队. mydrivers.com. cnetnews.com.cn. 2008-09-04 [2013-05-21]. (原始内容存档于2016-03-04). 
  55. ^ Intel Larrabee不是显卡胜过显卡!. it168.com. 2008-02-23 [2013-05-21]. (原始内容存档于2013-04-06). 
  56. ^ 巨头“心血之作”终失败(四):intel Larrabee图形芯片. leiphone.com. 2012-04-02 [2013-05-25]. 
  57. ^ Larrabee 驱动开发团队有别于 IGP 团队[失效链接]
  58. ^ Intel Larrabee支持DirectX和OpenGL. inpai.com.cn. 2008-07-22 [2013-05-21]. (原始内容存档于2013-06-28). 
  59. ^ 欲登陆PS4 Intel Larrabee架构困难重重. pc.watch.impress.co.jk. yesky.com. 2009-03-13 [2013-05-26]. 
  60. ^ 图形与计算的融合,AMD GCN架构解析. expreview.com. 2011-12-22 [2013-05-21]. 

外部链接

  • 开源 GPU 社区(简体中文)
版权声明:本文由北城百科网创作,转载请联系管理获取授权,未经容许转载必究。https://www.beichengjiu.com/computerscience/340436.html

相关推荐