您的位置 主页 > E生活居 >英特尔发表最新 AI 晶片 Nervana,把 Google、台积电技术都用上了 >

英特尔发表最新 AI 晶片 Nervana,把 Google、台积电技术都用上了

英特尔发表最新 AI 晶片 Nervana,把 Google、台积电技术都用上了

近几年 AI 晶片火热,不让 Nvidia 专美于前,英特尔在确定进入 10 奈米时代后更是积极追赶,美国时间 20 日,英特尔公布首款神经网路处理器 Nervana(代号Springhill)相关细节,包含训练晶片 NNP-T 与推论晶片 NNP-I,加上原有的 Xeon 在 AI 晶片阵容越发坚强,技术也开始兼容了起来。

美国时间 20 日,英特尔在今年 Hot Chips 大会上公布首款神经网路处理器 Nervana 细节,如其名,这是 2016 年英特尔收购包含 Nervana 几家新创公司的成果。Nervana 处理器分为训练晶片 NNP-T 与推论晶片 NNP-I。

训练用的 Nervana NNP-T,主打可编程与灵活性,并强调可从头建构大规模深度学习模型,且尽可能训练电脑在给定的能耗预算内快速完成任务,也无需传统技术的庞大开销。

英特尔拓展了 Google Tensorflow 的 bfloat16 运算

NNP-T 支援了 Google TPU Tensorflow 架构特有的运算格式「bfloat16」,bfloat16 截断既有的 32 位元 float32 的前 16 位,仅留下后 16 位所组成,包含 Google 以及英特尔/Facebook 都在 bfloat16 进行研究,确认在许多机器学习模型可以容忍较低精确度计算、不需降低收敛準确率的情况下,许多模型使用 bfloat16 达到的收敛準确率结果与一般使用的 32 位元浮点(FP32)计算数值的结果一样。降低精度其实能让记忆体效率取得较佳的平衡,从而训练与部署更多的网路、降低训练所需的时间,有较好的效率与灵活性,包含此次的 NNP-T、新的 Xeon 处理器 Cooper Lake 新的 AI 晶片家族都纷纷宣告支援起 bfloat16。 

英特尔发表最新 AI 晶片 Nervana,把 Google、台积电技术都用上了

bfloat16 浮点格式。

训练晶片 NNP-T 罕见採用台积电 16nm CLN FF+ 製程

另外有趣的是 NNP-T 其实採用的是台积电 16 奈米 CLN FF+ 製程,这与一般我们对英特尔自行生产晶片的认知有所差异,而在 Nervana 被英特尔收购前,第一代 Lake Crest 就是由台积电所代工。NNP-T 採用台积电最新的 CoWoS(Chip on Wafer on Substrate)封装技术,将 NNP-T 的晶粒与 4 个 8GB HBM2 记忆体异质整合堆叠 2.5D,让其封装体积缩小成一个 60X60 mm的晶片。

英特尔发表最新 AI 晶片 Nervana,把 Google、台积电技术都用上了

Nervana NNP-T 採用台积电 16nm CLN FF+ 製程。

推论晶片 NNP-I 以 10nm Ice Lake 架构出发

英特尔同时发表了推论晶片 Nervana NNP-I,主要针对大型资料中心市场高效能深度学习推论而生,NNP-I 主要基于英特尔 10nm Ice Lake 处理器,官方强调透过此晶片,可提高每瓦效能,让企业以更低的成本执行推论运算工作,降低推论大量部署的成本。英特尔指出,NNP-I在功率 10 瓦下每秒能处理 3600 张影像,而处理器本身亦拥有高度可编程性,且同时不影响性能与功效。

英特尔发表最新 AI 晶片 Nervana,把 Google、台积电技术都用上了

Nervana NNP-I 主要配置。

NNP-I 已与 Facebook 合作并实际运用在其相关业务上,而 NNP-T 将于今年底以前针对尤其云端服务商相关的高阶客户送样,并在 2020 年之前拓展市场。

  上一篇:   下一篇: