AI 芯片激烈竞争赛

2019-08-16 13:12:24 来源: 半导体行业观察
标签:
AI   芯片

人工智能(AI)主要包括三大要素,分别是数据、算法和算力。其中数据是基础,正是因为在实际应用当中的数据量越来越大,使得传统计算方式和硬件难以满足要求,才催生了AI应用的落地。而算法是连接软件、数据、应用和硬件的重要桥梁,非常关键。算力方面,主要靠硬件实现,也就是各种实现AI功能的处理器,而随着应用和?#38469;?#30340;发展,能实现各种算力、满足不同应用的AI处理器陆续登场,经过不同的发展阶段,发挥着各自的作用。

 

在比较成熟的AI平台方面,在2012年出现了AlexNet,一直到最近,2018年出现了AlphaGo Zero,在短短的6年内,算力提高了20多万倍,这完全不同于传统计算硬件(如CPU、MCU等)的演进轨迹,速度之惊人令我们难以预测。


来自OpenAI的分析显示,近几年,AI训练所需的算力每3个多月就会翻倍,这比著名的摩尔定律(每18~24个月,芯片的性能翻倍)演进速度快多了。而提升算力的关键是芯片设计,特别是底层的架构设计,目前来看,传统的芯片架构已经难以满足AI应用的需要。包括IC厂商和互联网企业在内,越来越多的厂商开始投入研发或已经推出AI专用芯片。根据Gartner统计,AI芯片在2017年的市场规模约为46亿美元,而到2020年,预计将会达到148亿美元,年均复合增长率为47%。而据麦肯锡预测,未来10年,人工智能和深度学习将成为提升硅片需求的主要因素,2025年,在AI的推动下,全球硅片营收将超过600亿美元,接近全球半导体销售额的20%。


三种AI芯片的对比

从AI芯片的应用场景类别来看,主要分为云端和终端。目前,AI在云端应用的更多,相对成熟,而其在云端应用又可分为训练和推理两种,其中训练的市场规模占比较高。另外,训练需要的数据量和计算量较大,所用的处理器主要是GPU。至于推理,也以GPU为主,此外,还有FPGA,以及专用的AI芯片(ASIC),其中,ASIC还不是很成熟,量产的产品也不多,因此用量有限,还处于发展初期,如果能实现大规模量产,其性能和成本是最优的,主要推进厂商是Google,其标志性产品就是TPU。


综上,目前,行业为实现AI计算,主要采用的芯片有三种,分别是通用型的GPU,可定制的FPGA,以及专用的ASIC。


在计算层面,芯片的晶体管数量和芯片面积决定了算力,面积越大算力越强,但功耗也将随之增加。过去几年,在AI处理器的选择上,可用于通用基础计算?#20197;?#31639;速率更快的GPU迅速成为实现AI计算的主流芯片,英伟达也因此占据着数据中心AI芯片的主要市场份额。


FPGA是典型的半定制化芯片,其功能可以通过编程来修?#27169;?#24182;行计算能力很强,但是延迟和功耗远低于GPU,而与ASIC相比,FPGA的一次性成本要低很多,但其量产成?#31454;?#39640;。因此,在实际应用需求还未?#26194;?#27169;,且算法需要不?#31995;?#20195;、改进的情况下,利用FPGA的可重构特性来实现半定制的AI芯片是最佳选择。


AI专用芯片ASIC是面向特定应用需求而定制的芯片,一旦流片,其功能无法更?#27169;?#22240;此,必须要有量的保证,且应用需求稳定,不会发生大的变化。专用ASIC芯片的性能高于FPGA,如果出货量可观,其单颗成本可做到远低于FPGA和GPU。


目前来看,由于GPU具备强大的并行计算能力和完善的生态系统,现在云端AI应用方面处于主导地位。FPGA方面,由于是半定制化的,可以通过编程来实现不同的功能电路,因此,其在通用性和性能之间取得了比较好的平衡,但是较高的开发门槛和量产成本,对其应用是个限制。

 


?#36857;?#22312;实现AI功能方面,GPU、FPGA和ASIC的优缺点对比(来源:长城证券?#33455;?#25152;)


专用的AI芯片应该是未来的发展趋势,无论是在云端还是在边缘侧,随着应用的逐渐落地,应用场景和各种专用功能会愈加清晰,市场需求也会越来越多。另外,与GPU和FPGA相比,ASIC的专利壁垒要小得多,而且其设计难度也是最小的。随着AI应用场景的落地,专用的ASIC芯片量产成本低、性能高、功耗低的优势会逐渐凸显出?#30784;?/p>


AI芯片案例
目前,在AI应用方面,全球数据中心用GPU市场基本被英伟达垄断,这里用到的都是高性能GPU,其门槛很高,又是用于AI,因此,还没有什么竞争对手。


除了GPU芯片本身之外,英伟达还有一个优势,那就是其在AI计算方面,有CUDA软件生态系统的配合。CUDA编程工具包让开发者可以对每一个像素轻松编程,在这之前,对程序员来说,GPU编程是一件很痛苦的事,CUDA?#26194;?#23558;Java、C++等高级语言开放给了GPU编程,从而让GPU编程变得简单了许多,?#33455;空?#20063;可以更低的成本快速开发他们的深度学习模型。以图形处理器加速卡Tesla V100 PCIe/SXM2为例,其芯片采用台积电的12nm制程工艺,通过与CUDA软件和NVLink快速通道的配合,能达到近125兆次深度学习的浮点运算训练速度,而以16bit的半精度浮点性能来看,可达到31Tera FLOPS。


FPGA方面,Altera被英特尔收购之后,赛灵思是目前的霸主,作为传统的CPU厂商,英特尔近几年正在AI领域大力布局,收购相关公司自然是一个重要手段,通过收购全面布局 FPGA和ASIC,除了Altera的FPGA之外,还通过收购Mobileye和视觉处理器公司Movidius,布局无人驾驶和计算机视觉,这也是将来AI大有可为的两个应用领域。


在收购Altera之后,英特尔的?#38469;?#21457;展路线?#32479;?#29616;了调整,例如,其原来的产品策略是做分立的CPU+FPGA加速器,而两家公司整合后,由简单的分立器件叠加改为了封装集成,即将CPU和FPGA芯片封装在一起,这还不算完,英特尔下一?#20132;?#35201;将CPU和FPGA集成在同一芯片内,做成SoC。


赛灵思方面,该公司于2018年底推出了以?#32479;?#26412;、低延迟、高能效深度神经网络(DNN)算法为基础的Alveo加速卡,基于该公司的UltraScale架构,采用了台积电的16nm制程工艺,目标市场就是数据中心和云端的AI推理市场。


AI专用ASIC方面,国内外已经有多家企业投入了研发,例如国内的寒武纪(正在开发NPU)、地平线(BPU系列),还有华为海思和比特大陆,也在专用AI芯片方面投入了不少资?#30784;?#22269;外最为知名的就是谷歌的TPU了,这也是到目前为止,最为成熟的高性能AI专用芯片了。做ASIC需要对应用场景有深刻和精确到位的了解,而这方面却是传统芯片设计企业和IDM的短板,因此,目前做AI专用ASIC的,大多是系统产商,互联网巨头,或者以算法起家的公司。


在中国,比特大陆的算丰 (SOPHON) BM1680和BM1682云端安防及大数据AI推理系列产品已经上市,此外,还有其它几家没有量产的芯片,如华为海思的昇腾Ascend 910系列,据悉会采用台积电的7nm制程工艺,预计会在今年年底量产。此外,百度的昆仑芯片(采用三星的14nm制程),以及阿里平头哥的Ali-NPU等,也处在研发阶段,距离量产还有一段?#27604;鍘?/p>


以上谈的主要是用于云端的AI芯片,包括GPU、FPGA和ASIC,这也是目前AI的主要应用领域,而在终端和边缘侧,更多的要依靠不断成熟的ASIC,因为ASIC与应用场景有着非常紧密的关系,而这里说的应用场景,主要是在终端和边缘侧。


结语
AI发展正处于强劲的上升阶段,此?#20445;?#21508;种AI芯片实现方案?#21152;?#20854;发挥的空间,可以说是处于最佳时期,这也给众多厂商占领各自擅长之应用市场提供了更多的机会。而随着应用场景的完全落地,以及AI专用芯片的成熟和大规模量产,这一发展窗口期很可能就将关闭,因此,眼下各?#39029;?#21830;,无论是做GPU、FPGA,还是做ASIC的,都在抓紧时间研发和拓?#25925;?#22330;,竞争愈发激烈。

 
关注与非网微信 ( ee-focus )
限量版产业观察、行业动态、?#38469;?#22823;餐每日推荐
享受快时代的精品慢阅读
 

 

继续阅读
小米 9 与荣耀 V20 的对决之战

昨天我们发布了华为 nova5 Pro与小米9对比评测,今天再来看看小米9对峙荣耀V20的对决之战。

汇纳科技半年报:净利增长 64.00%,基于海思 AI 有望冲击涨停?

与非网8月16日讯,汇纳科技8月15日晚间披露半年报,公司上半年实现营业收入1.09亿元,同比增长42.64%;净利润2325.78万元,同比增长64.00%。基本每股?#25214;?.23元。

努比亚Z20开卖,3499元起能买到这么多配置?
努比亚Z20开卖,3499元起能买到这么多配置?

8月8日,努比亚在?#26412;?#20030;行新品发布会,努比亚Z20正式亮相。该机采用了双曲面柔性屏方案,这是努比亚Z系列首款双屏手机。现在有最新消息,努比亚官方近?#25307;?#24067;,全新的努比亚Z20将于8月16?#25214;?#23601;是今天上午10点正式开卖,售价3499元起。

NVIDIA 在语言理解方面取得突破, 有望实现实时会话 AI

NVIDIA日前宣布在语言理解方面取得了突破性?#26194;?#20196;企业能够以更加自然的方式,使用实时会话 AI与客户进行互动。

作为物联网?#36335;?#24335;的智联网,能否帮助?#26377;?#20960;千年的“养猪”行业?

AI与IoT相辅相成。IoT为AI提供深度学习所需的海量数据养料,而其场景化互联更为AI的快速落地提供了基础。AI则将连接后产生的海量数据经分析决策转换为价值。

更多资讯
曾错过一?#20301;?#36935;的 AMD,这?#25991;?#20160;么来斗 Intel?

2003年,这家芯片制造商推出了“SledgeHammer”Opteron(皓龙),这是首款64位X86服务器处理器,与上一代32位处理器兼容,当?#20445;?#35268;模更大的竞争对手英特尔仍在大力推广Itanium作为下一代架构,这也是它唯一的64位选择。在短短三年左右的时间里,AMD占据了服务器芯片市场20%以上的份额,并成为英特尔的主要竞争对手。

净利暴跌 50%,英伟达发生了什么?

英伟达今日公布了该公司的2020财年第二季度财报。报告显示,英伟达第二季度营收为25.79亿美元,与上年同期的31.23亿美元相比下降17%;净利润为5.52亿美元,与上年同期的11.01亿美元相比下降50%。

联发科5G芯片领跑,已通过5G独立组网连网通话测试

近日,联发科携手国际合作伙伴与核心网伙伴诺基亚、思科、基站供应商爱立信、国外运营商T-mobile?#26194;?#23436;成5G独立组网连网通话?#36234;櫻?#27492;次共同合作测试,实现了全球第一个5G独立组网的通话连网,这将让5G商用部署具备更多弹性。

中国电科发布“海?#28014;比现?#22788;理器,有何神奇之处?
中国电科发布“海?#28014;比现?#22788;理器,有何神奇之处?

与非网8月16日讯,近一段时间中国芯硬来了一波小高?#20445;?#21508;?#26234;?#21170;的芯片产品纷纷亮相。今天,聚光灯下的明星芯片又多了一?#20445;?#23427;就是“海?#28014;比现?#22788;理器。

ARM内存边界对齐的结构体

默认情况下,在32位cpu里,gcc对于结构体的对齐方式是按照四个字节来对齐的。看以下结构体

王牌战士什么时候开服
赛车pk拾高手赌法 福彩选7 三肖中特期期准精准 排九牌大小顺序口诀 网上的通比牛牛老是输 广东十一选五开奖视频 北京极速赛车公众号平台 3D开机号开奖 325游戏下载官网 pc蛋蛋开奖号码