首页 > 资料专栏 > IT > IT技术 > 人工智能 > 人工智能系列报告之四_智能时代_芯片先行

人工智能系列报告之四_智能时代_芯片先行

变丽时代
V 实名认证
内容提供者
热门搜索
芯片 人工智能报告
资料大小:3378KB(压缩后)
文档格式:WinRAR
资料语言:中文版/英文版/日文版
解压密码:m448
更新时间:2018/5/29(发布于北京)

类型:积分资料
积分:10分 (VIP无积分限制)
推荐:升级会员

   点此下载 ==>> 点击下载文档


文本描述
-1- 敬请参阅最后一页特别声明 长期竞争力评级:高于行业均值 市场数据(人民币) 行业优化平均市盈率24.6 8市场优化平均市盈率18.43 国金计算机指数7300.57 沪深300指数3817.79 上证指数3341.55 深证成指10930.67 中小板综指11639.16 相关报告 1.《人工智能时代:AI 赋能,世界重塑》, 2017.9.1 82.《无人零售:技术破局引领商业变革》, 2017.9.15 3.《企业级服务景气度提升,AI延伸至消 费电子端》,2017.9.11 4.《WannaCry勒索病毒爆发,利好网络安 全行业》,2017.5.15 5.《行业继续保持高景气,板块分化抓住结 构性机会》,2017.5.4 钱路丰分析师 SAC执业编号:S1130517060003 qianlufeng@gjzq 潘宁河联系人 panninghe@gjzq 蒲梦洁联系人 pumengjie@gjzq 智能时代,芯片先行 --人工智能系列报告之四 行业观点 是当前最主流的人工智能算法,其通过海量样本数据进行机器学习,从而生 成具备智能判断能力的模型。近年来,随着GPU等硬件计算平台性能的提 升,以及互联网带来的大数据资源,神经网络算法已经被应用到人脸识别、 语音识别等多个领域,实现了极高的准确率。但同时,神经网络算法的精确 度提升十分依赖于海量的计算资源,计算能力的需求将在人工智能时代迎来 爆发式的增长
展,使得传统的CPU已经无法负担几何级增长的计算量。传统CPU支持的 指令集更加通用,主要针对非计算密集型的程序,其优化在于加速分支判 断、逻辑判断等操作,对神经网络算法这种计算密集型的应用并不适合。在 芯片产业的发展历史上,当软件加速方案已经远远达不到需求时,针对某一 应用的硬件解决方案就会填补这一空白,从信号处理芯片DSP、图形芯片 GPU到图像处理芯片ISP等,都是这一技术演进路径的案例。基于当下人 工智能算法的广泛应用,AI专属芯片已成行业发展的必然选择
(Training)阶段的加速主要在服务器端完成。在这一过程中,计算节点的 处理芯片已不再是传统的CPU,更适合神经网络计算特点的芯片方案被采 用,包括GPU、FPGA、以及专属的ASIC芯片方案。其中GPU的浮点计 算能力较为出色,FPGA架构更为灵活,适合迭代开发计算,而专属的 ASIC芯片方案性能最优,但是初期研发成本较高,目前主要是谷歌、英特 尔等巨头玩家参与。三种方案在成本、功耗、速度方面各有优劣,在当前的 一段时间内会并存
入渗透到行业的各个领域,在终端,推理(Inference)阶段的计算能力越来 越成为瓶颈。一些对即时性要求很高的应用场景,已经无法通过在云端进行 推理计算的方式满足,终端AI芯片加速成为了必选的方案。于是,以低延 时、低功耗为目标的定制化终端AI芯片成为了各种应用场景的选择,该领 域典型的参与者有专注无人驾驶场景的Mobileye、机器视觉领域的 Movidius、消费电子端的寒武纪等。我们认为,终端AI芯片更接近消费 者,在硬件先行的前提下,未来如能形成丰富的终端AI应用生态圈,则快 速增长的出货量将摊薄前期研发成本,形成行业发展的正反馈
投资建议 作为计算能力的保障,将迎来巨大的需求。从云端的高性能服务器到终端的 视频监控、消费电子等领域,在产业链上均有机会享受这场变革带来的红 利。在上市公司受益标的方面,我们建议关注:拥有深度学习平台及产品 XSystem的中科曙光(603019.SH)、在移动端AI芯片产业链布局较早的中 科创达(300496.SZ)、与百度联合推出人工智能ABC一体机的浪潮信息 (000977.SZ)、专注于视频监控前端智能化芯片的富瀚微(300613.SZ)
风险提示 终端AI应用接受程度未达预期; 6577 7094 7611 812 88645 9162 967909 26 162603 2606 26 国金行业沪深300 2017年09月25日 计算机行业 评级:增持维持评级 行业研究 证券研究报告 用使司公限有理管金基银瑞投国供仅告报此 此报告仅供国投瑞银基金管理有限公司使用 行业深度研究 -2- 敬请参阅最后一页特别声明 内容目录 一、人工智能深入渗透,催生AI芯片产业......4 神经网络算法逐渐成熟,推动人工智能跨越式发展..4 神经网络算法对计算能力提出了极高的要求.5 计算需求几何级增长,催生AI硬件解决方案...........6 二、服务器端AI芯片:多种技术路线实现高并发计算7 GPU:出色的浮点计算性能加速神经网络计算.........7 FPGA:架构最为灵活的可编程加速器.......11 专属ASIC芯片:先行者的游戏.....14 三种方案对比........1 8三、终端AI芯片:应用场景驱动,市场前景广阔.....19 无人驾驶场景:以Mobileye公司EyeQ系列芯片为代表....20 计算机视觉场景:以Movidius的Myriad系列芯片为代表..21 消费电子场景:以寒武纪Cambricon-1A为代表....22 四、投资建议...........24 中科曙光(603019.SH).......24 中科创达(300496.SZ)........24 浪潮信息(000977.SZ)........24 富瀚微(300613.SZ)...........25 五、风险提示...........25 图表目录 图表1:人工智能的发展经历了较长时间的摸索期......4 图表2:深度学习算法隐含层数越深,则错误率随之显著降低.5 图表3:神经元数量的增长对计算性能提出了更高的要求........5 图表4:神经网络算法训练(Training)和推理(Inference)阶段各有需求....6 图表5:将专用算法硬件优化是ASIC芯片的发展方向7 图表6:互联网和芯片行业巨头纷纷布局AI芯片领域.7 图表7:GPU从2013年开始应用于各行业的深度学习加速中 8图表8:众多教育机构、科技巨头公司及初创公司都在使用GPU加速深度学习 .......... 8图表9:CPU是基于低延时的设计而GPU是基于大吞吐量的设计......9 图表10:英伟达基于Maxwell构架的GPU结构及其数据处理过程...10 图表11:利用GPU加速后,浮点运算性能得到极大提升.....11 图表12:FPGA在深度学习领域应用的重大事件历程...........11 图表13:美国市场FPGA一半以上被用于通信和工业领域(单位:十亿美元) ........12 图表14:在矩阵相乘(GEMM)测试中FPGA性能均好于GPU ......13 淘宝店铺 “Vivian研报” 收集整理 获取最新报告及后续更新服务请淘宝搜索“Vivian研报” 行业深度研究 -3- 敬请参阅最后一页特别声明 图表15:FPGA由可编程逻辑快、连接网络、输入输出模块构成.....13 图表16:FPGA与CPU在处理器逻辑结构、特点、使用场景方面的对比.....14 图表17:英特尔Lake Crest利用处理集群优化AI应用........15 图表18:用64个第二代TPU构建的“TUP POD”,可以提供11500万亿次/ 秒浮点运算能力........15 图表19:TPU用8bit的矩阵乘法单元(MUX)来对DNN进行数字处理......16 图表20:MUX运算单元占整个TPU芯片一半面积..17 图表21:和CPG/GPU相比(左)TPU(右)采用了截然不同的“脉动阵列” ........17 图表22:CPU、GPU、TPU在LSTM、CNN等六种神经网络上的性能表现17 图表23:ASIC的设计环节比FPGA要复杂得多,导致开发周期较长...........1 8图表24:产量较低时FPGA成本小于ASIC,产量较高时ASIC成本小于 FPGA ...........1 8图表25:专用芯片(ASIC)的计算效率虽然最高,但是灵活性最低19 图表26:CPU、GPU、FPGA、ASIC在处理计算密集型任务时的性能比较.19 图表27:CPU、GPU、FPGA、ASIC的实现比较....19 图表28:终端AI芯片场景案例——翻译机...20 图表29:EyeQ系列芯片针对无人驾驶算法做硬件优化........21 图表30:Movidius的Myriad X芯片针对视觉计算有多项性能提升...22 图表31: Movidius的Myriad系列芯片已经在多个下游领域应用.....22 图表32:寒武纪1号神经网络处理器架构....23 图表33:寒武纪1号芯片和同期主流芯片对比.........23 图表34:AI芯片和AI场景应用有望形成正反馈循环24 行业深度研究 -4- 敬请参阅最后一页特别声明 一、人工智能深入渗透,催生AI芯片产业 神经网络算法逐渐成熟,推动人工智能跨越式发展 Intelligence)是一种能够模拟人类智能行为和思维过程的系统,其概念于 1956年达特茅斯会议上,首次被学术界提出。在人工智能前几十年的发展 历程中,聚类算法、决策树算法、支持向量机等算法相继被提出,然而由 于实际应用效果欠佳,并未被大规模采用,人工智能的发展甚至一度陷入 了停滞。直到近年,深度神经网络算法的大规模应用,使得人工智能技术 跨过了漫长的摸索期,打开了下游应用多点开花的新局面
图表1:人工智能的发展经历了较长时间的摸索期 来源:科大讯飞官网,国金证券研究所 经网络算法,是一种通过模拟人脑神经元的结构,结合机器学习的理念, 构建人工智能解决方案的算法。从1957年第一个神经网络——感知器被 提出以来,神经网络算法便不断被优化,优质算法的不断迭代使得模型的 准确率不断提高,另一方面神经网络自身隐含层数的增加也明显提升了模 型性能及模型对现实的刻画能力。在算法不断实现突破的同时,数据和计 算能力成为主要瓶颈,神经网络隐含层数的增加要求拥有充足的用于训练 模型的数据集,但是80年代可以采集到的数据极为有限,而且用大量的数 据进行训练也要求相应的硬件计算资源及计算能力的提升,当时的硬件水 平也无法满足大规模的计算需求,以上因素使得深度神经网络曾经一度 “无用武之地”。近年来,随着GPU等硬件计算平台被应用到神经网络算 法,以及互联网带来的海量大数据资源,神经网络算法已经被应用到人脸 识别、语音识别等多个领域,实现了极高的准确率,其已成为当前人工智 能领域的主流算法。
。。。以上简介无排版格式,详细内容请下载查看