书签 分享 收藏 举报 版权申诉 / 52

艾瑞:2019年AI芯片行业研究报告(52页).pdf

  • 上传人:风亭
  • 文档编号:9364
  • 上传时间:2020-07-31
  • 格式:PDF
  • 页数:52
  • 大小:2.65MB
  • 配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    艾瑞 2019 AI 芯片 行业 研究 报告 52
    资源描述:

    《艾瑞:2019年AI芯片行业研究报告(52页).pdf》由会员分享,可在线阅读,更多相关《艾瑞:2019年AI芯片行业研究报告(52页).pdf(52页珍藏版)》请在三个皮匠报告文库上搜索。

    1、AI芯片行业研究报告 2019年 2 2019.6 iResearch Inc. 摘要 来源:艾瑞研究院自主绘制。 芯片行业具有资本和技术壁垒双高的特点,高昂的研发费用需要广大的市场进行支 撑,对于AI芯片厂商来说除了核心软硬件技术开发实力外,市场洞察及成本控制亦 是不可或缺的能力; 行业当前接近Gartner技术曲线泡沫顶端,未来12年将会面临市场对于产品的检 验,只有通过市场检验和筛选的优质团队才能够继续获得产业、政策和资本的青睐 和继续支持。 AI芯片主要适用于包括训练、推理在内的AI应用,擅长并行计算。主要应用于云端、 边缘及物联网设备终端。市场空间在2022年有望超过500亿美元; 。

    2、边缘侧和终端对于AI芯片需求更加分散,不同场景需要综合考虑芯片的PPACR。AI 芯片作为协处理器难以单独实现应用功能,对厂家软件及系统开发交付能力同样有 很高的考量。不同的应用场景中,拥有较高的固有行业壁垒,这需要AI芯片厂商能 够加强与产业固有主体的合作,融入现有产业结构; AI芯片在云端主要为数据分析、模型开发(训练)及部分AI应用(推理)等提供算 力支持。英伟达基于其完备的GPU+CUDA生态主导云端AI芯片市场,但其产品售 价高昂,GPU计算效能及功耗不如FPGA及ASIC芯片,市场寻求潜在替代方案; SMSSMS 3 AI芯片行业概述1 AI芯片应用场景及市场需求分析2 AI芯片行。

    3、业产业链及商业模式分析3 AI芯片行业发展展望4 企业推荐5 4 2019.6 iResearch Inc. 芯片工艺制程逼近物理极限; CPU芯片中大量晶体管用于 构建逻辑控制和存储单元,用 于构建计算单元的晶体管占比 极小; 为了保证兼容性,CPU构架 演进发展受限。 关于人工智能芯片(AI芯片) AI芯片:基于矩阵运算、面向AI应用的芯片设计方案 1、定义:当前AI芯片设计方案繁多,包括但不限于GPUFPGAASICDSP等。目前市场上的对于AI芯片并无明确统一的 定义,广义上所有面向人工智能(Artificial Intelligence,AI)应用的芯片都可以被称为AI芯片。 2、当。

    4、前AI运算指以“深度学习” 为代表的神经网络算法,需要系统能够高效处理大量非结构化数据(文本、视频、图 像、语音等)。这需要硬件具有高效的线性代数运算能力,计算任务具有:单位计算任务简单,逻辑控制难度要求低,但 并行运算量大、参数多的特点。对于芯片的多核并行运算、片上存储、带宽、低延时的访存等提出了较高的需求。 3、针对不同应用场景,AI芯片还应满足:对主流AI算法框架兼容、可编程、可拓展、低功耗、体积及造价等需求。 注释:DL:Deep Learning,指深度学习。 来源:Deep LearningIan Goodfellow、Yoshua Bengio、Aaron Courville;英。

    5、伟达官网。 Control ALUALU ALUALU Cache DRAMDRAM ALU 深度学习模型复杂度及规模对芯片算力需求激增通过架构设计AI芯片跨越工艺限制,算力效能对 CPU实现大幅超越 工艺提升缓慢,面对大规模 并行运算需求,需要对芯片 架构进行重新设计; GPU:开发即面向图像处理 等大规模运算需求; FPGA/ASIC:对缓存、计算 单元、连接进行针对性优化 设计。 5 2019.6 iResearch Inc. AI芯片实现算力提升 AI芯片满足AI应用所需的“暴力计算”需求 早在上世纪80年代,学术界已经提出了相当完善的人工智能算法模型,但直到近些年,模型的内在价值也没。

    6、有被真正的实 现过。这主要是受限于硬件技术发展水平,难以提供可以支撑深度神经网络训练/推断过程所需要的算力。直到近年来 GPUFPGAASIC等异构计算芯片被投入应用到AI应用相关领域,解决了算力不足的问题。 下图以云计算场景为例,通过对全球几大科技巨头的代表性云端芯片产品计算性能对比,我们可以发现ASIC芯片相比起其 他几种芯片,在计算效能、大小、成本等方面都有着极大优势,未来随着通用AI指令集架构的开发,预计会出现最优配置 的AI计算芯片。 注释:PPA:POWER、PERFORMANCE、AREA,指芯片的算力、功耗和面积。 来源:Intel官网;英伟达官网;公开网络数据;艾瑞研究院。 。

    7、0.0018 10 15.7 45 Intel-XEONIntel/Altera-Stratix 10SoCNvidia-TESLA V100Google-TPUv2 典型的云端计算芯片算力表现比较 Performance(TFLOPs) CPUFPGAGPUASIC 优点:通用性好,串行运算 能力强;适用于逻辑运算; 缺点:开发难度最大,大量 的晶体管用于构建控制电路 和高速缓冲存储器,运算单 元占比少,架构限制了算力 的进一步提升。 优点:相比CPU,由于其多 线程结构,拥有较强的并行 运算能力,与FPGA和ASIC 相比通用性更强; 缺点:价格、功耗等不如 FPGA和ASIC,并行运算能。

    8、 力在推理端无法完全发挥。 优点:可对芯片硬件层进行 灵活编译,且功耗远远小于 CPU和GPU 缺点:硬件编程语言难以掌 握,单个单元的计算能力比 较弱,硬件成本较高,电子 管冗余,功耗可进一步压 缩。 优点:针对专门的任务进行 架构层的优化设计,可实现 PPA最优化设计、量产后成 本最低; 缺点:初始设计投入大,可 编程架构设计难度较大,针 对性设计会限制芯片通用 性。 6 2019.6 iResearch Inc. AI芯片产品定位 AI芯片对CPU并非替代,与CPU共同满足新时代计算需求 目前来看,AI芯片并不能取代CPU的位置,正如GPU作为专用图像处理器与CPU的共生关系,AI芯片将。

    9、会作为CPU的AI运 算协处理器,专门处理AI应用所需要的大并行矩阵计算需求,而CPU作为核心逻辑处理器,统一进行任务调度。 在服务器产品中,AI芯片被设计成计算板卡,通过主板上的PCIE接口与CPU相连;而在终端设备中,由于面积、功耗成本 等条件限制,AI芯片需要以IP形式被整合进SoC系统级芯片,主要实现终端对计算力要求较低的AI推断任务。 来源:英伟达官网,公开网络数据。 服务器级产品中通过PCB上PCIE接口与CPU组成 异构计算单元 通过SoC封装与CPU组成异构计算单元 CPUGPU XPUDSP ModemCamera ISP 4K VideoHifi Audio LPDDR 4。

    10、XUFS Sensor ProcessorSecurity Engine SoC 7 2019.6 iResearch Inc. AI芯片应用场景 AI芯片为AI应用落地提供了商业化可行的算力解决方案 在人工智能发展初期,算法已经通过数据中心(云端)在大数据分析、精准营销、商业决策等方面实现了成功地应用落 地。而未来,智能化将会逐渐渗透进入能源、交通、农业、公共事业等更多行业的商业应用场景中,除了部署在云端进行 数据分析等工作,人工智能还需要下沉到摄像头、交通工具、移动设备终端、工业设备终端中,与云计算中心协同实现本 地化的、低延时的人工智能应用。考虑到任务算力需求,以及传输带宽、数据安全、功。

    11、耗、延时等客观条件限制,现有云 端计算解决方案难以独自满足人工智能本地应用落地计算需求,终端、边缘场景同样需要专用的AI计算单元。 来源:艾瑞研究院自主绘制。 算法下发 计算下沉 云端 云端负责承载智能数据分析、模型训练任务和部分对传输带宽要求不高的推理任务。 数据回传 模型训练/推理 边缘 + 终端 基于对数据传输带宽压力、数据安全等因素的考量,边缘和终端侧承载了需要本地实时响应的推理任务。需要独立完成任务涵 盖:数据收集、环境感知、人机交互以及部分的推理决策控制任务。 终端 SoC+IP: DSP/GPU/ASIC 边缘智能服务器: GPU/FPGA/ASIC 云数据机房智能服务器: GP。

    12、U/FPGA/ASIC 智慧安防 超大数据量本地处理 自动驾驶 断网下独立本地处理 其他物联网场景 工业/ 农业等 家 庭 数据安全、异构、实时响应 移动互联网 低功耗、数据安全 云端与边缘侧人工智能应用场景对于AI芯片的需求 8 2019.6 iResearch Inc. 20.2 172.1 3.4 71.9 39.1 352.2 20172022e 云端训练AI芯片云端推断AI芯片边缘推断AI芯片 AI芯片整体市场规模预测 AI芯片市场规模未来5年增长有望达到10倍 1、市场根据AI芯片功能及部署场景将AI芯片分为:训练/推断、云端/边缘两个维度进行划分。训练端由于需要对大量原始 数据进。

    13、行运算处理,因此对于硬件的算力、计算精度,以及数据存储和带宽等都有较高要求,此外在云端的训练芯片应该 有较好的通用性和可编程能力。推理端对于硬件性能要求没有推断端高,实证证明一定范围的低精度运算可达到同等推理 效果,但同时这要求模型训练精度要达到较高水平。 2、根据中金公司研究部数据显示,2017年,整体AI芯片市场规模达到62.7亿美元,其中云端训练AI芯片20.2亿美元,云 端推理芯片3.4亿美元,边缘计算AI芯片39.1亿美元;到2022年,整体AI芯片市场规模将会达到596.2亿美元,CAGR 57%,其中云端训练AI芯片172.1亿美元,CAGR 53.5%,云端推断芯片71.9亿美。

    14、元,CAGR 84.1%,边缘计算AI芯片 352.2亿美元,CAGR 55.2%。 注释:AI芯片细分市场规模单位:亿美元。 来源:AI芯片:应用落地推动产品多样化中金公司研究部 2017-2022年AI芯片细分市场规模预测 CAGR:53.5% CAGR:84.1% CAGR:55.2% 9 AI芯片行业概述1 AI芯片应用场景及市场需求分析2 AI芯片行业产业链及商业模式分析3 AI芯片行业发展展望4 企业推荐5 10 2019.6 iResearch Inc. 应用场景:云计算 云计算:共享规模化经济效益有效降低边际成本投入 云计算是一种按使用计费的IT服务模型,实现对高可靠、可配置的。

    15、计算资源池(服务器、存储、网络、应用程序和服务) 的方便快捷的访问,资源可通过最少的管理工作快速的配置和发布。云计算具有:资源池、广泛的网络访问、按需自助服 务、快速弹性膨胀、测量服务等5个基本特征。云计算服务模式主要包括:IaaS、PaaS、SaaS: 1. IAAS-提供基本的计算(虚拟或专用硬件)、存储、网络资源,使用者在资源中部署运行任意应用程序和操作系统; 2. PAAS-提供部署在云基础设施上的编程语言、库、服务和支持工具,为开发人员提供了一个自助服务门户而无需管理 底层基础设施; 3. SAAS-提供在云基础设施上运行的应用程序,程序运行管理皆由服务提供商负责。 相比起传统IT模。

    16、式,云计算模式可实现:降低用户初始IT投资成本及IDC机房维护费用并实现资本效益配置最大化、IT资 源快速弹性扩展、数据价值的有效挖掘以及业务的快速上线部署等。 来源:IBM。 传统IT 应用 数据 运行 中间件 O/S 虚拟化 服务器 存储 网络 IaaS 应用 数据 运行 中间件 O/S 虚拟化 服务器 存储 网络 PaaS 应用 数据 运行 中间件 O/S 虚拟化 服务器 存储 网络 SaaS 应用 数据 运行 中间件 O/S 虚拟化 服务器 存储 网络 云 厂 商 管 理 客 户 自 行 管 理 云计算服务模型 11 2019.6 iResearch Inc. 2019.6 iRese。

    17、arch Inc. 889.7 952.5 967.2 988.7 1009.1 1107.9 1110.3 1145.1 18% 7% 2%2%2% 10% 0% 3% 20102011201220132014201520162017 2010-2017年全球服务器出货量及增速 全球服务器出货量(万台)同比(%) 4900 4600 6700 10100 1243 1682 2549 4756 -6% 46% 51% 270%298% 296% 2014201520162017 2014-2017年 Amazon&阿里巴巴 云计算建设资本支出 Amazon(百万美元)阿里巴巴(百万美元) A。

    18、mazon(%)阿里巴巴(%) 云计算中心服务器及硬件市场规模 云计算发展带动上游硬件市场需求 近些年云厂商巨头快速扩张带动了上游数据机房建设热潮,虽然这会抵消部分企业自建机房及采购服务器的需求,但是这 部分需求并没有消失而是转移到了对云数据中心IT资源的需求上。中国云产业比美国发展晚24年左右,在全球云计算市 场中,美国占比达到54.1%,中国仅为5%。2017年中国IT支出为2.4万亿人民币,仅占全球IT总支出金额的9.92%,对应 中国GDP水平仍有较大的提升空间。中国虽然起步较晚但发展迅猛,对比亚马逊及阿里巴巴云计算资本支出数据,可以看 到阿里巴巴在云计算领域支出总金额绝对值虽然少于亚。

    19、马逊,但增速却显著超过了亚马逊的资本支出增速,这显示了近年 来国内加大对于计算资源基础设施的建设力度,将极大受益于服务器厂商及上游芯片厂商业绩。 来源:AMAZON、阿里巴巴公司年报披露数据。来源:Wind。 12 2019.6 iResearch Inc. 云计算与人工智能服务 云计算为AI开发部署提供多元化服务支持 云计算服务供应商可以向客户提供包括计算、存储、数据库、分析、移动、物联网和企业应用等一系列多层级服务。在人 工智能应用方面,由于人工智能(以深度学习为代表)的开发及应用对于算力、数据有较大的需求,而云计算服务可以为 开发者提供AI计算芯片以及基于其开发的智能服务器集群等强大算力。

    20、设施的租用,同时也可以为开发者提供PaaS级的开发 平台或是直接提供已训练好的人工智能功能模块等产品。通过多元化的服务模式,可以降低开发者的开发成本和产品开发 周期,为客户进行方便快捷的AI赋能。 注释:AI服务器:指搭载了AI芯片、计算板卡并用于人工智能相关运算的服务器。 来源:AWS官网。 云计算核心产业链及云端人工智能服务模式 AI InfrastructureAI FrameworksAI PlatformsAI Services DL-aaS:以云服务的形式提供高效的深度学习开发平台AI-aaS:以云服务形式提供人工智能技术应用 软件零售媒体游戏制造业金融房地产 广告物流医疗教育通讯。

    21、科技公共 云厂商 服务器 芯片 客户 13 2019.6 iResearch Inc. 云计算与人工智能 云计算服务模式可显著降低AI应用开发、部署成本 任务硬件收费:$/h 构建标准实 例 0.056.45 GPU实 例 1.2634.27 训练标准实 例 0.136.45 GPU实 例 1.2634.27 模型 部署 标准实 例 0.076.45 GPU实 例 1.2634.27 云计算发展自互联网厂商提升服务器使用效率(考虑为应付黑色星期五、双11等特殊日期访问量激增而添置的巨量服务器 资源)而逐渐开始的服务器Web租赁服务。在云计算产业链中,云厂商负责基础设施和云组织架构的搭建,并为客。

    22、户提供 PaaS、SaaS服务,具有极高的资本和技术门槛,在产业链中享有极大的话语权。如前文所述,在AI开发中,由于深度学 习模型开发及部署需要强大算力支持,需要专用的芯片及服务器支持。开发者如选择自购AI服务器成本过高。通过云服务 模式,采取按需租用超算中心计算资源可极大降低项目期初资本投入同时也省却了项目开发期间的硬件运维费用,实现资 本配置效率的最大化提升。 来源:英伟达官网、亚马逊官网、公开网络数据、专家访问。 服务器AI芯片CPU售价:$ DGX-216*Tesl a V100 2*intel Xeon Platinum 8168 $399,00 0 DGX-1 (Volta) 8*。

    23、Tesla V100 2*intel Xeon E5- 2698 v4 $149,00 0 DGX-1 (Pascal) 8*Tesla P100 2*intel Xeon E5- 2698 v3 $129,00 0 云计算AI服务收费(AWS)部分云端AI智能服务器售价 芯片功能售价:¥ V100 (GPU) 训练10万元,包含 硬件+软件 (驱动、许可、 保修) P4 (GPU) 推断2万元,包含 硬件+软件 FPGA 推断45000元 部分云端AI芯片售价 14 2019.6 iResearch Inc. 云计算与AI芯片 GPGPU+CUDA方案提供丰富的AI开发SDK及广泛适用性 英。

    24、伟达除了在传统独立显卡领域有近7成的市场份额,其在云计算智能服务器领域市场份额更是一家独大。英伟达为客户 提供了支持AI应用开发的完备的TESLA GPU产品线,相比于传统CPU服务器,在提供相同算力情况下,GPU服务器在成 本、空间占用和能耗分别为传统方案的1/8、1/15和1/8。除了优秀的硬件性能外,英伟达开发了基于GPU的“CUDA”开 发平台,为开发者提供了丰富的开发软件站SDK,支持现有的大部分的机器学习、深度学习开发框架 ,开发者可以在 CUDA平台上使用自己熟悉的开发语言进行应用开发。公司花费大量时间培养自己的开发生态,包括与高校合作培训专业 人才、开展专业竞赛,培养、发展英伟。

    25、达“GPU+CUDA”的开发者群体,形成了相当可观的产品使用人群,构建了当前 英伟达在人工智能领域的霸主地位。 来源:英伟达公司官网。 英伟达云端软硬件一体解决方案 CUDA 英伟达-Datacenter AI purpose GPUs Language Support: 英伟达 TESLA P4 AI-INFERENCE 英伟达 TESLA P40 AI-INFERENCE/ GRAPHICS 英伟达 TESLA V100 AI-TRAINING/ ACCELERATER Deep Learning Framework Support: Deep LearningMath/Linear Al。

    26、gebraSiganl/Imge/VideoParallel Algorithm NVgraph cuBLASCUDA MathcuRANDcuFFTcuFFT 15 2019.6 iResearch Inc. 2019.6 iResearch Inc. 6.7 13.7 35.3 62.5 87.5 0.0 3.4 18.3 57.0 105.9 6.3 14.8 35.7 66.0 98.8 0.0 0.8 5.3 19.7 37.0 201620172018e2019e2020e 2016-2020年全球AI服务器及AI芯片 市场规模 AI训练服务器(万台) AI推断服务器(万台) AI。

    27、训练芯片市场规模(亿美元) AI推断芯片市场规模(亿美元) 云计算中心AI芯片市场规模及份额 GPU并非完美,市场期待替代GPU的云端AI芯片解决方案 当前全球云计算AI芯片市场英伟达一家独大(尤其是训练端),主要原因是英伟达GPU产品线丰富,编程环境成熟,产品 支持市场上主要的开发框架和语言,产品广受AI开发者好评。但同时其产品也存在着功耗偏大、价格昂贵等问题(V100芯 片售价达10万元,DGX系列服务器售价过百万元)。基于此,各大云厂商纷纷提出自己的AI芯片开发计划以摆脱上游AI芯 片供货商一家独大的垄断市场情况。此外根据数据显示,推断市场未来增速和空间将会高于训练端市场,而GPU芯片并。

    28、不 善于推断任务,因此,在当前智能服务器渗透率尚低,GPU产品并非完美解决方案的情况下,我们认为对于其他AI芯片厂 商云计算中心市场依然存在着较大的市场空间可以进入。 来源:IDC, Gartner。来源:IDC。 90.0%90.0% 80.0% 75.0% 70.0% 65.0% 60.0%60.0% 50.0% 40.0% 35.0% 30.0%30.0% 201620172018e2019e2020e2021e2022e 2016-2022年全球云端AI芯片GPU市 场份额占比 云端训练GPU占比(%)云端推理GPU占比(%) 16 2019.6 iResearch Inc. 云计算A。

    29、I芯片发展趋势 看好基于AI专用指令集的可编程ASIC芯片及配套开发平台 如前文所述,当前在云端场景下被最广泛应用的AI芯片是英伟达的GPU,主要原因是:强大的并行计算能力(相比 CPU)、通用性以及成熟的开发环境。但是GPU也并非是完美无缺的解决方案,明显的缺点如:高能耗以及高昂的价格。 目前包括创业公司、科技巨头等都在积极寻找GPU的替代方案,希望实现:既具有GPU通用性、又具有更好的能效和算力 表现的通用、可编程产品。当前市场上典型的替代方案包括Google的TPU系列以及寒武纪的MLU系列产品。 来源:艾瑞研究院自主绘制。 云计算场景AI芯片设计思路及发展趋势 XPU for Clou。

    30、d 算力 更大的存储及更高的数 据访存效率 云端开发平台 软件开发工具链 芯片间实现高速互联, 灵活应对访问计算力需 求的弹性变动 功耗 通用性、可 编程 调整存储单元与计算单元之间的距 离,降低数据运算功耗 为开发者提供易使用的 开发平台 降低对片外存储依赖、尽量使用片 上存储(SRAM、Cache) 通用性,对多数AI开 发模型及编程框架形成 通用支持 架构设计:通过对主流算法模型进行细粒化, 抽象出基础算子,总结运算逻辑,对硬件进行 针对性优化设计,实现对主流算法模型的支持 指令集开发:开发专用的MLNNs指 令集,降低开发者编程难度 采用新的存储技术,如片内计算 17 2019.6 i。

    31、Research Inc. 应用场景:边缘计算 边云协同共同实现万物互联时代计算任务需求 边缘计算:在靠近数据源头的网络边缘侧,融合网络/计算/存储/应用等核心能力的分布式开放平台,就近提供边缘智能服 务,具有海量联接、实时业务处理、数据优化、应用智能、安全与隐私保护等特点。边缘计算对软硬件系统提出了:1) 海量异构联接、2)计算任务在边缘节点实时处理响应、3)硬件功耗/成本/空间/抗干扰等有严格要求、4)分布式资源的 动态调度与统一管理、5)支持联接/数据/管理/控制/应用/安全等方面的协同等要求。边云协同放大边缘计算及云计算价 值:边缘计算承担数据采集和部分的数据处理任务,支撑云端应用,而。

    32、云计算通过大数据分析,优化输出的业务规则或模 型,下发到边缘侧,为终端提供运行规则/模型。 来源:边缘计算与云计算协同产业白皮书工业互联网产业联盟 云计算层 SaaSPaaSIaaS 边缘层 EC-SaaSEC-PaaSEC-IaaS 现场设备 设备接入 协议解析 数据回传处理(*部分场景下的数据处理需要在边缘侧完成) 边缘网关 边缘控制器 边缘云 边缘传感器 预测维护 能效优化 质量提升 vFW vLB 服务协同 业务管理协同 应用管理协同 智能协同 数据协同 资源协同 应用实例 应用部署软硬件环境 分布式智能/推理 数据采集与分析 链接 数字世界 物理世界 业务编排应用开发管理数据分析/训。

    33、练 边云协同组织架构图 18 2019.6 iResearch Inc. 边缘计算场景与人工智能芯片 边缘侧场景繁杂,综合考量AI芯片 “PPACR” 在边缘计算场景,AI芯片主要承担推断任务,通过将终端设备上的传感器(麦克风阵列、摄像头等)收集的数据代入训练 好的模型推理得出推断结果。由于边缘侧场景多种多样、各不相同,对于计算硬件的考量也不尽相同,芯片可以是IP in SoC,也可以是边缘服务器,对于算力和能耗等性能需求也有大有小。因此不同于云端场景的“高端、通用”,应用于边 缘侧的计算芯片需要针对特殊场景进行针对性设计以实现最优的解决方案。 来源:网络公开数据、艾瑞研究院自主绘制。 物联网。

    34、场景移动互联网智能安防自动驾驶 任务描述: 机器视觉 语音识别/ 自然语义处理 1、图像检测 2、视频检测 3、语音识别 4、语义理解 1、照相-场景识别 2、照相-美化 3、AR应用 4、语音助手 1、图像检测 2、视频检测 1、图像语义分割 2、数据融合 3、Slam定位 4、路径规划 性 能 要 求 算力 Performance 1TOPs18TOPs420TOPs204000TOPs (L3L5) 能耗 Power 接入设备部署现场电源消费级聚合物锂电池 2,0005,000mAh 接入设备部署现场电源动力级硬壳锂电池(组) 200,000500,000mAh 面积 Area 高(So。

    35、C)极高(SoC)高低(SoC、Server)中(PCIE contains multiple SoC Chips) 成本控制 Cost 高极高高低(IPC,NVR)中 可靠性 Reliability 高(工业)/中(家用)中高极高 代表厂商 不同边缘计算场景对AI芯片“PPACR”性能考察要求 19 2019.6 iResearch Inc. 2019.6 iResearch Inc. 289 215 89 181 136 6 11 341 -25% 42% -24% 172% 112% 6% 481% -8% 1349% -82% 2018年城市级安防项目招标统计 招标金额(亿元)招标同比。

    36、(%) 55276 684 1230 1888 3458 11000 13800 17100 20500 23600 26600 402% 148% 80% 53% 83% 25%24%20%15% 13% 201720182019e2020e2021e2022e 2017-2022年摄像头AI芯片市场空间 AI摄像头出货(万个)IP摄像头出货(万个) AI摄像头同比(%)IP摄像头同比(%) 应用场景1:智慧安防市场 当前国内基于G端需求最明确的边缘计算AI应用场景 在国内,安防市场是最为确定的边缘侧AI应用场景,主要原因是大量的监控视频数据分析对人力的需求与当前基层人力缺 失、人力成本上升。

    37、之间的显著矛盾。需求端来自于包括政府、大中企业以及个人安防需求,主要市场需求来自于政府,包 括平安城市、智慧交通管控、智慧城市、雪亮工程等,其中公安部“雪亮工程” 提出到2020年实现“全域覆盖、全网共 享、全时可用、全程可控” ,智能摄像头的应用可以有效解决基层数据传输带宽压力以及基层警力人员缺失等问题,预计 “雪亮工程”等政府项目将会对智能安防摄像头市场带来较大的驱动作用。 来源:AI智道。来源:IDC。 20 2019.6 iResearch Inc. 智慧安防与AI芯片 AI芯片为摄像头提供边缘智能解决方案降低数据回传需求 安防摄像头发展经历了由模拟向数字化、数字化高清到现在的数字化智。

    38、能方向的发展,最新的智能摄像头除了实现简单的 录、存功能外,还可以实现结构化图像数据分析。安防摄像头一天可产生20GB数据,若将全部数据回传到云数据中心将 会对网络带宽和数据中心资源造成极大占用。通过在摄像头终端、网络边缘侧加装AI芯片,实现对摄像头数据的本地化实 时处理,经过结构化处理、关键信息提取,仅将带有关键信息的数据回传后方,将会大大降低网络传输带宽压力。当前主 流解决方案分为:前端摄像头设备内集成AI芯片和在边缘侧采取智能服务器级产品。前端芯片在设计上需要平衡面积、功 耗、成本、可靠性等问题,最好采取低功耗、低成本解决方案(如:DSP、ASIC);边缘侧限制更少,可以采取能够进行 更。

    39、大规模数据处理任务的服务器级产品(如:GPU、ASIC)。 来源:艾瑞研究院自主绘制。 前端:ISP 核心芯片,对原始图像信号进行降噪、曝光调 整,决定最终成像效果的好坏; 模拟监控系统 后端:DVR SoC 将模拟音频信号数字化、编码压缩与存储(A/D芯片和 视频编解码芯片)。 数字/网络高清 前端:IPC SoC 集成CPU、ISP、高压缩比视频编解码模块、网 络接口、加密模块、内存子系统等; 后端:NVR SoC 接收摄像机的IP码流进行编解码、存储,适用于环境复 杂和分散的大型监控系统。 智能化升级 前端:IPC SoC+AI-IP/独立AI芯片 -在现有IPC上集成算法实现识别任务;。

    40、 -SoC中集成协处理器或增加独立AI芯片进行结构 化分析或运行DL算法提升检出率; 后端:GPU/ASIC智能服务器 将智能推理功能集成在边缘的服务器级产品中,实现更 大规模的人工智能应用。如:GPU服务器或最新ASIC服 务器方案。 公安交通智能楼宇金融能源司法文教卫 结构化分析摄像机智能网络摄像机深度学习摄像机 AI芯片在智能安防摄像头中的应用 21 2019.6 iResearch Inc. 智慧安防芯片市场 市场考验厂商综合服务能力,海外厂商逐步退出国内市场 78% 22% 2016年安防芯片市场份额 前端IPC芯片市场份额 后端DVR/NVR市场份额 摄像头由于任务相对单一,行业内。

    41、产品同质化程度较高,导致行业竞争激烈。智能安防芯片领域参与者包括国际一线厂商 如:英伟达、华为、安霸、TI等,还有创业公司如:比特大陆、地平线、云天励飞等,以及北京君正、国科微等传统安防 半导体企业,甚至下游的安防厂商如海康威视、大华股份也开始自研AI芯片产品。英伟达作为AI巨头在安防领域有前、后 端完整软硬件解决方案,国内诸多安防厂商均采购其产品;华为推出了Hi3559等智能芯片,虽然算力性能表现暂时不如英 伟达,但作为在国内传统IPC市场有近7成市场份额的企业,基于其深厚的市场积累,能够为客户提供完善的、高性价比的 解决方案。在面临越来越多的企业涌入安防芯片市场的情况下,行业客户倾向于采购。

    42、完整的方案,因此除了考察单一芯产 品性能以外,更加考察企业的行业积累及整体解决方案设计及交付能力。 来源:CPS中安网、HIS、公开网络数据。 62% 8% 7% 3% 20% 2016年IPC视频编解码芯片 市场份额 海思AmbarellaTINXP其他 厂商产品算力 前 端 英伟达JETSON TX1- GPU 1TOPs 华为海思Hi3559AV1004TOPs 北京君正T01-ASIC 地平线旭日1TOPs 后 端 英伟达TESLA P45.5TFlops 比特大陆BM16823TFlops 主要安防AI芯片解决方案 22 2019.6 iResearch Inc. 应用场景2:移动互。

    43、联网市场 AI芯片为移动互联网消费电子类产品带来新增市场空间 13.0 14.3 14.7 14.7 14.9 15.0 15.2 15.2 15.2 0.4 1.5 3.0 4.6 6.1 6.8 10%3% 0% 1%1% 1% 0%0% 237% 102% 51% 33%13% 201420152016201720182019e2020e2021e2022e 2014-2022年全球智能手机出货量 全球智能手机出货量(亿部)AI手机出货量(亿部)智能手机 CAGR(%)AI手机 CAGR(%) 智能手机在经历了近10年的高速增长后,市场已趋于饱和,出货增速趋近于0,行业逐渐转为存量市场。。

    44、近年来,一批国 产厂商在产品质量上逐渐达到了第一梯队的水平,进一步加剧了头部市场的竞争。为实现差异化竞争,各厂商加大手机AI 功能的开发,通过在手机SoC芯片中植入AI芯片实现在低功耗情况下AI功能的高效运行。随着未来竞争进一步加剧,以及 产量上升所带来的成本下降,预计AI芯片将会进一步渗透进入到中等机型市场,市场空间广阔。移动端AI芯片市场不止于 智能手机,潜在市场还包括:智能手环/手表、VR/AR眼镜等市场。AI芯片在图像及语音方面的能力可能会带来未来人机交 互方式的改变并进一步提升显示屏、摄像头的能力,有可能在未来改变移动端产品。 来源:IDC。 23 2019.6 iResearch 。

    45、Inc. 移动互联网与AI芯片 智能手机:SoC内嵌AI IP实现手机AI功能的高效执行 通过云数据中心做手机端AI推理任务面临网络带宽延迟瓶颈的问题,严重影响用户使用体验,而CPU适合逻辑运算,但并 不适合AI并行运算任务,目前市场上流行在SoC中增加协处理器或专用加速单元来执行AI任务。以智能手机为代表的移动 互联网终端是一个多传感器融合的综合数据处理平台,AI芯片需要具备通用性,能够处理多类型任务能力。由于移动终端 依靠电池驱动,而受制于电池仓大小和电池能量密度限制,芯片设计在追求算力的同时对功耗有着严格的限制,可以开发 专用的ASIC芯片或者是使用功耗较低的DSP作为AI处理单元。 来源:艾瑞研究院自主绘制。 当今手机电池电容量普遍在20005000mAh。有限的电量需要被被分配到AP、CP中的射频、CPU、GPU、ISP等诸多 电子元器件,用于信号接发、编解码、摄像头、图像处理/渲染等多类型任务,对电子元器件功耗设计提出了极高的要 求。通过设计专用的AI加速运算单元并植入在SoC中,在功耗可控的情况下可实现高效的执行AI运算任务。 个人助理 照相-人脸识别 照相-场景识别 照相-智能防抖 照相-翻译 通话-降噪 。

    展开阅读全文
      三个皮匠报告文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:艾瑞:2019年AI芯片行业研究报告(52页).pdf
    链接地址:https://www.sgpjbg.com/baogao/9364.html

    copyright@ 2008-2013        长沙景略智创信息技术有限公司版权所有
    经营许可证编号:湘ICP备17000430-2   增值电信业务经营许可证编号:湘B2-20190120


    备案图标.png湘公网安备 43010402000778号


    三个皮匠报告文库
    收起
    展开