《新思科技:市场对 SoC 中专用人工智能IP的需求日益增加(10页).pdf》由会员分享,可在线阅读,更多相关《新思科技:市场对 SoC 中专用人工智能IP的需求日益增加(10页).pdf(10页珍藏版)》请在三个皮匠报告上搜索。
1、白皮书市场对 SoC 中专用人工智能 IP 的需求日益增加作者Ron Lowman新思科技 DesignWare IP战略营销经理序言在过去十年间,设计人员开发了能够以足够快的速度运行高级深度学习数学运算的硅技术,以探索并实施对象识别、语音和面部识别等人工智能(AI)应用。如今,机器视觉应用通常比人类更精确,是推动新的片上系统(SoC)投资的关键功能之一,旨在满足 AI 的发展,以满足日常应用需求。通过在视觉应用中使用卷积神经网络(CNN)和其他深度学习算法,这产生了巨大的影响,使 SoC 中的 AI 功能变得越来越普遍。Semico 在 2018 年 AI 报告中对此总结到:“.几乎每种类型
2、的芯片都拥有一定程度的 AI 功能,而且这一势头将持续保持。”除了视觉之外,深度学习还被用于解决复杂问题,例如蜂窝通信基础架构中的 5G 网络实施,以及通过配置、优化和修复自身的能力而简化 5G 操作任务,也就是大众所知的自组织网络(SON)。5G 网络将带来更大的复杂度,包括波束赋形、毫米波中的更多频谱、载波聚合和更高的带宽,所有这些都需要机器学习算法在分布式系统中妥善优化和处理数据。AI 加速无处不在,它增加各种应用的价值。每个人都在添加某种形式的人工智能,在不依赖人类交互的情况下做更多的事情,但这些算法的类型各不相同,因此,这些算法使用的加速器也不同。其中包括传统上用于成像和物体检测的加
3、速器。在时间比较重要的文本和演讲中,循环神经网络能够加入时间。除此之外,深度神经网络还有其他形式,例如脉冲神经网络和胶囊神经网络。目前为 AI 开发的半导体有两种。独立加速器以某种方式连接到应用处理器,并且有一些应用处理器在设备上添加了神经网络硬件加速。独立加速器可以通过芯片与芯片的互连而实现了将硬件扩展到多个芯片的巨大创新,从而实现最高性能,或者利用独特的 in-memory 和 near-memory 计算技术而减少能耗需求。设备上的 AI 加速正在通过利用处理器和架构对他们的神经网络处理器进行升级,这些处理器和架构是独立半导体的先驱。半导体领导者、行业巨头和数百家初创公司都在全力将 AI
4、 能力推广到各个行业的大量新型 SoC 和芯片组中,涵盖从云服务器组到每个厨房中的家庭助理等所有环节。图 1:AI 的主要市场细分AI 市场细分深度学习神经网络用在许多不同的应用中,为使用它们的人提供了强大的新工具。例如,它们可以用于高级安全威胁分析、预测和预防安全漏洞,以及通过预测潜在买家的购物流程而帮助广告商识别和简化销售流程。这是在融合最新 GPU 和 AI 加速器半导体技术的服务器群中运行的数据中心应用的两个实例。但 AI 设计并未包含在数据中心内(见图 1)。许多新功能可基于传感器输入的组合而了解发生的情况,例如用于对象和面部检测的视觉系统,用于改进人机接口的自然语言理解以及上下文感
5、知)。这些深度学习能力已添加到所有行业的 SoC 中,包括汽车、移动、数字家庭、数据中心和物联网(IoT)。Datacenters5nm7nm12nmCloud AIAcceleratorEdgeservers5nm7nm12nmAcceleratorcards12nm22nmEdge Computing AIAcceleratorAutomotive7nm12nmDigitalTV7nm12nmVoiceassistants7nm12nm22nm40nmCameras7nm12nm22nm5nm7nm12nmMobile&AR/VRIoT/AIoT22nm40nmEdge DeviceAcc
6、eleratorOn-Device AIPerformance in TOPSPerformance in TOPS/W Model Compression为实现最高性能,针对云 AI 加速的 SoC 设计人员致力于最大限度地提升性能以解决重大问题。执行 AI 训练以及为了得到最高准确度而需要的最复杂的 AI 算法,需要很高的处理器运算能力(TOPS),这最终可通过缩短训练时间而降低成本,并减少推理过程所需的能耗。云计算市场的这些半导体硬件创新使人们认为可能需要花费数年开发才能完成的工作成为可能,并缩短了取得突破的时间,例如,以识别和疫苗开发的形式找到当前最令人担忧的健康问题的治疗方法。然而,