全球疫情的影响及AI抗击疫情的作用
疫情的爆发使全球经济和IT宏观环境面临严峻压力和挑战。新冠疫情导致绝大部分的世界经济体采取了不同程度的封锁措施,对国际贸易、住宿与餐饮、旅游、批发零售、交通、制造以及中小企业等产生巨大的冲击,生产生活等都受到了很大影响,根据经济学(TheEconomist)在2020年9月作出的最新预测,2020年全球GDP增速将下滑5.2%。受疫情的影响,中国乃至全球经济和ICT市场也受到巨大冲击。IDC预计,2020年全球ICT市场规模将同比下滑2.5%,随着企业适应新常态,2021年ICT支出将逐步恢复正常化。
短期来看,疫情对ICT市场的影响体现在三个方面:
削减采购预算:受延迟复工、供应链影响,中小规模企业无法按时生产和交付,不能现场拜访用户,进而导致销售收入下降,企业整体收入和利润都明显下滑,必然缩减支出,其中也包括IT支出。
推迟采购预算:由于延迟复工,一些企业以及政府与公共事业部门用户,推迟技术采购计划,采购计划的推迟短期内会对ICT市场造成不小的影响。
加速采购预算:对于医疗、教育、政府等公共事业,如涉及到疫情联防联控的公共部门,需要紧急公布及处理疫情,教育单位也需要通过远程教育的方式进行正常教学,这些机构迫切需要加速采购流程。互联网和云服务相关的需求也在短期内集中爆发,一些公司加速采购,如远程办公、协同办公、在线教育、电商、直播等业态在疫情期间呈现快速增长态势
人工智能高速发展对算力提出更高需求
数据 - 数据量增长的步伐仍在加快,未来三年新产生的数据量预计将超过过去三十年的总和,到2024年,全球数据总量将从现在的44.9ZB,以26.0%的复合增长率达到142.6ZB。其中,中国在2017年已经成为全球数据量规模最大的国家,并将保持稳定的高增速,预计到2024年,中国新产生的数据量将达到36ZB,占全球总量的25.2%。数据为人工智能应用提供了丰富的土壤,新的应用场景在各行业不断涌现,其中,越来越多的场景对数据实时性提出了高要求,IDC预测,实时数据的占比将在未来五年不断增加,到2024年将达到数据产生总量的四分之一左右。实时数据的激增促进了边缘基础设施的发展,也使得边缘计算能力变得越来越重要,人工智能应用也将更加依赖于处在边缘的算力支撑。
算法 - 虽然数据的总量正在增长,但真正被有效利用的仍然不足1%。如何有效抓取高质量的数据并通过这些数据建立精准的模型,则取决于人工智能算法的开发能力。虽然近年来,新增的算法模型数量在逐年减少,但是单个模型的参数量和复杂程度都呈现指数级的增长趋势,例如Bert及其变种的算法模型,这些复杂的算法模型将极大地推动人工智能在行业应用的发展。到2020年,深度学习模型对算力的需求达到了每天百亿亿次的计算需求,特别是在自然语言处理等新兴认知智能应用领域对计算力的要求远超过图像识别、语音识别。
2020年2月,微软发布了最新的智能感知计算模型Turing-NLG,参数量高达到175亿,是Google智能感知模型的50倍,使用125POPS AI计算能力完成单次训练就需要一天以上。随后,OpenAI又提出了GPT-3模型,参数量更达到1750亿,是微软Turing-NLG的十倍、GPT-2的100余倍,使得NLP模型参数体量达到了全新的高度。
算力-在人工智能三要素中,无论是数据还是算法,都离不开算力的支撑。IDC对用户的追踪调研发现,过去,用户对于人工智能的感知更多停留在数据层和应用层,随着非结构化数据的激增和算法框架的日益复杂,算力不足的问题逐渐显现出来,越来越多的用户认识到算力的重要性。尽管实时数据更多依赖于边缘和端侧的推理计算能力,但具有海量参数的模型训练仍完全依赖于核心数据中心的算力支撑,包括各类预训练模型,由于其庞大的参数体量,在给人工智能应用提供便利的同时,如果没有强大的算力支撑,很难发挥其价值,因此,人工智能的算法越来越依赖于算力的发展,如何布局算力是企业在未来很长时间内都需要关注的重点。
点击下载报告:IDC&浪潮:2020-2021中国人工智能计算力发展评估报告



























