当前位置:首页 > 报告详情

04-从开源到商业化:云原生架构下大模型的规模推理产品化实践 - 叶挺.pdf

上传人: 张** 编号:621003 2025-03-31 27页 1.68MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了从开源到商业化云原生架构下大模型的大规模推理产品化的过程。文中提到,借助云原生技术,实现了统一的算力管控平台,支持大量接入算力资源,主要接入的算力资源以自持算力和合作企业提供算力租赁为主。同时,解决了大模型推理的“三高”问题,即扩容算力资源、限流、KV Cache、runtime的选择等。此外,还提供了统一的模型广场,支持国内外主流开源模型的一键体验和部署。在开源技术方面,文中提到了HAMi(异构 AI 芯片虚拟化组件)和KCover等项目的规划和开源计划。总的来说,文中主要阐述了如何将开源技术商业化,并在云原生架构下实现大模型的大规模推理产品化。
"如何解决AI芯片使用率瓶颈问题?" "如何实现AI模型的快速部署与统一管理?" "如何利用开源技术推动AI模型的创新应用?"
客服
商务合作
小程序
服务号
折叠