《大模型赋能 DevOps研发全环节提速-唐辉.pdf》由会员分享,可在线阅读,更多相关《大模型赋能 DevOps研发全环节提速-唐辉.pdf(35页珍藏版)》请在三个皮匠报告上搜索。
1、大模型赋能 DevOps,研发全环节提速百度-工程效能部/唐辉目录背景和早期探索解决方案全流程落地实践总结与展望背景与早期探索早期艰难的探索问题思考与总结生成式大模型带来了曙光早期艰难的探索:以提升研发效能、提升用户体验为目标检索式产品问答机器人选择器选项的智能排序基于历史行为的下一步操作推荐、性能优化基于需求内容推荐关联文档基于搜索的日志报错分析简单场景:规则+算法复杂场景:机器学习(深度学习)代码冲突智能解决需求扩写代码评审提交代码推荐相关卡片语义理解多任务逻辑问题思考与总结生成式大模型到来之前,复杂场景无法落地的原因:1.语义理解能力弱语义理解能力弱:不理解用户语义,用起来只能在限定范围
2、内作答,不”智能“。以问答为例,用户需求比较明确,但是我们当时只能根据用户需求找到响应的回答,给出一大段内容。2.缺少优质数据缺少优质数据:大模型出现之前,研发领域缺少高质量数据。数据收集、清洗、标注工作量巨大,需要投入大量人力物力。大模型到来之前,智能化更多是锦上添花的存在,没看到成功案例的情况下,投入会比较谨慎。3.模型训练缓慢:模型训练缓慢:模型训练和优化的难度大:由于产品研发团队的构成,专业的算法工程师资源稀缺,对模型的训练和优化需要深入的技术专业知识和丰富经验。模型训练投入大,回报缓慢:训练模型需要大量的时间和资源,且成本较高,训练后的效果又不一定能达到预期,所以很少有团队尝试。4.
3、对于复杂任务信心不足对于复杂任务信心不足:研发领域缺少智能化的先例。以代码智能评审为例,调研过程发现传统的自然语言处理技术难以理解代码的语义,而传统的代码分析技术难以理解代码的上下文。以需求扩写为例,调研当时的AIGC缺少逻辑理解,很难从角色的角度出发补充内容。生成式大模型带来了曙光1.强大的语言理解能力强大的语言理解能力:能够理解和生成自然语言,处理各种自然语言任务,如文本生成、知识问答、推理计算等。2.通用性强通用性强:大语言模型对多种任务具有惊人的泛化能力。同一个模型可以用于文本生成、文本分类、代码生成和代码理解等任务。特别适合复杂场景。落地时不需要再从训练模型开始,减少了针对不同任务分
4、别训练模型的需求。3.学习能力学习能力:可以在没有任何样本的情况下,仅通过在输入中给出描述就完成特定任务,或者通过很少量的样本来进行微调。而传统的机器学习模型往往需要大量样本才能达到良好效果。对于代码评审这样的特定任务,我们可以通过微调大模型来达到很好的效果。4.实验成本低,落地成本低实验成本低,落地成本低:以往模型训练的过程或者算法实现的过程变成Prompt的调试,不需要过多的技术背景,人人可以上手。5.自然语言交互自然语言交互:大语言模型可以生成连贯、准确的人类语言,因此非常适合用作聊天机器人、智能助手或其他自然语言交互的应用中。传统的机器学习模型在这方面通常需要额外的处理步骤,且效果较差
5、。生成式大模型让产研同学使用Prompt配合熟悉的工程化方案,就可以快速完成复杂的任务,完成智能化的落地。解决方案产品思考交互设计如何快速落地整体架构意图层引擎层性能产品思考:我们在哪些场景落地?LLM产品思考:在 DevOps 产品覆盖的核心环节里都要落地需求编写迭代管理项目管理代码编写手工测试用例单元测试代码检查API 定义代码评审文档查阅发布配置日志分析产品通用:代码理解代码提交资源查询产品问答产品操作产品性能API 测试用例需求开发测试部署产品形态:如何融合?+LLM=产品形态?产品内(Web)编辑器插件(IDE)交互设计:首先要有个对话具体到场景,分场景:具体到场景,分场景:1.和原
6、有功能原地整合。2.引导到对话区完成任务。统一的智能化认知:Comate Web代码解释Comate IDEComateWebIDE入口一入口二视觉上:视觉上:原则:原则:一个能力,多处透出。如何快速落地?PM:两周内,我们产品(Web)内一个MVP版本。前端+后端:有风险,我们尽快搞定。Web端如何快速落地:把所有组件再开发一遍?消息的渲染支持微前端的方式加载远程组件,也支持当前产品挂载。Deep Grasp意为“从深处抓取(界面功路由),它是一种LUI改造工具,支持在一个既有的产品上,通过在合适的位置加少量的标记,即可通过自然语言与LLM交互来确定需要使用的组件,并生成组件对应的props