当前位置:首页 > 报告详情

10-Keeping it small - Agentic workflows with SLMs on k8s-Frank Fan.pdf

上传人: 张** 编号:621016 2025-03-31 24页 1.57MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要探讨了在 Kubernetes (K8S) 上实现小型语言模型 (SLM) 的挑战和解决方案。文章首先介绍了企业数据访问、工具使用和智能自主系统等 Gen AI 代理的基本特性,指出了编码复杂性、代理混淆、成本增加等问题。然后,文章提出了改进成本、性能和准确性的建议,如缩短提示、使用小型 LLM、控制工作流程等。 文章进一步讨论了静态和动态工作流,以及小型和大型 LLM 的组合使用。同时,文章强调了在 K8S 上自行托管语言模型的重要性,包括数据隐私和安全、连接数据源、访问多个模型和版本等。最后,文章给出了在 K8S 上实现 AI 工作流的核心要点,包括选择语言模型、在 AWS Trainium、Inferentia 和 Graviton 上部署模型、多代理工作流模式等。 本文的核心数据包括 Gen AI 模式、IaC 模板、最佳实践和 GitHub 上的项目参与。关键点概括如下: 1. 在 K8S 上实现 SLM 面临挑战。 2. 提出改进成本、性能和准确性的策略。 3. 讨论静态和动态工作流以及小型和大型 LLM 的组合使用。 4. 强调在 K8S 上自行托管语言模型的重要性。 5. 给出在 K8S 上实现 AI 工作流的核心要点。
"如何在K8S上实现多代理工作流?" "如何利用小型语言模型提高AI代理的效率?" "如何在AWS上自托管语言模型以保障数据隐私和安全?"
客服
商务合作
小程序
服务号
折叠