《智灵动力:2025年DeepSeek模型本地部署简介(55页).pdf》由会员分享,可在线阅读,更多相关《智灵动力:2025年DeepSeek模型本地部署简介(55页).pdf(55页珍藏版)》请在三个皮匠报告上搜索。
1、DeepSeek本地部署与应用构建智灵动力 陈军目录1、DeepSeek简单介绍与使用2、DeepSeek本地部署3、本地知识库搭建4、实际应用场景DeepSeek简单介绍与使用本地化部署隐私保护核心亮点在支持完全本地化部署,有效保护用户数据隐私,避免敏感信息泄露,同时提升推理速度与安全性。推理能力强DeepSeek R1 推理模型具备强大的推理能力,能够准确理解并回应复杂的对话场景,支持多轮对话,确保用户体验的连贯性和高效性。多种量化蒸馏模型提供多种量化蒸馏模型选择,包括8B、32B、70B等,以满足不同应用场景对精度与性能的多样化需求。模型简介开源生态开源社区支持,并兼容多种开源框架,方便
2、我们二次开发和微调。同时也支持跨平台适配。应用场景自动化工作流集成DeepSeek R1 于自动化工作流,显著提升流程智能化水平,自动处理数据,实现高效、准确的决策支持。科研数据分析DeepSeek R1 在科研领域展现出了巨大潜力,通过高效处理和分析复杂数据,为科研人员提供深入见解,加速科研进展。外挂大脑日常答疑解惑,信息收集总结类,料汇总,策划分析写周报,写作直播的话术官网/APP硅基流动秘塔cursor Grok本地部署/APIDeepSeek 使用途径DeepSeek本地部署数据隐私保护DeepSeek R1 推理模型本地部署可有效避免敏感数据在推理过程中上传至云端,确保数据隐私安全。
3、自定义模型数据弱审查根据特定需求,用户可灵活选择不同量化精度的模型进行本地部署,实现性能与资源利用的最佳平衡。可以弱化审核条件,更加全面的利用大模型能力离线使用即使在网络断开的情况下,用户仍可依赖本地部署的DeepSeek R1 推理模型进行智能分析,保障工作连续性。性能优化本地部署DeepSeek R1 推理模型能够充分挖掘并利用本地硬件资源,如CPU、GPU等,实现推理性能的优化提升。本地部署的必要性DeepSeek支持Windows及Linux、mac操作系统,确保了其在不同平台上的兼容性,为用户提供灵活的选择。操作系统软件要求部署DeepSeek需下载其本地部署包,该包已包含所有必要的
4、依赖项和配置文件,确保了安装过程的简便性。安装包为确保DeepSeek在断网环境下能够正常运行,需进行防火墙设置,禁止不必要的网络通信,保障数据安全。防火墙设置DeepSeek支持8B、32B、70B等多种量化模型,官方满配版本是671B。用户可根据实际需求及硬件配置选择合适的模型。量化模型选择量化模型作用模型选择与硬件要求量化模型的选择直接影响模型的推理速度与精度,用户需根据具体任务权衡利弊,做出最佳选择。CPU-1.5B Q8或者 8B Q4 GPU 4G-8B Q4 推理GPU 8G-16G -32B Q4推理 显存越大,速度越快,达到官方宣传的官方版本的90%能力,效果也不错。GPU
5、24G-32G Q8或者70B Q2 GPU 40G-70B Q4 这个效果就非常好了DeepSeek的安装直接用ollama就能安装,ollama官方地址:https:/ollama+chatboxaiollama+anythinglmollama+page assistOllama方式安装Ollama方式安装Ollama方式安装安装软件Ollama方式安装Chatbox对话框页面Chatbox官网:https:/chatboxai.app/enChatbox对话框页面Chatbox对话框页面Chatbox对话框页面环境变量Chatbox对话框页面环境变量Chatbox对话框页面GPT4Al
6、l方式安装网址:https:/gpt4all.io 第一步:安装 gpt4all选择适合的系统版本:Windows/macOS/LinuxGPT4All方式安装第二步:下载 DeepSeek 模型GPT4All方式安装第三步:开始对话DeepSeek R1 671B linux完整版本地部署部署此类大模型的主要瓶颈是内存+显存容量,建议配置如下:DeepSeek-R1-UD-IQ1_M:内存+显存 200 GBDeepSeek-R1-Q4_K_M:内存+显存 500 GB使用 ollama 部署此模型。ollama 支持 CPU 与 GPU 混合推理(可将模型的部分层加载至显存进行加速),因此
7、可以将内存与显存之和大致视为系统的“总内存空间”。除了模型参数占用的内存+显存空间(158 GB 和 404GB)以外,实际运行时还需额外预留一些内存(显存)空间用于上下文缓存。预留的空间越大,支持的上下文窗口也越大。此版本主要参考的是李锡涵(Xihan Li)。伦敦大学学院(UCL)计算机系博士研究生的相关论文介绍和截图。DeepSeek R1 671B 完整版本地部署1.下载模型文件从 HuggingFace 官网地址:https:/huggingface.co/unsloth/DeepSeek-R1-GGUF2.安装 ollama,这个安装刚才讲了,这里是linux的模式。执行以下命令:
8、curl-fsSL https:/ Modelfile 文件,该文件用于指导 ollama 建立模型文件 DeepSeekQ1_Modelfile(对应于 DeepSeek-R1-UD-IQ1_M)的内容如下:FROM/home/snowkylin/DeepSeek-R1-UD-IQ1_M.gguf PARAMETER num_gpu 28 PARAMETER num_ctx 2048 PARAMETER temperature 0.6 TEMPLATE .Prompt DeepSeek R1 671B 完整版本地部署文件 DeepSeekQ4_Modelfile(对应于 DeepSeek-R
9、1-Q4_K_M)的内容如下:FROM/home/snowkylin/DeepSeek-R1-Q4_K_M.ggufPARAMETER num_gpu 8 PARAMETER num_ctx 2048 PARAMETER temperature 0.6 TEMPLATE .Prompt 4.创建 ollama 模型在第3步建立的模型描述文件所处目录下,执行以下命令:ollama create DeepSeek-R1-UD-IQ1_M-f DeepSeekQ1_Modelfile5.运行模型,执行以下命令:ollama run DeepSeek-R1-UD-IQ1_M-verbose扩展系统交换
10、空间教程:https:/ ollama-no-pagerDeepSeek R1 671B 完整版本地部署6.(可选)安装 Web 界面使用 Open WebUI:pip install open-webui open-webui serveDeepSeek R1 671B 完整版本地部署实测观察本地断网运行设置虚拟机断网运行为确保DeepSeek R1在断网环境下运行,我们可以再虚拟机上运行整个程序,然后给虚拟机断网。设置防火墙规则为确保DeepSeek在断网环境下运行,需设置防火墙规则以阻止任何出网流量,从而增强本地部署的安全性。本地断网运行设置我们在出站规则程序这里添加出站规则本地断网运行
11、设置本地知识库系统的搭建基于AnythingLLM的本地知识库与API搭建用户提问AnythingLLMOllamaDeepSeek r1LLamaQwen向量库知识库第一步:下载nomic-embed-textollama官网-models-nomic-embed-text基于AnythingLLM的本地知识库与API搭建下载nomic-embed-textollama pull nomic-embed-text基于AnythingLLM的本地知识库与API搭建下载AnythingLLM Desktop官网地址:https:/ 隐私保护与数据安全隐私保护与数据安全敏感信息处理敏感信息处理:在
12、本地环境中处理个人财务记录、健康数据或私密文档离线操作离线操作:在网络受限或无网络环境下运行模型,个性化知识库个性化知识库:将个人笔记、日记或其他私人文档与模型结合,构建专属的知识管理系统企业典型应用场景(隐私保护、定制化能力、离线操作和高效协作)数据隐私与安全数据隐私与安全敏感数据处理敏感数据处理:在本地环境中处理客户信息、财务记录或商业机密,确保数据不离开企业内部网络离线操作离线操作:在网络受限或无网络环境下运行模型,例如在偏远地区或工厂中进行实时分析数据隔离数据隔离:将模型部署在完全隔离的环境中,避免数据泄露风险 知识管理知识管理企业知识库问答企业知识库问答:将模型与企业内部文档结合,构
13、建专属的知识管理系统,快速检索和总结信息文档自动化文档自动化:自动生成会议记录、报告或合同摘要,减少人工工作量员工培训员工培训:针对竞品为新员工生成个性化的培训材料,并提供实时答疑服务。高效协作、监测与分析高效协作、监测与分析业务流程自动化:业务流程自动化:合同条款智能审核、客服工单自动分类、报表数据自动生成安全风控安全风控:内部通讯敏感词监控、代码仓库漏洞检测、财务异常模式识别决策支持系统:决策支持系统:市场趋势预测、供应链风险预警、客户流失分析、竞品情报自动分析实际应用场景元娲生态产品介绍满足个性化的虚拟人定制1.3D超写实虚拟人、3D美型虚拟人、3D卡通虚拟人、2D真身复刻虚拟人多样化的
14、虚拟人满足用户个性化的虚拟人定制需求;2.多样化的虚拟人应用场景,满足不同客户的场景应用需求。虚拟人定制化平台元娲生态产品介绍虚拟人智能问答无所不能1.虚拟人可接入专业的问答知识库;2.专业的技能知识库(比如查询天气、车票等);3.虚拟人全新的AIGC的能力应用(绘画、唱歌、跳舞等);4.虚拟人可以接入不同的大语言模型,满足个性化的需求。元娲智能问答平台元娲生态产品介绍元娲平台是国内首批致力于虚拟人领域的AI科技先锋,我们的虚拟人生产力服务平台,全面自主可控,一站式满足虚拟人的创建与驱动需求,无缝适配国产操作系统,坚固安全防线,精准迎合国内市场需求。首批支持国产化数字人平台产品介绍元镜-多模态
15、创意呈现,分镜创作新引擎一款基于人机快生引擎的AI视频创作系统,从需求提交到成片仅需10分钟,即可输出75分质量的视频。1.创意视频脚本引擎从灵感到成品脚本,支持角色定制与创意扩写。2.多模态创意分镜引擎支持全方位分镜设计,生成分镜图、视频和音乐,确保风格与情感一致。3.分镜一键成片引擎自动合成多分镜视频,智能补全内容,支持字幕与旁白生成,实现快速成片。案例展示案例展示核心功能 自动化整合自动化整合 高质量输出高质量输出 高效助科研高效助科研 高水平综述高水平综述 中英文支持中英文支持 国际化综述国际化综述 跨语言便利跨语言便利 海量文献分析海量文献分析 关键信息提取关键信息提取 结构内容生成结构内容生成 基础版(无图)基础版(无图)增强版(单图)增强版(单图)专业版(单专业版(单/双图)双图)元知:元知:AIAI综述平台综述平台语言支持智能算法版本选择THANKS