DeepSeek模型本地部署与应用构建

DeepSeek本地部署与应用构建智灵动力 陈军目录1、DeepSeek简单介绍与使用2、DeepSeek本地部署3、本地知识库搭建4、实际应用场景DeepSeek简单介绍与使用本地化部署隐私保护核心亮点在支持完全本地化部署,有效保护用户数据隐私,避免敏感信息泄露,同时提升推理速度与安全性。推理能力强DeepSeek R1 推理模型具备强大的推理能力,能够准确理解并回应复杂的对话场景,支持多轮对话,确保用户体验的连贯性和高效性。多种量化蒸馏模型提供多种量化蒸馏模型选择,包括8B、32B、70B等,以满足不同应用场景对精度与性能的多样化需求。模型简介开源生态开源社区支持,并兼容多种开源框架,方便我们二次开发和微调。同时也支持跨平台适配。应用场景自动化工作流集成DeepSeek R1 于自动化工作流,显著提升流程智能化水平,自动处理数据,实现高效、准确的决策支持。科研数据分析DeepSeek R1 在科研领域展现出了巨大潜力,通过高效处理和分析复杂数据,为科研人员提供深入见解,加速科研进展。外挂大脑日常答疑解惑,信息收集总结类,料汇总,策划分析写周报,写作直播的话术官网/APP硅基流动秘塔cursor Grok本地部署/APIDeepSeek 使用途径DeepSeek本地部署数据隐私保护DeepSeek R1 推理模型本地部署可有效避免敏感数据在推理过程中上传至云端,确保数据隐私安全。自定义模型数据弱审查根据特定需求,用户可灵活选择不同量化精度的模型进行本地部署,实现性能与资源利用的最佳平衡。可以弱化审核条件,更加全面的利用大模型能力离线使用即使在网络断开的情况下,用户仍可依赖本地部署的DeepSeek R1 推理模型进行智能分析,保障工作连续性。性能优化本地部署DeepSeek R1 推理模型能够充分挖掘并利用本地硬件资源,如CPU、GPU等,实现推理性能的优化提升。本地部署的必要性DeepSeek支持Windows及Linux、mac操作系统,确保了其在不同平台上的兼容性,为用户提供灵活的选择。操作系统软件要求部署DeepSeek需下载其本地部署包,该包已包含所有必要的依赖项和配置文件,确保了安装过程的简便性。安装包为确保DeepSeek在断网环境下能够正常运行,需进行防火墙设置,禁止不必要的网络通信,保障数据安全。防火墙设置DeepSeek支持8B、32B、70B等多种量化模型,官方满配版本是671B。用户可根据实际需求及硬件配置选择合适的模型。量化模型选择量化模型作用模型选择与硬件要求量化模型的选择直接影响模型的推理速度与精度,用户需根据具体任务权衡利弊,做出最佳选择。CPU ->1.5B Q8或者 8B Q4 GPU 4G -> 8B Q4 推理GPU 8G-16G ->32B Q4推理 显存越大,速度越快,达到官方宣传的官方版本的90%能力,效果也不错。GPU 24G -> 32G Q8或者70B Q2 GPU 40G ->70B Q4 这个效果就非常好了DeepSeek的安装直接用ollama就能安装,ollama官方地址:https://ollama.comollama+chatboxaiollama+anythinglmollama+page assistOllama方式安装Ollama方式安装Ollama方式安装安装软件Ollama方式安装Chatbox对话框页面Chatbox官网:https://chatboxai.app/enChatbox对话框页面Chatbox对话框页面Chatbox对话框页面环境变量Chatbox对话框页面环境变量Chatbox对话框页面GPT4All方式安装网址:https://gpt4all.io 第一步:安装 gpt4all选择适合的系统版本:Windows/macOS/Linux GPT4All方式安装第二步:下载 DeepSeek 模型GPT4All方式安装第三步:开始对话DeepSeek R1 671B linux完整版本地部署部署此类大模型的主要瓶颈是内存+显存容量,建议配置如下:•DeepSeek-R1-UD-IQ1_M:内存 + 显存 ≥ 200 GB•DeepSeek-R1-Q4_K_M:内存 + 显存 ≥ 500 GB使用 ollama 部署此模型。ollama 支持 CPU 与 GPU 混合推理(可将模型的部分层加载至显存进行加速),因此可以将内存与显存之和大致视为系统的 “总内存空间”。除了模型参数占用的内存+显存空间(158 GB 和 404GB)以外,实际运行时还需额外预留一些内存(显存)空间用于上下文缓存。预留的空间越大,支持的上下文窗口也越大。此版本主要参考的是李锡涵(Xihan Li)。伦敦大学学院(UCL)计算机系博士研究生的相关论文介绍和截图。DeepSeek R1 671B 完整版本地部署1. 下载模型文件从 HuggingFace 官网地址:https://huggingface.co/unsloth/DeepSeek-R1-GGUF2. 安装 ollama,这个安装刚才讲了,这里是linux的模式。执行以下命令:curl -fsSL https://ollama.com/install.sh | sh3. 创建 Modelfile 文件,该文件用于指导 ollama 建立模型文件 DeepSeekQ1_Modelfile(对应于 DeepSeek-R1-UD-IQ1_M)的内容如下:FROM /home/snowkylin/DeepSeek-R1-UD-IQ1_M.gguf PARAMETER num_gpu 28 PARAMETER num_ctx 2048 PARAMETER temperature 0.6 TEMPLATE "<|User|>{{ .Prompt }}<|Assistant|>"DeepSeek R1 671B 完整版本地部署文件 DeepSeekQ4_Modelfile(对应于 DeepSeek-R1-Q4_K_M)的内容如下:FROM /home/snowkylin/DeepSeek-R1-Q4_K_M.ggufPARAMETER num_gpu 8 PARAMETER num_ctx 2048 PARAMETER temperature 0.6 TEMPLATE "<|User|>{{ .Prompt }}<|Assistant|>"4. 创建 ollama 模型在第3步建立的模型描述文件所处目录下,执行以下命令:ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile5. 运行模型,执行以下命令:ollama run DeepSeek-R1-UD-IQ1_M --verbose扩展系统交换空间教程:https://www.digitalocean.com/community/tutorials/how-to-add-swap-space-on-ubuntu-20-04journalctl -u ollama --no-pagerDeepSeek R1 671B 完整

立即下载
信息科技
2025-02-12
清华大学
55页
7.04M
收藏
分享

[清华大学]:DeepSeek模型本地部署与应用构建,点击即可下载。报告格式为PDF,大小7.04M,页数55页,欢迎下载。

本报告共55页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
本报告共55页,只提供前10页预览,清晰完整版报告请下载后查看,喜欢就下载吧!
立即下载
水滴研报所有报告均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
相关图表
过去 10 年生益科技 PE Band(TTM)
信息科技
2025-02-11
来源:高胜率强阿尔法厂商,打破垄断迎成长
查看原文
生益科技归母净利润预测
信息科技
2025-02-11
来源:高胜率强阿尔法厂商,打破垄断迎成长
查看原文
生益科技营收和毛利预测
信息科技
2025-02-11
来源:高胜率强阿尔法厂商,打破垄断迎成长
查看原文
生益电子和沪电股份的毛利率对比
信息科技
2025-02-11
来源:高胜率强阿尔法厂商,打破垄断迎成长
查看原文
2024 年生益电子上下半年经营状况差别大 图表88:生益电子与生益科技 PCB 披露的毛利率差额
信息科技
2025-02-11
来源:高胜率强阿尔法厂商,打破垄断迎成长
查看原文
生益电子季度营收及环比增速 图表86:生益电子季度净利润(万元)
信息科技
2025-02-11
来源:高胜率强阿尔法厂商,打破垄断迎成长
查看原文
回顶部
报告群
公众号
小程序
在线客服
收起