文章

私有化部署DeepSeek

私有化部署DeepSeek

模型定位

DeepSeek-V3专注于自然语言处理、知识问答、内容创作等通用任务,目标是实现高性能与低成本的平衡,适用于智能客服、个性化推荐系统等场景。

DeepSeek-R1专为数学、代码生成和复杂逻辑推理任务设计,通过大规模强化学习(RL)提升推理能力,对标OpenAI o1系列。

硬件成本

INT4量化后的版本,原版FP32模型大小需要*8。

模型版本 模型大小 计算能力 文本质量 主要功能 CPU 显卡 内存 磁盘空间 成本(元
1.5B(15亿参数) 1.1GB 适合基础文本处理、情感分析、简单对话生成等 4C+ GTX1650或RTX2060+ 8GB 50GB 2000元
7B(70亿参数) 4.7GB 提升367% 提升60% 能处理多领域应用,像问答系统、对话生成、基本文本总结 8C+ RTX3060 16GB 100GB 1万
8B(80亿参数) 4.9GB 提升14% 提升20% 适用于高质量对话生成、短文本总结、复杂问题解答等 8C+ RTX3060 32GB 100GB 1万
14B(140亿参数) 9GB 提升75% 提升30% 用于高级语言理解、长篇文本生成、高级推理等任务 12C+ RTX3080 64GB 200GB 2万
32B(320亿参数) 20GB 提升129% 提升40% 适合复杂推理任务、高级写作、长篇对话生成等 16C+ 消费级RTX3090 24G、A100或V100 128GB 500GB 4万
70B(700亿参数) 43GB 提升119% 提升50% 用于深度语义理解、创意写作、多模态推理等高端应用 32C+ A100、V100显卡,可能还得多个显卡一起用 128GB 1TB 20万
671B(6710亿参数) 404GB 提升860% 提升100% 用于超高精度推理、大规模内容生成、跨领域深度理解等任务 工作站 A100或多个V100显卡,甚至需要集群支持 512GB 2TB 50万

显卡天梯图

综合模型的聪明程度,建议部署INT4量化后的32B。企业共500左右员工,考虑20并发,两张3090 24G勉强。

应用场景

智能问答系统:外挂企业知识库系统,解决一些简单的问题比如电脑设置问题等。

分析会议记录:TTS后总结。

分析邮件内容:把每日的邮件整理后总结出今日工作日报以及近期需要跟进的工作。

制作PPT、思维导图:生成markdown格式的文本后使用工具转成PPT或者思维导图…

OCR文字整理:使用本地OCR转文本后有错别字,使用deepseek整理文本。

项目优势

前端UI页面采用开源项目ChatBox等,知识库系统采用Fast GPT或Dify,均为开源软件无成本,因此仅需硬件一次性成本。

本文由作者按照 CC BY 4.0 进行授权