如何在本地搭建并使用 DeepSeek?
L
DeepSeek AI 指南Oct 3, 2025
10 分钟
All
为什么要在本地部署 DeepSeek?
DeepSeek 是一款性能优异的开源大语言模型。相比在线使用,本地搭建 DeepSeek 有以下优势:
- 隐私安全:所有数据保存在本地,避免上传到云端。
- 离线使用:即使没有网络,也能运行 AI 模型。
- 高度可控:可以自由调整参数,进行二次开发。
- 成本可控:无需长期付费 API,使用本地硬件即可。
前置条件
在搭建 DeepSeek 之前,请确保你的电脑具备以下环境:
- 操作系统:Windows / macOS / Linux
- Python:推荐 3.10+
- GPU:NVIDIA 显卡(推荐 8GB 显存以上)
- 依赖工具:Git、pip、conda(可选)
安装与配置步骤
1. 克隆 DeepSeek 项目
git clone https://github.com/deepseek-ai/DeepSeek.git
cd DeepSeek
2. 创建 Python 环境并安装依赖
# 使用 conda 创建虚拟环境
conda create -n deepseek python=3.10 -y
conda activate deepseek
# 安装依赖
pip install -r requirements.txt
3. 下载 DeepSeek 模型
DeepSeek 模型文件可从 Hugging Face 或官方提供的链接下载,例如:
# 以 DeepSeek-7B 为例
git lfs install
git clone https://huggingface.co/deepseek-ai/deepseek-7b
4. 运行模型
python app.py --model ./deepseek-7b
启动成功后,你可以通过 http://localhost:8000
访问本地部署的 DeepSeek。
使用示例
Python 调用示例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-7b")
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-7b")
inputs = tokenizer("你好,DeepSeek!", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0]))
常见问题
- 1. 显卡显存不足怎么办?
- 可以使用
量化模型(int4/int8)
或者运行在 CPU 上,但性能会下降。 - 2. 如何让 DeepSeek 支持中文更好?
- 推荐下载带中文优化的模型版本,例如
DeepSeek-CN
。 - 3. 如何在 Web 界面中使用?
- 可以集成到 text-generation-webui,拥有更直观的可视化界面。
总结
本文详细介绍了如何在本地搭建并使用 DeepSeek,从环境准备、依赖安装、模型下载到运行测试,帮助你快速上手。 如果你对 AI 应用开发、隐私保护或离线大模型使用感兴趣,不妨试试看在本地运行 DeepSeek。
📌 如果觉得文章有帮助,欢迎收藏、分享,让更多人了解 DeepSeek 本地部署教程。