如何在本地搭建并使用 DeepSeek?

L
DeepSeek AI 指南
Oct 3, 2025
10 分钟
All

为什么要在本地部署 DeepSeek?

DeepSeek 是一款性能优异的开源大语言模型。相比在线使用,本地搭建 DeepSeek 有以下优势:

  • 隐私安全:所有数据保存在本地,避免上传到云端。
  • 离线使用:即使没有网络,也能运行 AI 模型。
  • 高度可控:可以自由调整参数,进行二次开发。
  • 成本可控:无需长期付费 API,使用本地硬件即可。

前置条件

在搭建 DeepSeek 之前,请确保你的电脑具备以下环境:

  • 操作系统:Windows / macOS / Linux
  • Python:推荐 3.10+
  • GPU:NVIDIA 显卡(推荐 8GB 显存以上)
  • 依赖工具:Git、pip、conda(可选)

安装与配置步骤

1. 克隆 DeepSeek 项目


git clone https://github.com/deepseek-ai/DeepSeek.git
cd DeepSeek
      

2. 创建 Python 环境并安装依赖


# 使用 conda 创建虚拟环境
conda create -n deepseek python=3.10 -y
conda activate deepseek

# 安装依赖
pip install -r requirements.txt
      

3. 下载 DeepSeek 模型

DeepSeek 模型文件可从 Hugging Face 或官方提供的链接下载,例如:


# 以 DeepSeek-7B 为例
git lfs install
git clone https://huggingface.co/deepseek-ai/deepseek-7b
      

4. 运行模型


python app.py --model ./deepseek-7b
      

启动成功后,你可以通过 http://localhost:8000 访问本地部署的 DeepSeek。

使用示例

Python 调用示例


from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-7b")
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-7b")

inputs = tokenizer("你好,DeepSeek!", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0]))
      

常见问题

1. 显卡显存不足怎么办?
可以使用 量化模型(int4/int8) 或者运行在 CPU 上,但性能会下降。
2. 如何让 DeepSeek 支持中文更好?
推荐下载带中文优化的模型版本,例如 DeepSeek-CN
3. 如何在 Web 界面中使用?
可以集成到 text-generation-webui,拥有更直观的可视化界面。

总结

本文详细介绍了如何在本地搭建并使用 DeepSeek,从环境准备、依赖安装、模型下载到运行测试,帮助你快速上手。 如果你对 AI 应用开发、隐私保护或离线大模型使用感兴趣,不妨试试看在本地运行 DeepSeek。

📌 如果觉得文章有帮助,欢迎收藏、分享,让更多人了解 DeepSeek 本地部署教程

返回列表