引言
最近爆火的DeepSeek大模型,能写代码、能聊人生,甚至能帮你写小红书文案!但很多小伙伴卡在了“本地安装”这一步。别慌!今天这篇保姆级教程,从电脑配置检查到一行代码运行,手把手带你搞定DeepSeek,小白也能无痛上车!
安装前先检查一下自己的电脑的配置,配置不够,千万不要安装
一、安装前必看!你的电脑够“强”吗?
DeepSeek对硬件有一定要求,先对照下表自查(以常用7B聊天版为例):
配置项 | 最低要求 | 推荐配置 |
显卡(关键!) | NVIDIA 10系以上显卡 | RTX 3060 12GB/3090 24GB |
显存 | 10GB(量化版) | 16GB以上(完整版) |
内存 | 16GB | 32GB |
硬盘空间 | 至少30GB剩余空间 | SSD固态硬盘更佳 |
如何查看自己电脑配置?
- Windows用户:按 Win+R 输入 dxdiag,查看“显示”选项卡中的显存
- Mac用户:点击左上角苹果图标 → 关于本机 → 系统报告 → 显卡/存储
?划重点:如果显存不足,可用量化版模型(后文会教),8G显存也能跑!
二、准备工作:安装“编程环境”
Step 1:安装Python(不会编程也能装!)
- 访问Python官网,下载3.10.x版本(千万别选最新版!)
- 安装时务必勾选 Add Python to PATH(如图)
Step 2:安装Conda(管理工具超省心)
- 下载 Miniconda(Windows选.exe,Mac选.pkg)
https://docs.anaconda.com/miniconda/
- 全部默认设置安装,完成后打开终端/命令提示符,输入:
conda --version # 显示版本号即成功
Step 3:创建独立环境(避免软件冲突)
conda create -n deepseek python=3.10
conda activate deepseek # 进入专属环境
三、模型安装:两种方法任选
▌方法1:HuggingFace一键下载(需科学上网)
# 安装下载工具
pip install huggingface_hub
# 运行下载代码(替换你的token)
from huggingface_hub import snapshot_download
snapshot_download(
repo_id="deepseek-ai/deepseek-llm-7b-chat",
local_dir="./deepseek-7b-chat",
token="hf_你的令牌" # 在huggingface.co/settings/tokens获取
)
▌方法2:手动下载(适合网络不稳定)
- 访问 DeepSeek官方页面
- 找到 deepseek-llm-7b-chat → 点击Files and versions → 下载所有文件
- 新建文件夹 deepseek-7b-chat,将下载的文件放入其中
? 必选文件:config.json, model.safetensors, tokenizer.model
四、运行模型:3行代码召唤AI!
基础版代码(适合16GB以上显存)
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model = AutoModelForCausalLM.from_pretrained(
"./deepseek-7b-chat",
device_map="auto", # 自动分配GPU/CPU
torch_dtype=torch.float16 # 半精度节省显存
)
tokenizer = AutoTokenizer.from_pretrained("./deepseek-7b-chat")
# 输入你的问题
question = "用东北话写一首关于秋天的诗"
inputs = tokenizer(question, return_tensors="pt").to("cuda")
# 生成回答
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
低显存救星:8bit量化(8G显存可用)
model = AutoModelForCausalLM.from_pretrained(
"./deepseek-7b-chat",
load_in_8bit=True, # 开启8bit量化
device_map="auto"
)
五、常见问题急救包
- 报错OutOfMemoryError
- 尝试 load_in_4bit=True(需安装bitsandbytes库)
- 添加 max_memory="{0:'20GiB', 1:'20GiB'}" 分配多显卡显存
- 提示缺少依赖库
- pip install bitsandbytes flash-attn # 补充安装常用库
- 生成速度太慢
- 升级显卡驱动至最新版
- 使用 vLLM 加速(安装:pip install vllm)
六、重要提示:
安装过程中遇到问题问Deepseek