春節(jié)期間突然被DeepSeek刷屏了,這熱度是真大,到處都是新聞和本地部署的教程,等熱度過了過,簡(jiǎn)單記錄下自己本地部署及相關(guān)的內(nèi)容,就當(dāng)電子寵物,沒事喂一喂:D,不過有能力的還是閱讀論文和部署完整版的進(jìn)一步使用。
論文鏈接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
1|0一、什么是 DeepSeek R1
2025.01.20 DeepSeek-R1 發(fā)布,DeepSeek R1 是 DeepSeek AI 開發(fā)的第一代推理模型,擅長(zhǎng)復(fù)雜的推理任務(wù),官方對(duì)標(biāo)OpenAI o1正式版。適用于多種復(fù)雜任務(wù),如數(shù)學(xué)推理、代碼生成和邏輯推理等。
DeepSeek-R1 發(fā)布的新聞:https://api-docs.deepseek.com/zh-cn/news/news250120
根據(jù)官方信息DeepSeek R1 可以看到提供多個(gè)版本,包括完整版(671B 參數(shù))和蒸餾版(1.5B 到 70B 參數(shù))。完整版性能強(qiáng)大,但需要極高的硬件配置;蒸餾版則更適合普通用戶,硬件要求較低
DeepSeek-R1官方地址:https://github.com/deepseek-ai/DeepSeek-R1
完整版(671B):需要至少 350GB 顯存/內(nèi)存,適合專業(yè)服務(wù)器部署
蒸餾版:基于開源模型(如 QWEN 和 LLAMA)微調(diào),參數(shù)量從 1.5B 到 70B 不等,適合本地硬件部署。
蒸餾版與完整版的區(qū)別
特性 | 蒸餾版 | 完整版 |
---|---|---|
參數(shù)量 | 參數(shù)量較少(如 1.5B、7B),性能接近完整版但略有下降。 | 參數(shù)量較大(如 32B、70B),性能最強(qiáng)。 |
硬件需求 | 顯存和內(nèi)存需求較低,適合低配硬件。 | 顯存和內(nèi)存需求較高,需高端硬件支持。 |
適用場(chǎng)景 | 適合輕量級(jí)任務(wù)和資源有限的設(shè)備。 | 適合高精度任務(wù)和專業(yè)場(chǎng)景。 |
這里我們?cè)敿?xì)看下蒸餾版模型的特點(diǎn)
模型版本 | 參數(shù)量 | 特點(diǎn) |
---|---|---|
deepseek-r1:1.5b | 1.5B | 輕量級(jí)模型,適合低配硬件,性能有限但運(yùn)行速度快 |
deepseek-r1:7b | 7B | 平衡型模型,適合大多數(shù)任務(wù),性能較好且硬件需求適中。 |
deepseek-r1:8b | 8B | 略高于 7B 模型,性能稍強(qiáng),適合需要更高精度的場(chǎng)景。 |
deepseek-r1:14b | 14B | 高性能模型,適合復(fù)雜任務(wù)(如數(shù)學(xué)推理、代碼生成),硬件需求較高。 |
deepseek-r1:32b | 32B | 專業(yè)級(jí)模型,性能強(qiáng)大,適合研究和高精度任務(wù),需高端硬件支持。 |
deepseek-r1:70b | 70B | 頂級(jí)模型,性能最強(qiáng),適合大規(guī)模計(jì)算和高復(fù)雜度任務(wù),需專業(yè)級(jí)硬件支持。 |
進(jìn)一步的模型細(xì)分還分為量化版
模型版本 | 參數(shù)量 | 特點(diǎn) |
---|---|---|
deepseek-r1:1.5b-qwen-distill-q4_K_M | 1.5B | 輕量級(jí)模型,適合低配硬件,性能有限但運(yùn)行速度快 |
deepseek-r1:7b-qwen-distill-q4_K_M | 7B | 平衡型模型,適合大多數(shù)任務(wù),性能較好且硬件需求適中。 |
deepseek-r1:8b-llama-distill-q4_K_M | 8B | 略高于 7B 模型,性能稍強(qiáng),適合需要更高精度的場(chǎng)景。 |
deepseek-r1:14b-qwen-distill-q4_K_M | 14B | 高性能模型,適合復(fù)雜任務(wù)(如數(shù)學(xué)推理、代碼生成),硬件需求較高。 |
deepseek-r1:32b-qwen-distill-q4_K_M | 32B | 專業(yè)級(jí)模型,性能強(qiáng)大,適合研究和高精度任務(wù),需高端硬件支持。 |
deepseek-r1:70b-llama-distill-q4_K_M | 70B | 頂級(jí)模型,性能最強(qiáng),適合大規(guī)模計(jì)算和高復(fù)雜度任務(wù),需專業(yè)級(jí)硬件支持。 |
蒸餾版與量化版
模型類型 | 特點(diǎn) |
---|---|
蒸餾版 | 基于大模型(如 QWEN 或 LLAMA)微調(diào),參數(shù)量減少但性能接近原版,適合低配硬件。 |
量化版 | 通過降低模型精度(如 4-bit 量化)減少顯存占用,適合資源有限的設(shè)備。 |
例如:
deepseek-r1:7b-qwen-distill-q4_K_M:7B 模型的蒸餾+量化版本,顯存需求從 5GB 降至 3GB。
deepseek-r1:32b-qwen-distill-q4_K_M:32B 模型的蒸餾+量化版本,顯存需求從 22GB 降至 16GB
我們正常本地部署使用蒸餾版就可以
2|0二、型號(hào)和硬件要求
2|12.1硬件配置說明
Windows 配置:
最低要求:NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB,16GB 內(nèi)存,50GB 存儲(chǔ)空間
推薦配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 內(nèi)存,100GB NVMe SSD
高性能配置:NVIDIA RTX 3090 24GB 或 AMD RX 7900 XTX 24GB,64GB 內(nèi)存,200GB NVMe SSD
Linux 配置:
最低要求:NVIDIA GTX 1660 6GB 或 AMD RX 5500 4GB,16GB 內(nèi)存,50GB 存儲(chǔ)空間
推薦配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 內(nèi)存,100GB NVMe SSD
高性能配置:NVIDIA A100 40GB 或 AMD MI250X 128GB,128GB 內(nèi)存,200GB NVMe SSD
Mac 配置:
最低要求:M2 MacBook Air(8GB 內(nèi)存)
推薦配置:M2/M3 MacBook Pro(16GB 內(nèi)存)
高性能配置:M2 Max/Ultra Mac Studio(64GB 內(nèi)存)
可根據(jù)下表配置選擇使用自己的模型
模型名稱 | 參數(shù)量 | 大小 | VRAM (Approx.) | 推薦 Mac 配置 | 推薦 Windows/Linux 配置 |
---|---|---|---|---|---|
deepseek-r1:1.5b | 1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b | 7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b | 8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b | 14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b | 32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b | 70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
deepseek-r1:1.5b-qwen-distill-q4_K_M | 1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b-qwen-distill-q4_K_M | 7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b-llama-distill-q4_K_M | 8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b-qwen-distill-q4_K_M | 14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b-qwen-distill-q4_K_M | 32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b-llama-distill-q4_K_M | 70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
3|0三、本地安裝 DeepSeek R1
我這里的演示的本地環(huán)境:
機(jī)器:M2/M3/M4 MacBook Pro (16GB RAM+)
模型:deepseek-r1:8b
簡(jiǎn)單說下在本地運(yùn)行的好處
隱私:您的數(shù)據(jù)保存在本地的設(shè)備上,不會(huì)通過外部服務(wù)器
離線使用:下載模型后無需互聯(lián)網(wǎng)連接
經(jīng)濟(jì)高效:無 API 成本或使用限制
低延遲:直接訪問,無網(wǎng)絡(luò)延遲
自定義:完全控制模型參數(shù)和設(shè)置
之后如果有Windows/Linux的場(chǎng)景需要在后續(xù)進(jìn)行更新。
3|13.1部署工具
部署可以使用Ollama、LM Studio、Docker等進(jìn)行部署
Ollama:
本地大模型管理框架,Ollama 讓用戶能夠在本地環(huán)境中高效地部署和使用語言模型,而無需依賴云服務(wù)
支持 Windows、Linux 和 Mac 系統(tǒng),提供命令行和 Docker 部署方式
使用命令ollama run deepseek-r1:7b下載并運(yùn)行模型
LM Studio:
LM Studio 是一個(gè)桌面應(yīng)用程序,它提供了一個(gè)用戶友好的界面,允許用戶輕松下載、加載和運(yùn)行各種語言模型(如 LLaMA、GPT 等)
支持 Windows 和 Mac,提供可視化界面,適合新手用戶
Docker:
支持 Linux 和 Windows,適合高級(jí)用戶。
使用命令docker run -d --gpus=all -p 11434:11434 --name ollama ollama/ollama啟動(dòng)容器。
由于需要本地化部署語言模型的場(chǎng)景,對(duì)數(shù)據(jù)隱私和自定義或擴(kuò)展語言模型功能有較高要求,我們這里使用Ollama來進(jìn)行本地部署運(yùn)行
如果只有集顯也想試試玩,可以試試下載LM Studio軟件,更適應(yīng)新手,如果有需要后續(xù)更新
3|23.2 安裝 ollama
官方地址:https://ollama.com/
選擇自己的系統(tǒng)版本進(jìn)行下載
安裝完成
控制臺(tái)驗(yàn)證是否成功安裝
我們?cè)倩氐給llama官網(wǎng)選擇模型,選擇需要的模型復(fù)制命令進(jìn)行安裝
可以看到安裝完成
簡(jiǎn)單思考下,使用過程中的硬件使用率,GPU飽和,其他使用率不是很高,速度也很快
4|0四、可視化界面
這里介紹下Open-WebUI和Dify
Open-WebUI是一款自托管 LLM Web 界面,提供 Web UI 與大模型交互,僅提供 Web UI,不提供 API,適用于個(gè)人使用 LLM以及本地運(yùn)行大模型
Dify是LLM 應(yīng)用開發(fā)平臺(tái),不完全是可視化界面,可以快速構(gòu)建 LLM 應(yīng)用(RAG、AI 代理等),提供 API,可用于應(yīng)用集成,支持 MongoDB、PostgreSQL 存儲(chǔ) LLM 相關(guān)數(shù)據(jù), AI SaaS、應(yīng)用開發(fā),需要構(gòu)建智能客服、RAG 應(yīng)用等
4|14.1 Open-WebUI
Open-WebUI官方地址:https://github.com/open-webui/open-webui
Open-WebUI官方文檔地址:https://docs.openwebui.com/getting-started/
根據(jù)官網(wǎng)文檔可使用pip和docker進(jìn)行安裝,我這里避免影響本地環(huán)境使用docker進(jìn)行安裝
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
訪問http://localhost:3000/
創(chuàng)建賬號(hào)
訪問成功
簡(jiǎn)單的問下問題,實(shí)際運(yùn)行8b模型給出的代碼是有問題的,根據(jù)報(bào)錯(cuò)的問題再次思考時(shí)間會(huì)變長(zhǎng)
4|24.2 Dify
Dify官方地址:https://github.com/langgenius/dify
啟動(dòng)成功,localhost訪問
登錄成功選擇Ollama進(jìn)行添加模型模型供應(yīng)商,如果Ollama和Dify是同機(jī)部署,并且Dify是通過Docker部署,那么填http://host.docker.internal:11434即可
接下來創(chuàng)建應(yīng)用使用之前安裝好的DeepSeek R1模型
可以看到右上角已經(jīng)使用deepseek-r1:8b的模型了
簡(jiǎn)單的問個(gè)問題可以看到已經(jīng)正常使用
Dify不只是對(duì)話,其他功能可以自行探索下,后續(xù)有使用我也會(huì)更新
以上就是簡(jiǎn)單本地部署Deepseek- R1的過程
5|0五、關(guān)于Deepseek的使用
最后在本地部署蒸餾版的體驗(yàn)中對(duì)于回答的代碼內(nèi)容有些不盡人意,不過文字以及思考過程的能力還是可以的
如果想在后續(xù)體驗(yàn)完整版的Deepseek,還沒有高性能的硬件,那么直接使用deepseek官方的服務(wù)吧,api是真的便宜
Deepseek剛出現(xiàn)的時(shí)候就有在體驗(yàn)過包括使用API,Deepseek火了之后也總出現(xiàn)了服務(wù)器繁忙請(qǐng)稍后再試,API的地址也無法使用,不過之前使用的API卻還可以正常使用,希望盡快修復(fù)吧
在vs code中通過Continue插件使用Deepseek的API,也可以在Open-WebUI接入API
在使用過程中感覺到有些上下文聯(lián)系不是很緊密,不過思考過程確實(shí)很驚艷,在某些方面o1可能還是好些
后來發(fā)現(xiàn)chatgpt、kimi這些也推出了推理功能:D,
對(duì)于在日常使用中Deepseek和GPT4O的對(duì)比各有千秋,可根據(jù)使用場(chǎng)景切換使用,但不得不說Deepseek確實(shí)很棒。
鏈接:https://www.cnblogs.com/shook/p/18700561
-
AI
+關(guān)注
關(guān)注
87文章
32942瀏覽量
272606 -
DeepSeek
+關(guān)注
關(guān)注
1文章
698瀏覽量
579
原文標(biāo)題:一鍵部署,輕松上手!DeepSeek-R1本地部署指南,開啟你的AI探索之旅!
文章出處:【微信號(hào):magedu-Linux,微信公眾號(hào):馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
香橙派發(fā)布OrangePi RV2本地部署Deepseek-R1蒸餾模型指南

AI筑基,智領(lǐng)未來 | DeepSeek-R1本地大模型賦能邁威通信智能化轉(zhuǎn)型

如何使用OpenVINO運(yùn)行DeepSeek-R1蒸餾模型

在英特爾哪吒開發(fā)套件上部署DeepSeek-R1的實(shí)現(xiàn)方式

RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南
行芯完成DeepSeek-R1大模型本地化部署
Infinix AI接入DeepSeek-R1滿血版
香橙派發(fā)布OrangePi 5Plus本地部署Deepseek-R1蒸餾模型指南

添越智創(chuàng)基于 RK3588 開發(fā)板部署測(cè)試 DeepSeek 模型全攻略
了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇
Deepseek R1大模型離線部署教程

PerfXCloud上線DeepSeek系列模型
deepin UOS AI接入DeepSeek-R1模型
芯動(dòng)力神速適配DeepSeek-R1大模型,AI芯片設(shè)計(jì)邁入“快車道”!

評(píng)論