已经通过 ollama pull deepseek-r1:671b
下载了 4-bit 量化满血版,模型文件大小是404GB。
现在想下载原装满血版,请问在哪些下载?
通过 A Note on DeepSeek R1 Deployment 知道原装满血版的模型文件大小是720GB,而 Hugging Face 上的 DeepSeek-R1 仓库有1.3TB,没必要拉取这么大的仓库,想单独下载。
https://hf-mirror.com/unsloth/DeepSeek-R1-GGUF/tree/main
想要啥精度的,自己拉就行了
这个仓库里都是量化版吧,相关链接:Run DeepSeek R1 Dynamic 1.58-bit
ollama 可以直接运行 GGUF 格式的模型文件 https://huggingface.co/docs/hub/en/ollama
deepseek 给出的回答:
Unsloth AI 在 HuggingFace 上提供了动态量化版本的 DeepSeek-R1 671B 模型,支持不同比特率的量化(1.58-bit 至 4-bit),显著降低部署硬件门槛
@dudu: 是不是量化版不清楚(只是针对你们讨论的“模型文件大小”,做出回答);
我目前只跑过32B以下的,而且我用的是 LM Studio
准备了一台磁盘空间1.5T的阿里云服务器,尝试从 modelscope 网站上通过 git clone 下载
root@deepseek-r1-671b:~# git clone https://www.modelscope.cn/deepseek-ai/DeepSeek-R1.git
Cloning into 'DeepSeek-R1'...
remote: Enumerating objects: 215, done.
remote: Counting objects: 100% (215/215), done.
remote: Compressing objects: 100% (204/204), done.
remote: Total 215 (delta 20), reused 197 (delta 9), pack-reused 0
Receiving objects: 100% (215/215), 2.57 MiB | 1.85 MiB/s, done.
Resolving deltas: 100% (20/20), done.
18:30 开始下载,100M左右的下载带宽
几分钟就下完了?几百个G呢
@echo_lovely: 昨天 18:30 开始下载,到现在还没下载完,当前已下载1.3T
10:15 终于全部下载好了,整个 HuggingFace 仓库一共1.3T(1344918860),下载一共用时15小时45分钟
问 DeepSeek :“2025-02-18 18:30 至 2025-02-19 10:15 相差多少小时多少分钟”
DeepSeek 思考了近2分钟(117s)才给出答案
1.3T 中 .git 文件夹占 642G
,模型文件占 641G
642G /root/DeepSeek-R1/.git
764K /root/DeepSeek-R1/figures
1.3T /root/DeepSeek-R1
(1344918860-672452804-764)/1024/1024 = 641G
ollama官方并不直接支持这么大的模型,可以去Hugging Face上下载。
https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main
– echo_lovely 1周前我没懂,你看看这个
– echo_lovely 1周前@echo_lovely: 这个仓库有1.3TB
– dudu 1周前@dudu: 我大概估算了下,700多个G啊,拉取的时候1.3T吗?
– echo_lovely 1周前@dudu: 你看啊dudu,163个模型文件,平均一个差不多4.3G,算完似乎是700.9G
– echo_lovely 1周前@dudu: 我不懂这个,算了,你自己找吧
– echo_lovely 1周前