首页 新闻 会员 周边 捐助

如何运行从 HuggingFace 下载的满血版 DeepSeek R1 671b 模型

0
悬赏园豆:30 [待解决问题] 浏览: 49次

只尝试过通过 ollama 运行 deepseek 模型,但从 DeepSeek 在 HuggingFace 上的官方仓库下载的满血版 DeepSeek R1 671b 模型无法通过 ollama 运行,请问还有哪些方法可以运行?

提这个问题是为下一步在 Kubernetes 集群上部署满血版 DeepSeek-R1 做准备

dudu的主页 dudu | 高人七级 | 园豆:27813
提问于:2025-02-23 18:45
< > 人人可用的开源BI工具
分享
所有回答(1)
0

通过这篇博文了解到可以使用 vLLM

博文链接:How to Install and Run DeepSeek R1 Locally With vLLM V1

vLLM is a fast and easy-to-use library for LLM inference and serving.
With vLLM v1, you can run DeepSeek R1 efficiently, even on GPUs with limited memory.

dudu | 园豆:27813 (高人七级) | 2025-02-23 21:14
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册
Top