只尝试过通过 ollama 运行 deepseek 模型,但从 DeepSeek 在 HuggingFace 上的官方仓库下载的满血版 DeepSeek R1 671b 模型无法通过 ollama 运行,请问还有哪些方法可以运行?
提这个问题是为下一步在 Kubernetes 集群上部署满血版 DeepSeek-R1 做准备
微信里点“发现”,扫一下
二维码便可将本文分享至朋友圈。
通过这篇博文了解到可以使用 vLLM
vLLM
博文链接:How to Install and Run DeepSeek R1 Locally With vLLM V1
vLLM is a fast and easy-to-use library for LLM inference and serving. With vLLM v1, you can run DeepSeek R1 efficiently, even on GPUs with limited memory.