首页
新闻
会员
周边
园子
·
关注
·
粉丝
·
会员
·
随便看看
·
消息
欢迎,请先
登录
或者
注册
。
登录
/
注册
闪存
提问
博问
博客
投递
新闻
添加
收藏
文库
问题反馈
问题列表
我关注的
我的博问
博问标签
待解决
高分
新回答
新评论
零回答
已解决
〆灬丶
评论回复:
@dudu: 是不是量化版不清楚(只是针对你们讨论的“模型文件大小”,做出回答); 我目前只跑过32B以下的,而且我用的是 LM Studio
dudu
:
ollama 可以直接运行 GGUF 格式的模型文件 https://huggingface.co/docs/hub/en/ollama
2025-02-20 11:21:24
dudu
评论回复:
@我本梁人: 再提供一篇参考博文:8 ways to set the URLs for an ASP.NET Core app,其他帮不上了
我本梁人
:
还是一样的
2025-02-20 11:17:35
我本梁人
评论回复:
还是一样的
dudu
:
参考 https://stackoverflow.com/a/59186591 : the SSL port must be between 44300 and 44399.
2025-02-20 11:11:10
MsgNotFound
评论回复:
感谢管理大大
博客园团队
:
您好,现在好了
2025-02-20 09:42:27
墨镜带佬星
评论回复:
@tea2007: 肯定的啦。还能顺便看世界
tea2007
:
要收费的吧?
2025-02-19 22:20:54
dudu
评论回复:
@echo_lovely: 昨天 18:30 开始下载,到现在还有下载完
echo_lovely
:
几分钟就下完了?几百个G呢
2025-02-19 09:55:47
echo_lovely
评论回复:
几分钟就下完了?几百个G呢
dudu
:
准备了一台磁盘空间1.5T的阿里云服务器,尝试从 modelscope 网站上通过 git clone 下载 root@deepseek-r1-671b:~# git clone https://ww
2025-02-19 08:39:29
dudu
评论回复:
这个仓库里都是量化版吧,相关链接:Run DeepSeek R1 Dynamic 1.58-bit
〆灬丶
:
https://hf-mirror.com/unsloth/DeepSeek-R1-GGUF/tree/main 想要啥精度的,自己拉就行了
2025-02-18 17:17:41
echo_lovely
评论回复:
@园友2288976: 强!
园友2288976
:
@echo_lovely: 自己抓包解决了
2025-02-18 16:40:07
园友2288976
评论回复:
@echo_lovely: 自己抓包解决了
echo_lovely
:
没做过,但是问AI,这种问题会有答案,但是需要要自己去测试
2025-02-18 16:39:36
echo_lovely
评论问题:
@dudu: 我不懂这个,算了,你自己找吧
dudu
:
@echo_lovely: 这个仓库有1.3TB
2025-02-18 13:19:31
echo_lovely
评论问题:
@dudu: 你看啊dudu,163个模型文件,平均一个差不多4.3G,算完似乎是700.9G
dudu
:
@echo_lovely: 这个仓库有1.3TB
2025-02-18 13:14:16
echo_lovely
评论问题:
@dudu: 我大概估算了下,700多个G啊,拉取的时候1.3T吗?
dudu
:
@echo_lovely: 这个仓库有1.3TB
2025-02-18 13:13:07
dudu
评论问题:
@echo_lovely: 这个仓库有1.3TB
echo_lovely
:
我没懂,你看看这个
2025-02-18 11:21:49
echo_lovely
评论问题:
我没懂,你看看这个
dudu
:
已经通过 ollama pull deepseek-r1:671b 下载了 4-bit 量化满血版,模型文件大小是404GB。 现在想下载原装满血版,请问在哪些下载? 通过 A Note on Dee
2025-02-18 10:13:34
echo_lovely
评论问题:
https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main
dudu
:
已经通过 ollama pull deepseek-r1:671b 下载了 4-bit 量化满血版,模型文件大小是404GB。 现在想下载原装满血版,请问在哪些下载? 通过 A Note on Dee
2025-02-18 10:13:10
dudu
评论回复:
deepseek的回答: Ollama 提供的 deepseek-r1:671b 更可能是经过量化或参数压缩的版本(如蒸馏版),而非完整参数的满血版。
络终
:
问问 deepseek
2025-02-17 10:33:44
dudu
评论回复:
用的是最新版 0.5.7
Yofoo
:
服务器用cmd方式启动可以看到日志, 日志有提示如果下载不动就按ctrl+c, 我也遇到一样的问题, 按了好多次 我是自己用ollama run 方式下载的, 直接用默认地址, 按ctrl+c后再启动
2025-02-14 11:10:15
〆灬丶
评论回复:
@会长: BV18uNWeXE1t B站搜这个UP的视频,对照他发的代码你验证下,我没细看
会长
:
自己准备训练数据训练
2025-02-13 18:14:34
会长
评论回复:
自己准备训练数据训练
〆灬丶
:
你说的 “微调” 是指啥?自己跑训练集?还是说像 LM Studio 上拉下各项指标参数?
2025-02-13 16:04:30
pathpass2
评论回复:
@zhang1701: GitHub上有sdk git clone git@github.com:JasonFreeLab/HiSTBLinuxV100R005C00SPC060.git git c…
zhang1701
:
@pathpass2: 我还没搞定。想自己编译kernel,但又找不到对应内核版本的linux_headers,头痛。 这是我最新的分析 https://www.cnblogs.com/zhSky/p
2025-02-12 09:07:49
〆灬丶
评论回复:
就你这个靠谱点
楠木大叔
:
仅供参考。 https://gitee.com/iGaoWei/big-data-view#015-广西矿产资源大数据监管平台-在线预览
2025-02-11 19:34:42
zhang1701
评论回复:
@pathpass2: 我还没搞定。想自己编译kernel,但又找不到对应内核版本的linux_headers,头痛。 这是我最新的分析 https://www.cnblogs.com/zhSky/…
pathpass2
:
我的整好了 得用自己编译出来得kernel才行 用下载的kernel不行 哪怕版本号一摸一样都不行
2025-02-11 16:39:43
人间春风意
评论回复:
@ljr忒修斯之船: 哦哦,我这边是ollama安装后,直接执行 ollama run deepseek-r1:1.5b,没有遇到这种问题。你要不试一下重启 systemctl restart oll…
ljr忒修斯之船
:
@人间春风意: 这个就是deepseek没启动成功啊,就是我的问题啊
2025-02-08 14:16:38
ljr忒修斯之船
评论回复:
@人间春风意: 这个就是deepseek没启动成功啊,就是我的问题啊
人间春风意
:
@ljr忒修斯之船: 可是报错写的是没有找到外部的llama serve啊 ?
2025-02-08 10:17:15
< Prev
1
···
23
24
25
26
27
28
29
30
31
32
33
···
200
Next >
博问搜索
关于博问
»
博问帮助
»
声望排名
»
园豆排名
»
发现问题
»
我有建议