zh182532207 发表于 2025-2-10 12:19

deepseek本地部署好了

各位大佬
是不是把内存由现在的32G加大到64G会好一点,我看推荐的24GB显存,可以用 32B的Q8,我下载了,加载失败,好像是担心系统过载,过载策略我选择的平衡。

还一个问题,就是思考时间太久是哪里不够,CPU 还是GPU?

netants2011 发表于 2025-2-10 13:08

为啥不让deepseek自己分析一下呢?{:5_264:}

renlingling 发表于 2025-2-10 13:16

思考太久说明跑的是CPU,显存不够的情况ollama会自动使用内存加载大模型

台风12 发表于 2025-2-10 13:17

netants2011 发表于 2025-2-10 13:08
为啥不让deepseek自己分析一下呢?

估计时间太长等不及吧,电脑在抗议

519528825 发表于 2025-2-10 13:42

直接用腾讯云借口就行,一般人没必要这个费劲

mmgg 发表于 2025-2-10 13:52

我都用现成的api接口

chengyiqun 发表于 2025-2-10 14:09

过载策略设置严格就好了

ddfzl 发表于 2025-2-10 14:09

你也说了,需要24GB显存

jaxonlau 发表于 2025-2-10 14:20

模型思考应该是用GPU的

zh182532207 发表于 2025-2-10 15:12

ddfzl 发表于 2025-2-10 14:09
你也说了,需要24GB显存

我是参照部署建议 部署的,24GB 显存我有,

zh182532207 发表于 2025-2-10 15:14

chengyiqun 发表于 2025-2-10 14:09
过载策略设置严格就好了

好的,我试试

focpo 发表于 2025-2-11 18:27


LM studio这样设置就能加载模型大于显存的模型。就是思考的慢,

非非常道 发表于 2025-2-11 19:16

学习了!

zrq0609 发表于 2025-2-14 10:19

我是来学习的

aaa1231 发表于 2025-2-14 10:25

厉害了!!!!

841588799 发表于 2025-2-14 10:26

思考的慢   弱一点

anyscai 发表于 2025-2-14 15:34

投资不菲

sip1068 发表于 2025-2-14 15:45

我是来学习的

陈伟飞 发表于 2025-2-14 16:23

4060都可以用32B,就是出字慢一点,最后我用了14B

jasonken 发表于 2025-2-18 16:59

这玩意本地部署好了后,可以离线使用吗? 本地部署的意义在哪里? 会比官方快吗? 小白提问。
页: [1] 2
查看完整版本: deepseek本地部署好了