deepseek本地部署好了
各位大佬是不是把内存由现在的32G加大到64G会好一点,我看推荐的24GB显存,可以用 32B的Q8,我下载了,加载失败,好像是担心系统过载,过载策略我选择的平衡。
还一个问题,就是思考时间太久是哪里不够,CPU 还是GPU?
为啥不让deepseek自己分析一下呢?{:5_264:} 思考太久说明跑的是CPU,显存不够的情况ollama会自动使用内存加载大模型 netants2011 发表于 2025-2-10 13:08
为啥不让deepseek自己分析一下呢?
估计时间太长等不及吧,电脑在抗议 直接用腾讯云借口就行,一般人没必要这个费劲 我都用现成的api接口 过载策略设置严格就好了 你也说了,需要24GB显存 模型思考应该是用GPU的 ddfzl 发表于 2025-2-10 14:09
你也说了,需要24GB显存
我是参照部署建议 部署的,24GB 显存我有, chengyiqun 发表于 2025-2-10 14:09
过载策略设置严格就好了
好的,我试试
LM studio这样设置就能加载模型大于显存的模型。就是思考的慢, 学习了! 我是来学习的
厉害了!!!! 思考的慢 弱一点 投资不菲 我是来学习的 4060都可以用32B,就是出字慢一点,最后我用了14B 这玩意本地部署好了后,可以离线使用吗? 本地部署的意义在哪里? 会比官方快吗? 小白提问。
页:
[1]
2