zh182532207 发表于 2025-2-8 13:25

deepseek 部署 下载速度好慢

想部署个 32B的 玩玩,20G的文件,要下载7-8小时,关键还不稳定,有没有办法下载快一点,
还一个问题,只能部署在C盘吗

北纬伤心的泪 发表于 2025-2-8 13:48

olm可以换位置,手动改环境变量,其次olm下载走CF的,所以慢,至于怎么加速自己想想

zzy1938 发表于 2025-2-8 14:05

确实太慢把窗口关掉,重新打开cmd。再复制命令,模型会继续下载,速度可能就会变得很快了。我都是在速度太慢的时候x掉重新来。

lovesdeeply 发表于 2025-2-8 14:14

网页版经常用不了。也烦*人。。

zh182532207 发表于 2025-2-8 14:33

zzy1938 发表于 2025-2-8 14:05
确实太慢把窗口关掉,重新打开cmd。再复制命令,模型会继续下载,速度可能就会变得很快了。我都是在速度太 ...

关键还能倒退,好不容易到了4%,过一会再看,变成1%了。关闭的话,是从0开始吧

陈伟飞 发表于 2025-2-8 14:37

网上不是有网盘分享的,下载很快

focpo 发表于 2025-2-8 14:56

本帖最后由 focpo 于 2025-2-8 14:58 编辑

应该是随便哪个位置都行。
推荐个huggingface的镜像站:https://hf-mirror.com/
搜模型的时候带上ggfu
支持续传,支持idm和aria。我这里用aria下载更快。

kevon2013 发表于 2025-2-8 15:09

https://huggingface.co/huihui-ai这个试试看

zh182532207 发表于 2025-2-8 15:18

focpo 发表于 2025-2-8 14:56
应该是随便哪个位置都行。
推荐个huggingface的镜像站:https://hf-mirror.com/
搜模型的时候带上ggfu


感谢老哥,搞定了

忆平生 发表于 2025-2-8 15:36

网页版也时不时用不了,有点恼火

qihua168 发表于 2025-2-8 15:41

端侧部署,有时候不是很有效,尤其是推理。

zh182532207 发表于 2025-2-8 16:26

focpo 发表于 2025-2-8 14:56
应该是随便哪个位置都行。
推荐个huggingface的镜像站:https://hf-mirror.com/
搜模型的时候带上ggfu


这个是蒸馏版,好像不能用ollama运行是吧,要用python

china_jam 发表于 2025-2-8 17:05

还不会,慢慢学习。下载中

zy751227 发表于 2025-2-8 17:06

LM Studio下载
https://lmstudio.ai/

DeepSeek-R1下载
https://hf-mirror.com/lmstudio-community/DeepSeek-R1-Distill-Qwen-1.5B-GGUF/tree/main
https://hf-mirror.com/lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF/tree/main
https://hf-mirror.com/lmstudio-community/DeepSeek-R1-Distill-Llama-8B-GGUF/tree/main
https://hf-mirror.com/lmstudio-community/DeepSeek-R1-Distill-Qwen-14B-GGUF/tree/main

https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-1.5B-GGUF/files
https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF/files
https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Llama-8B-GGUF/files
https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-14B-GGUF/files
https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF/files

zh182532207 发表于 2025-2-8 18:07

zy751227 发表于 2025-2-8 17:06
LM Studio下载
https://lmstudio.ai/



下载好了,但是ollama不识别,运行命令的时候,还是要重新下载

zy751227 发表于 2025-2-8 18:16

zh182532207 发表于 2025-2-8 18:07
下载好了,但是ollama不识别,运行命令的时候,还是要重新下载

我是用LM Studio的,可以直接用本地模型文件。

zh182532207 发表于 2025-2-8 18:21

zy751227 发表于 2025-2-8 18:16
我是用LM Studio的,可以直接用本地模型文件。

好的,我试试
谢谢

zh182532207 发表于 2025-2-8 18:35

zy751227 发表于 2025-2-8 18:16
我是用LM Studio的,可以直接用本地模型文件。

LM 下好了,要配置环境变量吗,我加载本地模型的时候,还是不显示下载好的 那个

zy751227 发表于 2025-2-8 18:53

zh182532207 发表于 2025-2-8 18:35
LM 下好了,要配置环境变量吗,我加载本地模型的时候,还是不显示下载好的 那个 ...

有视频教程,搜一下就能找到。
本地模型存放目录有特殊要求,好像是三层目录才行。

zh182532207 发表于 2025-2-8 18:56

zy751227 发表于 2025-2-8 18:53
有视频教程,搜一下就能找到。
本地模型存放目录有特殊要求,好像是三层目录才行。 ...

好的,我去找下看看
页: [1] 2
查看完整版本: deepseek 部署 下载速度好慢