wangyonhon 发表于 2025-1-28 14:41

deepseek-r1安装

分享deepseek-r1安装程序。还有快捷运行脚本。右键快捷设置

straony 发表于 2025-1-28 14:58

首回
感谢大佬

wangyonhon 发表于 2025-1-28 15:01

忘了发这个了没这个右键又不了

han1768 发表于 2025-1-28 15:08

多谢分享,deepseek好东西

zgcc 发表于 2025-1-28 15:11

这玩意儿,听说500W美元训练出来的,刚好够电费。

JARK006 发表于 2025-1-28 15:16

本帖最后由 JARK006 于 2025-1-29 09:12 编辑

如果显卡一般,也可以参考我这种方法跑蒸馏版CPU版,蹦字较慢:

1. 去 https://github.com/ggerganov/llama.cpp 下载最新llama.cpp。
2. 去 https://huggingface.co/ 下载 deepseek-r1 的GGUF量化版放到llama.cpp目录里,例如我下的是 deepseek-r1-distill-qwen-32b-q4_k_m.gguf我机子32GB内存,再大就不行了。
3. 然后在llama.cpp程序目录运行终端命令:
.\llama-server.exe -m .\deepseek-r1-distill-qwen-32b-q4_k_m.gguf -c 65536 --host 127.0.0.1 --port 80
4. 等加载启动完毕,打开浏览器 http://127.0.0.1 即可对话,还有深度思考过程。

以上跑的是32B-Q4量化的蒸馏版,输出内容质量有原版R1的7/8成,原版是671B参数量,一般人本地跑不起,所以推荐优先使用官网的网页版,本地跑的充其量当个备份方案

proandy 发表于 2025-1-28 15:20

JARK006 发表于 2025-1-28 15:16
如果显卡一般,也可以参考我这种方法跑CPU版,蹦字较慢:

1. 去 https://github.com/ggerganov/llama.cpp...

年后去办公室的工作站上试试

vista. 发表于 2025-1-28 15:22

就差一块4090显卡了。

yiweiyouke 发表于 2025-1-28 15:46

wangyonhon 发表于 2025-1-28 15:01
忘了发这个了没这个右键又不了

解压 在第几步之前?

hyh4211 发表于 2025-1-28 15:47

支持一个,试试看

wangyonhon 发表于 2025-1-28 15:48

yiweiyouke 发表于 2025-1-28 15:46
解压 在第几步之前?

直接解压C盘

wangyonhon 发表于 2025-1-28 15:53

yiweiyouke 发表于 2025-1-28 15:46
解压 在第几步之前?

好像都可以

myjoys 发表于 2025-1-28 15:55

围观,看潮人们先玩

einsteindamo 发表于 2025-1-28 16:02

非常感谢楼主!

yzx898 发表于 2025-1-28 16:27

手机安装一个app不是就可以了吗?怎么还搞这么复杂?

zhufree2008 发表于 2025-1-28 17:08

deepseek最近哪儿都是啊

rubycon 发表于 2025-1-28 18:00

vista. 发表于 2025-1-28 15:22
就差一块4090显卡了。

应该是差 5090 吧。

rubycon 发表于 2025-1-28 18:00

没有 RTX4090\5090,还是算了吧。

rubycon 发表于 2025-1-28 18:01

yzx898 发表于 2025-1-28 16:27
手机安装一个app不是就可以了吗?怎么还搞这么复杂?

这个是本地跑 AI 模型啊。

http88 发表于 2025-1-28 18:27

deepseek-r是最好辅谢谢!
页: [1] 2 3 4 5 6 7 8 9 10
查看完整版本: deepseek-r1安装