wyangstudio 发表于 2025-2-15 06:57

evinll 发表于 2025-2-14 10:17
https://github.com/likelovewant/ollama-for-amd,这个项目目前魔改了ollama,可以支持5500xt了,win下没问 ...

感谢回复我的是mac版

chyhtz 发表于 2025-2-15 10:54

我用丐版mac mini 4跑的14b,挺好的。{:5_262:}

marka 发表于 2025-2-15 13:07

目前无解,找个ssd装ROCm吧

otsuka88888 发表于 2025-2-15 14:55

evinll 发表于 2025-2-14 10:17
https://github.com/likelovewant/ollama-for-amd,这个项目目前魔改了ollama,可以支持5500xt了,win下没问 ...

不支持RX560

xiaomiao888 发表于 2025-2-16 09:38

zgjailedou 发表于 2025-2-14 09:48


哈哈,这玩艺就在顺嘴胡说。那玩艺的界限就是kV,千伏。也就是电压,与功率毛关系都没有。
其实这也能反映出它一个优点来,的确是在独立思考,但凡上网去搜一下相关信息,统计一下大数据,都会知道100kV以下不需要做环评。
但这优点同时也是缺点,就看从哪方面来看了。独立思考可以降低外界不良信息的影响,降低干扰,但也限制了它的学习途径。AI只有不断的学习训练,才会越来越强大,单纯依靠逻辑推理,正确率不会太高的。

zgjailedou 发表于 2025-2-16 13:12

xiaomiao888 发表于 2025-2-16 09:38
哈哈,这玩艺就在顺嘴胡说。那玩艺的界限就是kV,千伏。也就是电压,与功率毛关系都没有。
其实这也能反 ...

ai目前应该没什么逻辑推理能力吧,纯粹就是在大模型基础下对我们提出的问题在它的知识库里进行题海战术搜索答案,能联网还能查找它的大模型里没有的知识盲区还好,不然就真的乱扯了{:5_264:}

wdbj2001 发表于 2025-2-16 13:56

本地部署太吃电脑性能配置,我都是cherry studio +硅基流动API

带你拿个杯 发表于 2025-2-18 10:24

coolchou 发表于 2025-2-8 10:05
黑苹果跑起来还是很勉强的,换白的试试~~~

我用的白的 也是cpu在跑

wyangstudio 发表于 2025-2-19 07:36

带你拿个杯 发表于 2025-2-18 10:24
我用的白的 也是cpu在跑

ollama的deepseek r1 7b、14b、32b是蒸馏量化版

chivas_lin 发表于 2025-4-5 14:02

√我来学习下

chivas_lin 发表于 2025-4-5 14:06

√我来学习下
页: 1 [2]
查看完整版本: 求助如何让ollama在Intel芯片苹果系统下,让AMD 5500xt显卡运行本地deepseek r1 参与?