油管测评ultra285K+5090显卡剪辑性能对比m3 ultra的mac studio
本帖最后由 liuniansuiyue 于 2025-3-14 12:33 编辑就单纯剪辑性能来说,win下选择5090显卡依然是最优解,适合大多数人,可以干各种日常活!油管链接
https://youtu.be/s6wt83TU_B4
5090显卡貌似挺贵的把 缤纷色彩 发表于 2025-3-14 12:51
5090显卡貌似挺贵的把
国外代购几个w不便宜,不过这玩意也就是段时间短缺而已! m3 ultra 512内存的可以完美跑deepseek满血大模型啊,性价比超过5090了,所以如果说跑大模型这块,还是要看7万的m3 ultra。 还是用studio 部署的方便些。win 还是用起来不舒服 maghaduta 发表于 2025-3-14 16:23
还是用studio 部署的方便些。win 还是用起来不舒服
都是习惯问题,花费多少大洋,能把事情搞定,是首要考虑的{:7_437:} 本帖最后由 liuniansuiyue 于 2025-3-15 09:17 编辑
haoran61 发表于 2025-3-14 15:42
m3 ultra 512内存的可以完美跑deepseek满血大模型啊,性价比超过5090了,所以如果说跑大模型这块,还是要看 ...
如果纯为了跑deepseek的头铁刚需组建本地大模型,买8张4090显卡交火跑满血70b模型加一个amd或者英特尔服务器cpu不比mac studio顶配强多了(也可以买2张3090参考图片组建更便宜的玩法,个人完全够用),另外剪辑和AI打不过就只能搞这说辞了!生产力方面,mac studio都不是最好的选择!另一个参考,mac studio一年销量多少?5090显卡和5090d显卡一年销量多少?消费者的选择是最好的证明!
PS:mac studio除了某站那些up主为了收米拿来测评,估计国内真实买家没多少(远远低于5090d显卡销量,还有纯为了跑大模型的头铁来买mac studio的估计是稀有动物)!
liuniansuiyue 发表于 2025-3-15 08:39
如果纯为了跑deepseek的头铁刚需组建本地大模型,买8张4090显卡交火跑满血70b模型加一个amd或者英特尔服务 ...
成本差别太大了,现在无论4090还是4090d成本太高,能耗也无法同日而语。
4090单张卡的发热量已经惊人,何况是数张并用。看似繁花似锦,实则烈火烹油,想一想矿机一年运行下来的损耗,如果个人或者小团队使用,无论是使用成本还是购买成本都是极高的。
如果mac studio m3 ultra 512g内存这款能稳定训练并使用deepseek满血版本,相信无论稳定性还是使用性都是足够的。
mac的唯一缺点就是卖二手不容易,4090用一段时间在卖也许还能升值。
结论,mac如果真能训练和稳定运行满血大模型,确实是一个好选择,在这一点上绝对比需要几张卡叠加交火靠谱的多。
哪怕它慢那么一些都是值得的。 本帖最后由 liuniansuiyue 于 2025-3-24 16:53 编辑
haoran61 发表于 2025-3-15 10:38
成本差别太大了,现在无论4090还是4090d成本太高,能耗也无法同日而语。
4090单张卡的发热量已经惊人,何 ...
那只是如果,另外我估计没几个人买MAC STUDIO就是为了跑个DEEPSEEK,所以跑DEEPSEEK图个乐呵就行,现在英伟达即将推出专业卡96G显存,我想跑70B满血一张卡足够! 显卡都几万啊 haoran61 发表于 2025-3-15 10:38
成本差别太大了,现在无论4090还是4090d成本太高,能耗也无法同日而语。
4090单张卡的发热量已经惊人,何 ...
如果论一点用没有,因为我会直接如果AMD的显卡能训练与跑大模型。。。没有苹果与nvidia什么事了。 yizhimei 发表于 2025-3-27 13:22
如果论一点用没有,因为我会直接如果AMD的显卡能训练与跑大模型。。。没有苹果与nvidia什么事了。 ...
现在有选择了呀,nv的卡太贵了,所以垄断这个词两百年来都说他的坏处,确实如此。
无论如何苹果这次总算是第二条路,国内国产显卡是第三条路,
听说华为也有专门的ai芯片,希望百花齐放的时候早点到来。 marsher888 发表于 2025-3-26 11:50
显卡都几万啊
显卡几万不算贵,一个mac studio顶配10万多难道便宜? haoran61 发表于 2025-3-14 15:42
m3 ultra 512内存的可以完美跑deepseek满血大模型啊,性价比超过5090了,所以如果说跑大模型这块,还是要看 ...
那可怜的速度真的能用吗? 谢谢楼主分享
dechuan 发表于 2025-4-3 23:09
那可怜的速度真的能用吗?
可怜的速度?你确定看评测了吗?速度很快啊。
比本机跑最小模型速度快多了,小型企业使用绝对没问题的。
关键是满血版本r1。
可惜不知道能不能训练r1模型,让他最终成为自己需要的样子。
liuniansuiyue 发表于 2025-3-15 08:39
如果纯为了跑deepseek的头铁刚需组建本地大模型,买8张4090显卡交火跑满血70b模型加一个amd或者英特尔服务 ...
赞同你的观点,我也是这么想的。 一边是低功耗,集显。跟intel带k外加独显比较。那已经赢了。不是一个概念啊。其实买多路E5就好了。干掉最新的intel i9 haoran61 发表于 2025-4-5 10:48
可怜的速度?你确定看评测了吗?速度很快啊。
比本机跑最小模型速度快多了,小型企业使用绝对没问题的。
...
你看的什么水货评测,这玩意并发就1-2 token,你告诉我怎么用?有这个钱去买点mi50 32g矿渣跑比这玩意强的多吧。
页:
[1]