本地部署deepseek不可能有生产力
老老实实用官网的吧为什么这么说呢? hyhglx 发表于 2025-2-5 11:36
为什么这么说呢?
本机性能有限,无法运行高参数的 AI 大模型,纯属隔靴搔痒了。 本地部署deepseek不可能有生产力{:5_280:}{:5_280:}{:5_280:} 还是用Gemini或ChatGPT舒服。deepseek的答案看起来有点智障 无法回答具有时效性的问题,比如今天几号? 让它总结25年春晚怎么样,它说现在是23年{:5_262:} coolcool2013 发表于 2025-2-5 11:44
还是用Gemini或ChatGPT舒服。deepseek的答案看起来有点智障
你说得对,不知道他究竟怎么火起来的,同样的问题豆包回答更好,至少目前是这样 初入江湖 发表于 2025-2-5 11:48
你说得对,不知道他究竟怎么火起来的,同样的问题豆包回答更好,至少目前是这样 ...
试试kimi!
初入江湖 发表于 2025-2-5 11:48
你说得对,不知道他究竟怎么火起来的,同样的问题豆包回答更好,至少目前是这样 ...
没勾选深度思考?这是最基本的 深入测评,试试就知道了 反正简单的事情 我觉得用DS可以,毕竟可以白x嫖,还不用翻
楼上说的对,白票又不用翻,还要什么自行车 天际云飞 发表于 2025-2-5 11:44
无法回答具有时效性的问题,比如今天几号? 让它总结25年春晚怎么样,它说现在是23年 ...
深度思考和联网搜索都打开。试试看? 本地最多部署个70B 官方是671B没什么可比性
而且大部分本地都是部署14B以内的吧
那就更加不行了… 要看你怎么定义生产力了,普通显卡配置,下载4G的压缩模型本地部署,写个文章编个小程序是可以的,更复杂的工作需要NV50系列显卡(甚至多张)部署400多G的大模型。 天际云飞 发表于 2025-2-5 11:44
无法回答具有时效性的问题,比如今天几号? 让它总结25年春晚怎么样,它说现在是23年 ...
模型数据只在23年9月,联网搜索目前不可用,被老美攻击中,本地模型可结合本地UI的搜索引擎功能可联网 一般玩玩就10多B,官网600多。差距巨大啊。 本地部署需要本地知识库,填补线上免费的知识盲区。 我只用豆包。 我为啥还是很抗拒AI?