ZULGMG 发表于 2025-2-15 23:42

【新手】解决 Ollama 模型占用系统盘空间的方法,Ollama共享GGUF链接

本帖最后由 ZULGMG 于 2025-3-13 14:20 编辑

解决问题的原因、原理、方法:
      1、因为 GGUF 模型下载更快,而且GGUF模型可存放在非系统盘,不占系统盘空间(当然Ollama也可通过以下指令转至其它盘)。
      2、通过 Msty 创建Ollama链接后,让不支持GGUF模型的应用(AnythingLLM、Chatbox AI、Cherry Studio ……)也能通过创建的链接共享使用GGUF模型、解决多种模型格式占用系统盘或其它盘空间的问题、无须下载多种格式模型只需GGUF。
      通过安装指令和修改环境变量可修改安装位置和模型位置,如下方指令可修改Ollama的安装路径和下载模型路径

​                - 改变安装路径及模型路径:
​                - 【改变安装路径】:
​                        - macOS:打开 MDG 后拖放到应该的位置
​                        - Windows:OllamaSetup.exe /DIR="D:\Ollama"
​                        - 【改变模型路径】即修改环境变量:

​                              macOS:
​                                        launchctl setenv OLLAMA_MODELS "/……" 【未试,应该是已加载的盘符/目录之类】
​                              Windows:
​                                        reg add "HKEY_CURRENT_USER\Environment" /v OLLAMA_MODELS /t REG_SZ /d "D:\Ollama\.Ollama\models" /f
​                                        reg add "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Environment" /v OLLAMA_MODELS /t REG_SZ /d "D:\Ollama\.Ollama\models" /f

                              - 注意:修改以上指令时请对应原系统盘的 .Ollama\models 目录


- 可以不变更 .Ollama\models 目录,使用以下两种方法之一创建符号链接后占用空间为 0。



方法一:【懒人及新手使用此方法】使用 Msty.app 导入 GGUF 文件,会自动在以下目录内在产生符号链接
方法二:【建议有动手能力的使用此方法】使用 Ollama 命令导入 GGUF 文件,再对应 blobs 目录内产生的模型文件,用命令创建 .symlink 符号链接

​      【macOS】$HOME/.ollama/models/manifests/registry.ollama.ai/library
​      【macOS】$HOME/.ollama/models/blobs
​      【Windows】%UserProFile%\.ollama\models\manifests\registry.ollama.ai\library
​      【Windows】%UserProFile%\.ollama\models\blobs

使其它加载模型客户端应用也能够共享使用模型。从而解决多种模型格式占用系统盘或其它盘空间的问题、无须下载多种格式模型只需GGUF。

注意:此后不能改变你 GGUF 模型的存放位置,如有改变须重复以下步骤【或者直接使用(方法二)的创建符号链接(未测试)】。
      【或者直接使用(方法二)的创建符号链接(未测试)】
                可通过此文件取得模型的sha256名称:
                .ollama\models\manifests\registry.ollama.ai\library\模型名称\latest



方法一:【懒人及新手使用此方法】使用 Msty.app 导入 GGUF 文件,会自动在以下目录内在产生符号链接:

macOS 系统解决方法:

注意:以下操作前先关闭 Ollama.app
​      Ollama.app 在每次运行前都会自动在模型目录内产生:id_ed25519、id_ed25519.pub、logs目录、models目录

1、运行 Ollama.app
​      终端执行:【方便远程联接】
launchctl setenv OLLAMA_HOST "0.0.0.0:11434"
launchctl setenv OLLAMA_ORIGINS "*"
2、打开 Msty.app
​      Msty.app ---> (左下角)Settings/设置 ---> Local AI/本地AI模型 ---> (右上角)Manage Local AI Models/管理本地模型 ---> Installed Models
​      1)、(右上角)Import GGUF Models.../导入GGUF模型……
​      2)、选择你要导入的模型,模型越大导入时间看你的计算机配置
​      3)、选择【Link/链接】按钮
​      
​      注意:一个一个导入,直至导入的模型导入完成, Installed Models 内可见已导入的模型。

导入完成后,在 $HOME/.ollama/models/manifests/registry.ollama.ai/library 目录下可见已导入的模型名称的文件夹,以及 $HOME/.ollama/models/blobs 内相关模型链接。
此时,关闭 Msty.app 运行其它智能AI客户端应用已可调用此模型。注意:Ollama.app 须运行。
此后在其它智能AI客户端应用中选择模型名称后面会显示:latest



Windows 系统解决方法:

注意:以下操作前先关闭 Ollama.exe
​      Ollama.exe 在每次运行前都会自动在模型目录内产生:id_ed25519、id_ed25519.pub、logs目录、models目录

1、运行 Ollama.exe
​      终端执行:【方便远程联接】
reg add "HKEY_CURRENT_USER\Environment" /v OLLAMA_HOST /t REG_SZ /d "0.0.0.0:11434" /f
reg add "HKEY_CURRENT_USER\Environment" /v OLLAMA_ORIGINS /t REG_SZ /d "*" /f
​      变更 .Ollama 目录位置,为保险用户和系统变量同时添加吧

reg add "HKEY_CURRENT_USER\Environment" /v OLLAMA_HOST /t REG_SZ /d "0.0.0.0:11434" /f
reg add "HKEY_CURRENT_USER\Environment" /v OLLAMA_ORIGINS /t REG_SZ /d "*" /f
:: 变更 .Ollama 目录位置
:: 可以不变更 .Ollama\models 目录,创建符号链接后占用空间为 0。
:: reg add "HKEY_CURRENT_USER\Environment" /v OLLAMA_MODELS /t REG_SZ /d "D:\Ollama\.Ollama\models" /f
:: reg add "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Environment" /v OLLAMA_MODELS /t REG_SZ /d "D:\Ollama\.Ollama\models" /f


2、打开 Msty.exe
​      Msty.exe ---> (左下角)Settings/设置 ---> Local AI/本地AI模型 ---> (右上角)Manage Local AI Models/管理本地模型 ---> Installed Models
​      1)、(右上角)Import GGUF Models.../导入GGUF模型……
​      2)、选择你要导入的模型,模型越大导入时间看你的计算机配置
​      3)、选择【Link/链接】按钮
​      
​      注意:一个一个导入,直至导入的模型导入完成, Installed Models 内可见已导入的模型。

导入完成后,在 %UserProFile%\.ollama\models\manifests\registry.ollama.ai\library 目录下可见已导入的模型名称的文件夹,以及 %UserProFile%\.ollama\models\blobs 内相关模型链接。
此时,关闭 Msty.exe 运行其它智能AI客户端应用已可调用此模型。注意:Ollama.exe 须运行。
此后在其它智能AI客户端应用中选择模型名称后面会显示:latest

方法一到此结束。



方法二:【建议有动手能力的使用此方法】使用 Ollama 命令导入 GGUF 文件,再对应 blobs 目录内产生的模型文件,用命令创建 .symlink 符号链接:

原理、方法:
需要有一定的计算机知识

    1)、通过 Ollama 导入 GGUF 的指令正常导入GGUF为Ollama可用模型
    2)、通过系统指令创建符号链接

1、在 GGUF 模型目录新建文件,名为: Modelfile 或者 Model.txt

2、内容格式:
Modelfile 或者 Model.txt 的内容《代码格式》
格式:FROM
例子:FROM nomic-embed-text-v1.5.gguf
3、命令行定位到你的GGUF模型目录,执行如下格式命令

​      提示:空白处右键,选择 “以管理员身份打开命令提示符”

​      注意:以下指令为 Ollama 导入 GGUF 模型,它会将整个 GGUF 复制为 Ollama 可用格式,也就是说文件同样大小。
​      建议 使用容易识别的简易名称,如 GGUF 名称

      CMD 执行指令
      格式1:ollama create -f Modelfile
      格式2:ollama create -f Model.txt
      例子1:ollama create nomic-embed-text -f Modelfile
      例子2:ollama create nomic-embed-text -f Model.txt

       可任意命名,建议是GGUF名称,它会出现在:.ollama\models\manifests\registry.ollama.ai\library 目录中

4、完成之后,命令行定位你的模型存储目录:
​      主要任务是复制新产生的模型 “sha256-………………” 的文件名称
​      例如   macOS :$HOME/.ollama/models/blobs
​      例如   Windows :%UserProFile%\.ollama\models\blobs

​      1)、可看到以上的 blobs 目录内已生成很多个 “sha256-………………” 的文件;
​                        找刚导入的(可查属性时间、大小);
​                        按正常文件容量最大的就是了,正常与GGUF同样大小。
​      2)、复制它的名称,准备创建以它为名称的符号链接
​      3)、删除它

​      如果,你忘记了它的名称,按上面执行的指令 nomic-embed-text -f Modelfile] 可在:
​      .ollama\models\manifests\registry.ollama.ai\library\nomic-embed-text\latest 文件内找到它
​      正常应该是 latest 文件内的第二个 "digest"::
      ,from":"D:\\.Ollama\\models\\blobs\\sha256-f7af6f66802f4df86eda10fe9bbcfc75c39562bed48ef6ace719a251cf1c2fdb"

5、使用符号链接指令创建 .symlink 文件:

                注意:以下指令可在任何位置执行,所产生的 “sha256-………………” 文件复制到:
​                复制到   macOS :$HOME/.ollama/models/blobs
​                复制到   Windows :%UserProFile%\.ollama\models\blobs

​       提示:点击GGUF文件右键,选择 “复制路径” 可复制GGUF的路径及名称

Windows PowerShell 指令参考:
格式:New-Item -ItemType SymbolicLink -Path "Link" -Target "Target"
格式:New-Item -ItemType SymbolicLink -Path "目标文件" -Target "源文件"
例子:
New-Item -ItemType SymbolicLink -Path "sha256-970aa74c0a90ef7482477cf803618e776e173c007bf957f635f1015bfcfef0e6" -Target "D:\.ollama\models\nomic-embed-text\nomic-embed-text-v1.5.gguf"
Windows CMD指令参考:
格式:mklink Link Target
格式:mklink 目标文件 源文件
格式:mklink 指定要创建的符号链接的名称 指定要链接到的目标文件或目录
例子:
mklink "sha256-970aa74c0a90ef7482477cf803618e776e173c007bf957f635f1015bfcfef0e6" "D:\.ollama\models\nomic-embed-text\nomic-embed-text-v1.5.gguf"

macOS 或 Linux 终端执行:
指令参考:
格式:ln -s source_file target_file
格式:ln -s 源文件 目标文件
开头可以使用 sudo 提升权限
-f 强制替换存在的 target_file 文件
例子:
sudo ln -s -f .ollama/models/nomic-embed-text/nomic-embed-text-v1.5.gguf sha256-970aa74c0a90ef7482477cf803618e776e173c007bf957f635f1015bfcfef0e6

macOS 工具 SymbolicLinker
下载地址:https://github.com/nickzman/symboliclinker/releases
下载完成后打开,它被安装到左键菜单的【服务】菜单中---> Make Symbolic Link
使用方法:右键点击你的 GGUF 文件,选择【服务】菜单---> Make Symbolic Link




方法二到此结束。



关于 LM Studio:
1、【关于使用 LM Studio 下载模型】:

      注意:每次更新都需要修改
      这里提示,建议通过 LM Studio 下载 GGUF 很快。

​                修改配置文件让 LM Studio 支持下载国内大模型
​                原因:LM Studio 使用的是 (huggingface.co) 下载大模型,而 (huggingface.co) 在国内是访问不了的
​                解决方案:将 LM Studio 相关文件中的 (huggingface.co) 网址替换为:HF国内镜像网站:(https://hf-mirror.com)

​                需要修改两个文件,LM Studio 安装目录下的:
​                        \resources\app\.webpack\main\index.js
​                        \resources\app\.webpack\renderer\main_window.js

​                1、注意:先创建备份文件,如:
​                        \resources\app\.webpack\main\index - Back.js
​                        \resources\app\.webpack\renderer\main_window - Back.js

​                2、打开这两个文件,搜索并替换:
​                        搜索:huggingface.co
​                        替换:hf-mirror.com
      结束,打开 LM Studio 可见效果


2、【如果需要变更 LM Studio 用户配置目录 .lmstudio 路径】:
      目前的 0.3.10 版,用户配置目录 .lmstudio 路径:
                默认:%UserProFile%\.lmstudio
      目前的 0.3.10 版,用户配置目录 .lmstudio 的路径定位配置文件:
                %UserProFile%\.lmstudio-home-pointer


:: 本指令保存为 .bat 或 .cmd ,此文件保存位置即变更的 .lmstudio 目录位置
:: 如果 .bat 或 .cmd 所在位置不存在 .lmstudio 则创建.lmstudio文件夹
if not exist "%~dp0.lmstudio" md "%~dp0.lmstudio"
:: 删除旧的配置文件
del "%UserProFile%\.lmstudio-home-pointer" /f /q >nul 2>nul
:: 注意:变更到的路径中最好不要包括空格、特殊符号、中文目录
:: 注意:下方的 %~dp0 表示将当前.bat或.cmd所在位置写入配置文件,表示变更.lmstudio目录到此
:: 指令:将当前运行 .bat 或 .cmd 所在位置写入 "%UserProFile%\.lmstudio-home-pointer" LM Studio用户路径配置文件
>"%UserProFile%\.lmstudio-home-pointer" echo.%~dp0.lmstudio & exit

方法二:【建议有动手能力的使用此方法】   附件:



通过网盘分享的文件:导入GGUF模型 - 并创建符号链接工具.7z
链接: https://pan.baidu.com/s/1YFHRcHu0n2e29Do01ZCAyw?pwd=GGUF 提取码: GGUF




ZULGMG 发表于 2025-2-15 23:55

本帖最后由 ZULGMG 于 2025-2-22 08:57 编辑

模型下载:

Ollama模型下载地址:
      https://ollama.com/
      https://ollama.org.cn/

GGUF 镜像站点:
      https://hf-mirror.com/models
      https://modelscope.cn/models
      https://huggingface.co 【需要梯子】

客户端下载:


AnythingLLM 客户端:
      https://anythingllm.com/desktop
      https://github.com/Mintplex-Labs/anything-llm/releases

Chatbox AI 客户端:
      https://chatboxai.app/zh   【或拉到网页最下方】
      https://chatboxai.app/en#download
      https://github.com/Bin-Huang/chatbox

Cherry Studio 客户端:
      官方网站:https://cherry-ai.com/
      https://cherry-ai.com/download
      https://github.com/CherryHQ/cherry-studio/releases

豆包(Doubao):
      https://www.doubao.com/chat/

Kimi 客户端:
      官方API接口:
      https://github.com/bestZwei/kimi-api
      注意:不要从官方API接口下载,Windows 为x86版【兼容版】,macOS 为 M 芯片版本。
      桌面版:
      https://github.com/kimi-moonshot/kimi-moonshot
      https://github.com/kimi-moonshot/kimi-moonshot/releases
      绿色【工具栏】版本:
      https://github.com/hocgin/kimi-app/releases

LM Studio 客户端:
      中文站:https://lm-studio.cn/
      英文站:https://lmstudio.ai/

Msty 客户端:
      https://msty.app/

Page Assist 客户端:【浏览器扩展】
      https://github.com/n4ze3m/page-assist

python:【注意:服务器按名称排序,可能最新版本会显示在中间的位置】
      https://www.python.org/ftp/python/

docker:
      https://docker.p2hp.com/
      https://docs.docker.com/get-started/get-docker/





来自官网的社区集成

网络与桌面端
--- (https://github.com/open-webui/open-webui)
--- (https://github.com/AugustDev/enchanted)
--- (https://github.com/fmaclen/hollama)
--- (https://github.com/ParisNeo/lollms-webui)
--- (https://github.com/danny-avila/LibreChat)
--- (https://github.com/bionic-gpt/bionic-gpt)
--- (https://github.com/rtcfirefly/ollama-ui)
--- (https://github.com/jikkuatwork/saddle)
--- (https://github.com/ivanfioravanti/chatbot-ollama)
--- (https://github.com/mckaywrigley/chatbot-ui)
--- (https://github.com/ollama-interface/Ollama-Gui?tab=readme-ov-file)
--- [适用于Ollama模型的简约React UI](https://github.com/richawo/minimal-llm-ui)
--- (https://github.com/kevinhermawan/Ollamac)
--- (https://github.com/enricoros/big-AGI/blob/main/docs/config-local-ollama.md)
--- (https://github.com/cheshire-cat-ai/core)
--- (https://github.com/semperai/amica)
--- (https://github.com/BruceMacD/chatd)
--- (https://github.com/kghandour/Ollama-SwiftUI)
--- (https://github.com/langgenius/dify)
--- (https://mindmac.app)
--- [适用于Ollama的NextJS网络界面](https://github.com/jakobhoeg/nextjs-ollama-llm-ui)
--- (https://msty.app)
--- (https://github.com/Bin-Huang/Chatbox)
--- (https://github.com/tgraupmann/WinForm_Ollama_Copilot)
--- (https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web) 及 [入门文档](https://docs.nextchat.dev/models/ollama)
--- (https://github.com/mmo80/alpaca-webui)
--- (https://github.com/enoch1118/ollamaGUI)
--- (https://github.com/InternLM/OpenAOE)
--- (https://github.com/leonid20000/OdinRunes)
--- (https://github.com/mrdjohnson/llm-x)(渐进式网络应用)
--- (https://github.com/Mintplex-Labs/anything-llm)
--- (https://github.com/rapidarchitect/ollama_basic_chat)
--- (https://github.com/drazdra/ollama-chats)
--- (https://intellibar.app/)(适用于macOS的人工智能辅助工具)
--- (https://github.com/reid41/QA-Pilot)(交互式聊天工具,可利用Ollama模型快速理解和浏览GitHub代码库)
--- (https://github.com/sugarforever/chat-ollama)(基于Ollama和知识库的开源聊天机器人)
--- (https://github.com/Nagi-ovo/CRAG-Ollama-Chat)(带有校正检索增强生成(RAG)的简单网络搜索)
--- (https://github.com/infiniflow/ragflow)(基于深度文档理解的开源检索增强生成引擎)
--- (https://github.com/StreamDeploy-DevRel/streamdeploy-llm-app-scaffold)(大语言模型应用框架)
--- (https://github.com/swuecho/chat)(团队聊天网络应用)
--- (https://github.com/lobehub/lobe-chat) 及 [集成文档](https://lobehub.com/docs/self-hosting/examples/ollama)
--- (https://github.com/datvodinh/rag-chatbot.git)(使用Ollama和RAG技术实现的本地多PDF文件聊天)
--- (https://www.nurgo-software.com/products/brainsoup)(具有RAG和多智能体自动化功能的灵活原生客户端)
--- (https://github.com/Renset/macai)(适用于Ollama、ChatGPT和其他兼容API后端的macOS客户端)
--- (https://github.com/josStorer/RWKV-Runner)(RWKV离线大语言模型部署工具,也可用作ChatGPT和Ollama的客户端)
--- (https://github.com/dezoito/ollama-grid-search)(用于评估和比较模型的应用程序)
--- (https://github.com/Otacon/olpaka)(适用于Ollama的用户友好型Flutter网络应用)
--- (https://github.com/CrazyNeil/OllamaSpring)(适用于macOS的Ollama客户端)
--- (https://github.com/kartikm7/llocal)(易于使用的适用于Ollama的Electron桌面客户端)
--- (https://github.com/dcSpark/shinkai-apps)(一键安装基于Ollama、文件和RAG的本地人工智能应用)
--- (https://github.com/zeyoyt/ailama)(一款Discord用户应用,可让你在Discord的任何地方与Ollama进行交互)
--- (https://github.com/rapidarchitect/ollama_mesop/)(基于Google Mesop的Ollama聊天客户端实现)
--- (https://github.com/SciPhi-AI/R2R)(开源RAG引擎)
--- (https://github.com/elearningshow/ollama-kis)(一款简单易用的图形用户界面,带有用于驾驶教育的示例定制大语言模型)
--- (https://opengpa.org)(开源的离线优先企业智能应用)
--- (https://github.com/mateuszmigas/painting-droid)(集成人工智能的绘画应用)
--- (https://www.kerlig.com/)(适用于macOS的人工智能写作辅助工具)
--- (https://github.com/MindWorkAI/AI-Studio)
--- (https://github.com/gyopak/sidellama)(基于浏览器的大语言模型客户端)
--- (https://github.com/trypromptly/LLMStack)(用于构建大语言模型智能体和工作流程的无代码多智能体框架)
--- (https://boltai.com)(适用于Mac的人工智能聊天客户端)
--- (https://github.com/av/harbor)(以Ollama为默认后端的容器化大语言模型工具包)
--- (https://github.com/szczyglis-dev/py-gpt)(适用于Linux、Windows和Mac的人工智能桌面辅助工具)
--- (https://github.com/Jeffser/Alpaca)(一款使用GTK4和Adwaita为Linux和macOS打造的Ollama客户端应用程序)
--- (https://github.com/Significant-Gravitas/AutoGPT/blob/master/docs/content/platform/ollama.md)(AutoGPT与Ollama的集成)
--- (https://www.jonathanhecl.com/go-crew/)(用Golang编写的强大离线RAG工具)
--- (https://github.com/openvmp/partcad/)(使用OpenSCAD和CadQuery生成CAD模型)
--- (https://github.com/ollama4j/ollama4j-web-ui) --- 基于Java的Ollama网络界面,由Vaadin、Spring Boot和Ollama4j构建
--- (https://github.com/kspviswa/pyOllaMx) --- 一款适用于macOS的应用程序,能够与Ollama和Apple MLX模型进行聊天
--- (https://github.com/saoudrizwan/claude-dev) --- 用于多文件/全仓库编码的VSCode扩展
--- (https://github.com/kangfenmao/cherry-studio)(支持Ollama的桌面客户端)
--- (https://github.com/1runeberg/confichat)(轻量级、独立、多平台且注重隐私的大语言模型聊天界面,支持可选加密功能)
--- (https://github.com/nickthecook/archyve)(支持RAG的文档库)
--- (https://github.com/rapidarchitect/ollama-crew-mesop)(使用Mesop网络界面运行带有Ollama的crewAI)
--- [基于Tkinter的客户端](https://github.com/chyok/ollama-gui)(基于Python Tkinter的Ollama客户端)
--- (https://github.com/trendy-design/llmchat)(注重隐私、完全本地化、直观的一体化聊天界面)
--- (https://github.com/Leon-Sander/Local-Multimodal-AI-Chat)(基于Ollama的大语言模型聊天应用,支持多种功能,包括PDF RAG、语音聊天、基于图像的交互以及与OpenAI的集成)
--- (https://github.com/xark-argo/argo)(在Mac/Windows/Linux上本地下载并运行Ollama和Huggingface模型,并支持RAG)
--- (https://github.com/EliasPereirah/OrionChat) --- OrionChat是一个用于与不同人工智能供应商进行聊天的网络界面
--- (https://github.com/bklieger-groq/g1)(通过类似o1的推理链使用提示策略来提高大语言模型推理能力的原型)
--- (https://github.com/lemonit-eric-mao/ollama-web-management)(网络管理页面)
--- (https://github.com/promptery/promptery)(Ollama的桌面客户端)
--- (https://github.com/JHubi1/ollama-app)(现代且易于使用的多平台Ollama客户端)
--- (https://github.com/annilq/chat-ollama)(一个基于React Native的Ollama客户端)
--- (https://github.com/tcsenpai/spacellama)(Firefox和Chrome浏览器扩展,可在侧边栏中使用Ollama快速总结网页内容)
--- (https://github.com/tcsenpai/youlama)(用于快速总结任何YouTube视频的网络应用,也支持Invidious)
--- (https://github.com/tcsenpai/dualmind)(一款实验性应用,允许两个模型在终端或网络界面中相互对话)
--- (https://github.com/h1ddenpr0cess20/ollamarama-matrix)(适用于Matrix聊天协议的Ollama聊天机器人)
--- (https://github.com/anan1213095357/ollama-chat-app)(基于Flutter的聊天应用)
--- (https://www.perfectmemory.ai/)(生产力人工智能,根据你在屏幕上看到的内容、会议中听到和说过的话进行个性化辅助)
--- (https://github.com/hexastack/hexabot)(一款对话式人工智能构建器)
--- (https://github.com/rapidarchitect/reddit_analyzer)(通过加权求和搜索和评价Reddit主题)
--- (https://github.com/adarshM84/OpenTalkGpt)(Chrome扩展,用于管理Ollama支持的开源模型、创建自定义模型,并通过用户友好的界面与模型进行聊天)
--- (https://github.com/vinhnx/vt.ai)(一款极简的多模态人工智能聊天应用,具有动态对话路由功能。通过Ollama支持本地模型)
--- (https://github.com/nosia-ai/nosia)(基于Ollama的易于安装和使用的RAG平台)
--- (https://github.com/nbonamy/witsy)(一款适用于Mac/Windows/Linux的人工智能桌面应用程序)
--- (https://github.com/US-Artificial-Intelligence/abbey)(一个可配置的人工智能接口服务器,支持笔记本、文档存储和YouTube)
--- (https://github.com/dmayboroda/minima)(具有本地部署或完全本地化工作流程的RAG)
--- (https://github.com/AidfulAI/aidful-ollama-model-delete)(用于简化模型清理的用户界面)
--- (https://github.com/ItzCrazyKns/Perplexica)(一款人工智能驱动的搜索引擎,也是Perplexity AI的开源替代品)
--- [适用于Docker的Ollama Chat WebUI](https://github.com/oslook/ollama-webui)(支持本地Docker部署,轻量级的Ollama网络界面)
--- [适用于Visual Studio Code的人工智能工具包](https://aka.ms/ai-tooklit/ollama-docs)(微软官方的VSCode扩展,可用于聊天、测试、评估模型,并在你的人工智能应用程序中使用Ollama支持)
--- (https://github.com/anilkay/MinimalNextOllamaChat)(用于聊天和模型控制的极简网络界面)
--- (https://github.com/TilmanGriesel/chipper) 面向 tinkerer 的人工智能接口(支持Ollama、Haystack RAG、Python)
--- (https://github.com/CosmicEventHorizon/ChibiChat)(基于Kotlin的Android应用,可与Ollama和Koboldcpp API端点进行聊天)
--- (https://github.com/qusaismael/localllm)(通过图形用户界面在其上运行Ollama模型的极简网络应用程序)
--- (https://github.com/buiducnhat/ollamazing)(用于运行Ollama模型的网络扩展)

云端
--- [谷歌云](https://cloud.google.com/run/docs/tutorials/gpu-gemma2-with-ollama)
--- (https://fly.io/docs/python/do-more/add-ollama/)
--- (https://www.koyeb.com/deploy/ollama)

终端
--- (https://github.com/ggozad/oterm)
--- (https://github.com/s-kostyaev/ellama)
--- (https://github.com/zweifisch/ollama)
--- (https://github.com/paradoxical-dev/neollama) 用于在Neovim中与模型交互的用户界面客户端
--- (https://github.com/David-Kunz/gen.nvim)
--- (https://github.com/nomnivore/ollama.nvim)
--- (https://github.com/marco-souza/ollero.nvim)
--- (https://github.com/gerazov/ollama-chat.nvim)
--- (https://github.com/huynle/ogpt.nvim)
--- (https://github.com/karthink/gptel)
--- (https://github.com/dustinblackman/oatmeal)
--- (https://github.com/pgibler/cmdh)
--- (https://github.com/npahlfer/ooo)
--- (https://github.com/reid41/shell-pilot)(通过在Linux或macOS上的纯Shell脚本与模型进行交互)
--- (https://github.com/pythops/tenere)
--- (https://github.com/taketwo/llm-ollama) 用于 (https://llm.datasette.io/en/stable/)
--- (https://github.com/anaisbetts/typechat-cli)
--- (https://github.com/djcopley/ShellOracle)
--- (https://github.com/yusufcanb/tlm)
--- (https://github.com/ericcurtin/podman-ollama)
--- (https://github.com/sammcj/gollama)
--- (https://github.com/paulrobello/parllama)
--- (https://github.com/cognitivetech/ollama-ebook-summary/)
--- (https://github.com/rapidarchitect/ollama_moe)
--- (https://github.com/pepo-ec/vim-intelligence-bridge) “Ollama” 与Vim编辑器的简单交互
--- (https://x-cmd.com/mod/ollama)
--- (https://github.com/drunkwcodes/bb7)
--- (https://github.com/marcusziade/Swollama) 与Swollama Swift软件包捆绑在一起。[演示](https://github.com/marcusziade/Swollama?tab=readme-ov-file#cli-usage)
--- (https://github.com/sigoden/aichat) 一体化大语言模型命令行界面工具,具备Shell助手、聊天交互式解释器、检索增强生成(RAG)、人工智能工具及智能体功能,可接入OpenAI、Claude、Gemini、Ollama、Groq等模型。
--- (https://github.com/rrg92/powershai) 为Windows终端带来人工智能功能的PowerShell模块,支持Ollama。
--- (https://github.com/xyproto/orbiton) 无需配置的文本编辑器和集成开发环境,支持使用Ollama进行自动补全。

苹果Vision Pro
--- (https://github.com/AugustDev/enchanted)

数据库
--- (https://github.com/timescale/pgai) --- 作为向量数据库的PostgreSQL(使用pgvector从Ollama模型创建和搜索嵌入)
    --- [入门指南](https://github.com/timescale/pgai/blob/main/docs/vectorizer-quick-start.md)
--- (https://github.com/mindsdb/mindsdb/blob/staging/mindsdb/integrations/handlers/ollama_handler/README.md) (将Ollama模型与近200个数据平台和应用程序连接起来)
--- (https://github.com/philippgille/chromem-go/blob/v0.5.0/embed_ollama.go) 及 [示例](https://github.com/philippgille/chromem-go/tree/v0.5.0/examples/rag-wikipedia-ollama)
--- (https://github.com/dbkangaroo/kangaroo) (面向流行数据库的人工智能驱动的SQL客户端和管理工具)

包管理器
--- (https://archlinux.org/packages/extra/x86_64/ollama/)
--- (https://github.com/gentoo/guru/tree/master/app-misc/ollama)
--- (https://formulae.brew.sh/formula/ollama)
--- (https://artifacthub.io/packages/helm/ollama-helm/ollama)
--- (https://codeberg.org/tusharhero/ollama-guix)
--- (https://search.nixos.org/packages?show=ollama&from=0&size=50&sort=relevance&type=packages&query=ollama)
--- (https://flox.dev/blog/ollama-part-one)


--- (https://python.langchain.com/docs/integrations/llms/ollama) 和 (https://js.langchain.com/docs/integrations/chat/ollama/) 及 [示例](https://js.langchain.com/docs/tutorials/local_rag/)
--- (https://firebase.google.com/docs/genkit/plugins/ollama)
--- (https://github.com/crewAIInc/crewAI)
--- (https://remembersoftwares.github.io/yacana/) (用户友好的多智能体框架,用于头脑风暴和执行预定流程,内置工具集成)
--- (https://github.com/spring-projects/spring-ai) 及 [参考文档](https://docs.spring.io/spring-ai/reference/api/chat/ollama-chat.html) 和 [示例](https://github.com/tzolov/ollama-tools)
--- (https://github.com/tmc/langchaingo/) 及 [示例](https://github.com/tmc/langchaingo/tree/main/examples/ollama-completion-example)
--- (https://github.com/langchain4j/langchain4j) 及 [示例](https://github.com/langchain4j/langchain4j-examples/tree/main/ollama-examples/src/main/java)
--- (https://github.com/Abraxas-365/langchain-rust) 及 [示例](https://github.com/Abraxas-365/langchain-rust/blob/main/examples/llm_ollama.rs)
--- (https://github.com/tryAGI/LangChain) 及 [示例](https://github.com/tryAGI/LangChain/blob/main/examples/LangChain.Samples.OpenAI/Program.cs)
--- (https://github.com/theodo-group/LLPhant?tab=readme-ov-file#ollama)
--- (https://docs.llamaindex.ai/en/stable/examples/llm/ollama/) 和 (https://ts.llamaindex.ai/modules/llms/available_llms/ollama)
--- (https://github.com/BerriAI/litellm)
--- (https://github.com/presbrey/ollamafarm)
--- (https://github.com/awaescher/OllamaSharp)
--- (https://github.com/gbaptista/ollama-ai)
--- (https://github.com/pepperoni21/ollama-rs)
--- (https://github.com/jmont-dev/ollama-hpp)
--- (https://github.com/ollama4j/ollama4j)
--- (https://modelfusion.dev/integration/model-provider/ollama)
--- (https://github.com/kevinhermawan/OllamaKit)
--- (https://github.com/breitburg/dart-ollama)
--- (https://github.com/cloudstudio/ollama-laravel)
--- (https://github.com/davidmigloz/langchain_dart)
--- [语义内核 --- Python](https://github.com/microsoft/semantic-kernel/tree/main/python/semantic_kernel/connectors/ai/ollama)
--- (https://github.com/deepset-ai/haystack-integrations/blob/main/integrations/ollama.md)
--- (https://github.com/brainlid/langchain)
--- (https://github.com/JBGruber/rollama)
--- (https://github.com/hauselin/ollama-r)
--- (https://github.com/lebrunel/ollama-ex)
--- (https://github.com/b-tocs/abap_btocs_ollama)
--- (https://testcontainers.com/modules/ollama/)
--- (https://portkey.ai/docs/welcome/integration-guides/ollama)
--- (https://github.com/svilupp/PromptingTools.jl) 及 [示例](https://svilupp.github.io/PromptingTools.jl/dev/examples/working_with_ollama)
--- (https://github.com/Project-Llama/llamascript)
--- (https://github.com/emirsahin1/llm-axe) (用于构建大语言模型驱动应用程序的Python工具包)
--- (https://docs.gollm.co/examples/ollama-example)
--- (https://github.com/jonathanhecl/gollama)
--- (https://github.com/xyproto/ollamaclient)
--- (https://gitlab.com/tozd/go/fun)
--- (https://github.com/ArdaGnsrn/ollama-php)
--- (https://github.com/agents-flex/agents-flex) 及 [示例](https://github.com/agents-flex/agents-flex/tree/main/agents-flex-llm/agents-flex-llm-ollama/src/test/java/com/agentsflex/llm/ollama)
--- (https://github.com/parakeet-nest/parakeet) 是一个Go语言库,旨在简化使用Ollama开发小型生成式人工智能应用程序的过程。
--- (https://github.com/andygill/haverscript) 及 [示例](https://github.com/andygill/haverscript/tree/main/examples)
--- (https://github.com/mattt/ollama-swift)
--- (https://github.com/marcusziade/Swollama) 及 [文档](https://marcusziade.github.io/Swollama/documentation/swollama/)
--- (https://github.com/prasad89/golamify)
--- (https://github.com/tusharad/ollama-haskell)
--- (https://github.com/nbonamy/multi-llm-ts) (一个TypeScript/JavaScript库,允许通过统一的API访问不同的大语言模型)
--- (https://github.com/lofcz/llmtornado) (C#库,为主要的开源及商业推理API提供统一接口)
--- (https://github.com/dravenk/ollama-zig)
--- (https://github.com/lunary-ai/abso) (适用于任何大语言模型提供商的与OpenAI兼容的TypeScript软件开发工具包)

移动应用
--- (https://github.com/AugustDev/enchanted)
--- (https://github.com/Mobile-Artificial-Intelligence/maid)
--- (https://github.com/JHubi1/ollama-app) (适用于Ollama的现代且易用的多平台客户端)
--- (https://github.com/1runeberg/confichat) (轻量级、独立、多平台且注重隐私的大语言模型聊天界面,支持可选加密功能)

扩展和插件
--- (https://github.com/MassimilianoPasquini97/raycast_ollama)
--- (https://github.com/mxyng/discollama) (Ollama Discord频道内的Discord机器人)
--- (https://github.com/continuedev/continue)
--- (https://github.com/thewh1teagle/vibe) (使用Ollama转录和分析会议内容)
--- (https://github.com/hinterdupfinger/obsidian-ollama)
--- (https://github.com/omagdy7/ollama-logseq)
--- (https://github.com/andersrex/notesollama) (苹果笔记的Ollama插件)
--- (https://github.com/samalba/dagger-chatbot)
--- (https://github.com/mekb-turtle/discord-ai-bot)
--- (https://github.com/ruecat/ollama-telegram)
--- (https://github.com/ej52/hass-ollama-conversation)
--- (https://github.com/abrenneke/rivet-plugin-ollama)
--- (https://github.com/longy2k/obsidian-bmo-chatbot)
--- (https://github.com/herval/cliobot) (支持Ollama的Telegram机器人)
--- (https://github.com/logancyang/obsidian-copilot)
--- (https://github.com/pfrankov/obsidian-local-gpt)
--- (https://docs.openinterpreter.com/language-model-setup/local-models/ollama)
--- (https://github.com/ex3ndr/llama-coder) (使用Ollama的Copilot替代品)
--- (https://github.com/bernardo-bruning/ollama-copilot) (允许将Ollama用作类似Github Copilot的代理)
--- (https://github.com/rjmacarthy/twinny) (使用Ollama的Copilot和Copilot聊天替代品)
--- (https://github.com/RussellCanfield/wingman-ai) (使用Ollama和Hugging Face的Copilot代码和聊天替代品)
--- (https://github.com/n4ze3m/page-assist) (Chrome扩展)
--- (https://github.com/imoize/plasmoid-ollamacontrol) (KDE Plasma扩展,可让您快速管理/控制Ollama模型)
--- (https://github.com/tusharhero/aitelegrambot) (后端使用Ollama的Telegram机器人)
--- (https://github.com/yaroslavyaroslav/OpenAI-sublime-text) (支持Ollama的Sublime Text 4人工智能助手插件)
--- (https://github.com/kevinthedang/discord-ollama) (带有调优文档的通用TypeScript Discord机器人)
--- (https://github.com/josStorer/chatGPTBox) 及 [集成教程](https://github.com/josStorer/chatGPTBox/issues/616#issuecomment-1975186467)
--- (https://github.com/rapmd73/Companion) 用Python编写的聊天/审核机器人。使用Ollama创建个性化功能。
--- (https://github.com/nischalj10/headless-ollama) (用于在任何操作系统上自动安装Ollama客户端和模型的脚本,适用于依赖Ollama服务器的应用程序)
--- (https://github.com/xuyangbocn/terraform-aws-self-host-llm) (一个Terraform模块,用于在AWS上部署即用型Ollama服务及其前端Open WebUI服务。)
--- (https://github.com/jakubburkiewicz/node-red-contrib-ollama)
--- (https://github.com/ivostoykov/localAI) (Chrome和Firefox扩展,支持与活动标签页交互以及自定义API端点。包括用于存储用户提示的安全存储功能。)
--- (https://github.com/jake83741/vnc-lm) (通过Ollama和LiteLLM与大语言模型进行消息交互的Discord机器人。可在本地模型和旗舰模型之间无缝切换。)
--- (https://github.com/SilasMarvin/lsp-ai) (用于人工智能功能的开源语言服务器)
--- (https://github.com/Palm1r/QodeAssist) (用于Qt Creator的人工智能驱动的编码辅助插件)
--- (https://github.com/ECuiDev/obsidian-quiz-generator)
--- (https://github.com/philffm/ai-summary-helper)
--- (https://github.com/suncloudsmoon/TextCraft) (使用Ollama的Word版Copilot替代品)
--- (https://github.com/zeitlings/alfred-ollama) (Alfred工作流)
--- (https://github.com/adarshM84/TextLLaMA) 一款Chrome扩展,可帮助撰写电子邮件、纠正语法并翻译成任何语言
--- (https://github.com/zyphixor/simple-discord-ai)

支持的后端
--- (https://github.com/ggerganov/llama.cpp) 由Georgi Gerganov创建的项目。

可观测性
--- (https://lunary.ai/docs/integrations/ollama)是领先的开源大语言模型可观测性平台。它提供多种企业级功能,如实时分析、提示模板管理、个人身份信息掩码处理,以及全面的代理追踪。
--- (https://github.com/openlit/openlit)是一个基于OpenTelemetry的工具,用于通过追踪和指标监测Ollama应用程序和GPU。
--- (https://docs.honeyhive.ai/integrations/ollama)是一个用于人工智能代理的可观测性和评估平台。使用HoneyHive可以评估代理性能、排查故障,并在生产环境中监测质量。
--- (https://langfuse.com/docs/integrations/ollama)是一个开源的大语言模型可观测性平台,它能让团队协作监测、评估和调试人工智能应用程序。
--- (https://mlflow.org/docs/latest/llms/tracing/index.html#automatic-tracing)是一个开源的大语言模型可观测性工具,它拥有便捷的API,可用于记录和可视化追踪信息,使得调试和评估生成式人工智能应用程序变得更加容易。

ZULGMG 发表于 2025-2-16 00:28

{:9_348:} 肤浅了,找到其它运行方法,正在试

Uu21376 发表于 2025-2-16 08:59

那期待下新方法

h1032141521 发表于 2025-2-16 09:25

谢谢楼主提供!!!!

sqsw 发表于 2025-2-16 09:35

建一个环境变量,变量名OLLAMA_MODELS,变量值为你想放模型的目录,比如:E:\Ollama\models

binger04 发表于 2025-2-16 09:57

谢谢楼主好方法的分享 谢谢

xchfan 发表于 2025-2-16 10:07

6楼说的没错,我就是在C盘以外安装模型的。

改Ollama存储路径
右键点击开始菜单 → 系统 → 高级系统设置 → 环境变量
在「系统变量」中新建:
变量名:OLLAMA_MODELS
变量值:E:\Ollama\models(自定义E盘存储路径,也可以其它盘)
保存后重启计算机使配置生效

KainLin 发表于 2025-2-16 10:25

不是只要系统环境配置里把ollama模型文件夹定位到其它盘再导入模型就可以了吗?

枫舞水月 发表于 2025-2-16 11:00

sqsw 发表于 2025-2-16 09:35
建一个环境变量,变量名OLLAMA_MODELS,变量值为你想放模型的目录,比如:E:\Ollama\models ...

这个是正解,相当OK的

Mathis0617 发表于 2025-2-16 11:03

谢谢分享。

vista@xp 发表于 2025-2-16 11:22

谢谢分享。

ZULGMG 发表于 2025-2-16 12:12

楼上正解,改个环境变量就行{:5_264:}

~星星~ 发表于 2025-2-16 12:15


感谢分享!!!

towljz800801 发表于 2025-2-16 12:32

感恩分享

rosesilencen 发表于 2025-2-16 15:12

本帖最后由 rosesilencen 于 2025-2-16 15:15 编辑

感恩分享,我用LM Studio进行了部署,

lovesdeeply 发表于 2025-2-18 09:23

玩Ollama正为模型占系统盘空间头疼呢,这分享太及时!感谢大佬,解决方法和共享链接超实用,马上去试试。 {:5_293:}

ZULGMG 发表于 2025-2-19 09:12

已更新,在此请教路过的大老,LM Studio 怎么修改 .lmstudio 目录到其它分区,谢谢!{:5_293:}

LKY9999 发表于 2025-2-19 09:51

收藏备用

浪情人 发表于 2025-2-19 16:42

收藏备用
页: [1] 2
查看完整版本: 【新手】解决 Ollama 模型占用系统盘空间的方法,Ollama共享GGUF链接