ollama 本地大模型
ollama 本地大模型 修改 ollama serve host端口 Open-WebUI 外部连接配置 DeepSeek 参考:OpenAI compatibility设置ollama监听在0.0.0.0 Ollama+GGUF离线加载本地模型
ollama 本地大模型
修改 ollama serve host端口
# 编辑 ollama.service
sudo vim /etc/systemd/system/ollama.service
# 并添加一行 Environment="OLLAMA_HOST=0.0.0.0:11434"
# 重启 ollama service
sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo lsof -i:11434
Open-WebUI 外部连接配置 DeepSeek

参考:
OpenAI compatibility
设置ollama监听在0.0.0.0
Ollama+GGUF离线加载本地模型