Ollama 是一个强大的本地 AI 模型运行工具,默认情况下只允许本地(127.0.0.1)访问。如果需要允许局域网或其他设备访问,可以通过配置 OLLAMA_HOST 环境变量,将监听地址设置为 0.0.0.0。本文将详细介绍如何在不同环境下实现这一配置。
命令行方式直接运行
如果是通过 ollama serve 启动 Ollama,可以在启动时设置 OLLAMA_HOST 环境变量。
Linux/macOS
OLLAMA_HOST=0.0.0.0:11434 ollama serve
Windows
set OLLAMA_HOST=0.0.0.0:11434
ollama serve
或者在 PowerShell 中:
$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve
使用 Systemd 服务
如果 Ollama 是通过 Systemd 运行(常见于 Linux 服务器),则需要修改服务配置文件。
编辑服务文件:
sudo systemctl edit ollama.service
添加或修改 [Service] 部分:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
保存并重新加载服务:
sudo systemctl daemon-reload
sudo systemctl restart ollama
检查服务状态:
sudo systemctl status ollama
使用 Docker
通过 Docker 运行 Ollama 时,需设置环境变量并映射端口。
命令行方式
docker run -d -p 11434:11434 -e OLLAMA_HOST=0.0.0.0:11434 --name ollama ollama/ollama
docker-compose 方式
创建 docker-compose.yml 文件:
version: '3'
services:
ollama:
image: ollama/ollama
ports:
- "11434:11434"
environment:
- OLLAMA_HOST=0.0.0.0:11434
运行:
docker-compose up -d
验证配置
检查监听地址
netstat -tuln | grep 11434
应显示 0.0.0.0:11434 或 :::11434。
从局域网设备测试访问
curl http://<Ollama服务器IP>:11434
成功返回类似 Ollama is running。
