如何访问非本机ollama

Ollama 是一个强大的本地 AI 模型运行工具,默认情况下只允许本地(127.0.0.1)访问。如果需要允许局域网或其他设备访问,可以通过配置 OLLAMA_HOST 环境变量,将监听地址设置为 0.0.0.0。本文将详细介绍如何在不同环境下实现这一配置。

命令行方式直接运行

如果是通过 ollama serve 启动 Ollama,可以在启动时设置 OLLAMA_HOST 环境变量。

Linux/macOS

OLLAMA_HOST=0.0.0.0:11434 ollama serve

Windows

set OLLAMA_HOST=0.0.0.0:11434
ollama serve

或者在 PowerShell 中:

$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve

使用 Systemd 服务

如果 Ollama 是通过 Systemd 运行(常见于 Linux 服务器),则需要修改服务配置文件。

编辑服务文件:

sudo systemctl edit ollama.service

添加或修改 [Service] 部分:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"

保存并重新加载服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

检查服务状态:

sudo systemctl status ollama

使用 Docker

通过 Docker 运行 Ollama 时,需设置环境变量并映射端口。

命令行方式

docker run -d -p 11434:11434 -e OLLAMA_HOST=0.0.0.0:11434 --name ollama ollama/ollama

docker-compose 方式

创建 docker-compose.yml 文件:

version: '3'
services:
  ollama:
    image: ollama/ollama
    ports:
      - "11434:11434"
    environment:
      - OLLAMA_HOST=0.0.0.0:11434

运行:

docker-compose up -d

验证配置

检查监听地址

netstat -tuln | grep 11434

应显示 0.0.0.0:11434 或 :::11434。

从局域网设备测试访问

curl http://<Ollama服务器IP>:11434

成功返回类似 Ollama is running。

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注