文章

如何搭建本地大模型ollama + open-webui

如何搭建本地大模型ollama + open-webui

open-webui

  1. 安装Docker
  2. 由于国内原因,需要添加镜像地址, 原镜像地址为 ghcr.io/open-webui/open-webui:main
1
vim /etc/docker/daemon.json
1
2
3
4
5
{
  "registry-mirrors": [
    "https://ghcr.nju.edu.cn"
  ]
}
1
2
systemctl restart docker
docker pull ghcr.nju.edu.cn/open-webui/open-webui:main
  1. 编写docker-compose.yml文件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
services:
  open-webui:
    image: ghcr.nju.edu.cn/open-webui/open-webui:main
    network_mode: host
    ports:
      - 3001:1234
    restart: always
    environment:
      - OLLAMA_BASE_URL=http://127.0.0.1:11434
      - WEBUI_AUTH=false
      - PORT=1234
      - RAG_EMBEDDING_MODEL_AUTO_UPDATE=True
      - HF_ENDPOINT=https://hf-mirror.com
    extra_hosts:
      - host.docker.internal:host-gateway
    volumes:
      - /docker/open-webui/data:/app/backend/data
    logging:
      driver: "json-file"
      options:
        max-file: "2"
        max-size: "20m"
networks:
  default:
    driver: bridge
  1. 文件相关解释

安装ollama

  1. 下载地址 https://ollama.com/download
  2. 运行 ollama serve
  3. 下载模型 ollama pull qwen2:0.5b
  4. 运行模型 ollama run qwen2:0.5b
本文由作者按照 CC BY 4.0 进行授权