如何搭建本地大模型ollama + open-webui
如何搭建本地大模型ollama + open-webui
open-webui
- 安装Docker
- 由于国内原因,需要添加镜像地址, 原镜像地址为
ghcr.io/open-webui/open-webui:main
1
vim /etc/docker/daemon.json
1
2
3
4
5
{
"registry-mirrors": [
"https://ghcr.nju.edu.cn"
]
}
1
2
systemctl restart docker
docker pull ghcr.nju.edu.cn/open-webui/open-webui:main
- 编写docker-compose.yml文件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
services:
open-webui:
image: ghcr.nju.edu.cn/open-webui/open-webui:main
network_mode: host
ports:
- 3001:1234
restart: always
environment:
- OLLAMA_BASE_URL=http://127.0.0.1:11434
- WEBUI_AUTH=false
- PORT=1234
- RAG_EMBEDDING_MODEL_AUTO_UPDATE=True
- HF_ENDPOINT=https://hf-mirror.com
extra_hosts:
- host.docker.internal:host-gateway
volumes:
- /docker/open-webui/data:/app/backend/data
logging:
driver: "json-file"
options:
max-file: "2"
max-size: "20m"
networks:
default:
driver: bridge
- 文件相关解释
- 忽略
network_mode
测试及修改使用 HF_ENDPOINT=https://hf-mirror.com
用于镜像 huggingface.co 域名启动时会用到
host.docker.internal:host-gateway
暂不明确后续观察- 其他环境变量查看 https://docs.openwebui.com/getting-started/env-configuration/
- FAQ https://docs.openwebui.com/faq
- 忽略
安装ollama
- 下载地址 https://ollama.com/download
- 运行
ollama serve
- 下载模型
ollama pull qwen2:0.5b
- 运行模型
ollama run qwen2:0.5b
本文由作者按照 CC BY 4.0 进行授权