Open WebUI + Ollama 安裝指南
適用於 Zorin OS 18 / Ubuntu 24.04 LTS 環境
本指南將引導你使用 Docker 容器技術來運行 AI 環境。Zorin OS 18 繼承了 Ubuntu 的穩定性,非常適合執行本地端大型語言模型 (LLM)。
第一步:安裝 Docker
首先,我們需要確保系統已安裝 Docker。請開啟「終端機」並執行以下指令:
# 更新軟體源 sudo apt update sudo apt upgrade # 安裝必要的相依套件 sudo apt install ca-certificates curl gnupg lsb-release -y # 加入 Docker 官方 GPG 金鑰 sudo install -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudo chmod a+r /etc/apt/keyrings/docker.gpg # 設定軟體庫 echo \ "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \ $(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \ sudo tee /etc/apt/sources.list.d/docker.list > /dev/null # 安裝 Docker Engine sudo apt update sudo apt install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin -y # 允許當前使用者免 sudo 執行 docker (需重新登入生效) sudo usermod -aG docker $USER ollama pull llama3.1
⚠️ 執行完上述
usermod 指令後,請登出並重新登入,或者重啟電腦。docker rm -f open-webui 2>/dev/null docker rmi ghcr.io/open-webui/open-webui:cuda 2>/dev/null docker system prune -f docker pull ghcr.io/open-webui/open-webui:cuda
第二步:(選填) NVIDIA GPU 加速設定
如果你擁有 NVIDIA 顯示卡,請安裝 NVIDIA Container Toolkit 以獲得硬體加速功能:
# 安裝 NVIDIA Container Toolkit
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
# 重啟 Docker 服務
sudo systemctl restart docker
若無NVIDIA 顯示卡,須移除NVIDIA Container Toolkit
sudo apt-get purge -y nvidia-container-toolkit sudo apt-get autoremove -y
第三步:啟動 Open WebUI (整合 Ollama)
我們推薦使用 Open WebUI 官方提供的整合型 Docker 映像檔,這會同時啟動 Web 介面與 Ollama 後端。
方案 A:僅使用 CPU (無顯卡或 AMD 顯卡)
docker run -d \ --network=host \ -v open-webui:/app/backend/data \ -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
方案 B:使用 NVIDIA GPU 加速
docker run -d -p 3000:8080 \ --gpus all \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ ghcr.io/open-webui/open-webui:cuda
第四步:存取與使用
-
完成後檢查
- 方案A開啟瀏覽器並輸入網址:
http://localhost:8080/ - 註冊帳號:第一個註冊的帳號將自動成為管理員。
- 下載模型:進入設定介面,在「模型」區塊輸入如
llama3.2或gemma2並點擊下載。 - 開始對話!
docker ps


