Open WebUI + Ollama + Docker 安裝指南 (Zorin OS 18)



Open WebUI + Ollama 安裝指南

適用於 Zorin OS 18 / Ubuntu 24.04 LTS 環境

本指南將引導你使用 Docker 容器技術來運行 AI 環境。Zorin OS 18 繼承了 Ubuntu 的穩定性,非常適合執行本地端大型語言模型 (LLM)。

第一步:安裝 Docker

首先,我們需要確保系統已安裝 Docker。請開啟「終端機」並執行以下指令:

# 更新軟體源
sudo apt update
sudo apt upgrade

# 安裝必要的相依套件
sudo apt install ca-certificates curl gnupg lsb-release -y

# 加入 Docker 官方 GPG 金鑰
sudo install -m 0755 -d /etc/apt/keyrings
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
sudo chmod a+r /etc/apt/keyrings/docker.gpg

# 設定軟體庫
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \
  $(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null

# 安裝 Docker Engine
sudo apt update
sudo apt install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin -y


# 允許當前使用者免 sudo 執行 docker (需重新登入生效)
sudo usermod -aG docker $USER
ollama pull llama3.1
⚠️ 執行完上述 usermod 指令後,請登出並重新登入,或者重啟電腦。
docker rm -f open-webui 2>/dev/null
docker rmi ghcr.io/open-webui/open-webui:cuda 2>/dev/null
docker system prune -f
docker pull ghcr.io/open-webui/open-webui:cuda

第二步:(選填) NVIDIA GPU 加速設定

如果你擁有 NVIDIA 顯示卡,請安裝 NVIDIA Container Toolkit 以獲得硬體加速功能:

# 安裝 NVIDIA Container Toolkit
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit

# 重啟 Docker 服務
sudo systemctl restart docker
    

若無NVIDIA 顯示卡,須移除NVIDIA Container Toolkit

sudo apt-get purge -y nvidia-container-toolkit
sudo apt-get autoremove -y
 

第三步:啟動 Open WebUI (整合 Ollama)

我們推薦使用 Open WebUI 官方提供的整合型 Docker 映像檔,這會同時啟動 Web 介面與 Ollama 後端。

方案 A:僅使用 CPU (無顯卡或 AMD 顯卡)

docker run -d \
  --network=host \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

方案 B:使用 NVIDIA GPU 加速

docker run -d -p 3000:8080 \
  --gpus all \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  ghcr.io/open-webui/open-webui:cuda

第四步:存取與使用

    完成後檢查

    docker ps
    
  1. 方案A開啟瀏覽器並輸入網址:http://localhost:8080/
  2. 註冊帳號:第一個註冊的帳號將自動成為管理員。
  3. 下載模型:進入設定介面,在「模型」區塊輸入如 llama3.2gemma2 並點擊下載。
  4. 開始對話!

2026 Zorin OS 18 配置優化版