Auto-héberger Open WebUI avec Docker

Ce guide vous explique comment exécuter votre propre instance de Open WebUI en utilisant Docker.


Prérequis

  • Docker installé sur votre système.
  • Optionnel : Docker Compose (pour une gestion facilitée).
  • Une clé API ou un modèle local (par ex. OpenAI, Ollama, LM Studio, etc.), selon ce que vous souhaitez utiliser avec Open WebUI.

Démarrage rapide avec Docker

docker run -d \
  --name open-webui \
  -p 3000:8080 \
  -v open-webui-data:/app/backend/data \
  -e 'WEBUI_SECRET_KEY=change_this_to_a_secure_value' \
  ghcr.io/open-webui/open-webui:main
  • Accédez à http://localhost:3000
  • Lors du premier lancement, vous pourrez créer votre utilisateur administrateur.

Utilisation avec Docker Compose (recommandé)

Créez un fichier nommé docker-compose.yml :

version: '3.8'

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080"
    environment:
      - WEBUI_SECRET_KEY=change_this_to_a_secure_value
    volumes:
      - open-webui-data:/app/backend/data
    restart: unless-stopped

volumes:
  open-webui-data:

Démarrez ensuite avec :

docker compose up -d

Notes de sécurité

  • Modifiez la valeur de WEBUI_SECRET_KEY par une chaîne aléatoire et sécurisée.
  • Si vous exposez l'interface publiquement, il est fortement recommandé d'utiliser un proxy inverse (comme Nginx) avec HTTPS (par exemple avec Let's Encrypt).

Connexion à un modèle de langage

Open WebUI peut se connecter à :

  • Ollama (ex. llama3, mistral)
  • OpenAI / Azure OpenAI
  • Points d’accès locaux (LM Studio, llama-cpp, etc.)

Vous pouvez configurer ces options dans l'interface une fois lancée.


Mise à jour

docker pull ghcr.io/open-webui/open-webui:main
docker stop open-webui && docker rm open-webui
docker run ... # même commande qu’au départ

Ou avec Compose :

docker compose pull
docker compose up -d

Persistance des données

Les données sont stockées dans le volume open-webui-data, ce qui permet de mettre à jour le conteneur sans perdre vos paramètres ou conversations.


Arrêt du service

docker stop open-webui

Ou avec Compose :

docker compose down

Optionnel : Utilisation avec Ollama

Installez Ollama et exécutez un modèle :

ollama run llama3

Open WebUI le détectera automatiquement s’il est lancé localement.


Ressources