Ce guide vous explique comment exécuter votre propre instance de Open WebUI en utilisant Docker.
docker run -d \
--name open-webui \
-p 3000:8080 \
-v open-webui-data:/app/backend/data \
-e 'WEBUI_SECRET_KEY=change_this_to_a_secure_value' \
ghcr.io/open-webui/open-webui:main
Créez un fichier nommé docker-compose.yml
:
version: '3.8'
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
environment:
- WEBUI_SECRET_KEY=change_this_to_a_secure_value
volumes:
- open-webui-data:/app/backend/data
restart: unless-stopped
volumes:
open-webui-data:
Démarrez ensuite avec :
docker compose up -d
WEBUI_SECRET_KEY
par une chaîne aléatoire et sécurisée.Open WebUI peut se connecter à :
llama3
, mistral
)Vous pouvez configurer ces options dans l'interface une fois lancée.
docker pull ghcr.io/open-webui/open-webui:main
docker stop open-webui && docker rm open-webui
docker run ... # même commande qu’au départ
Ou avec Compose :
docker compose pull
docker compose up -d
Les données sont stockées dans le volume open-webui-data
, ce qui permet de mettre à jour le conteneur sans perdre vos paramètres ou conversations.
docker stop open-webui
Ou avec Compose :
docker compose down
Installez Ollama et exécutez un modèle :
ollama run llama3
Open WebUI le détectera automatiquement s’il est lancé localement.