1. Qu'est-ce qu'OpenWebUI ?

OpenWebUI est une interface web open-source pour interagir avec des modèles d'intelligence artificielle. Elle permet d'utiliser des modèles comme GPT, Llama, Mistral, etc. directement depuis votre navigateur, le tout en local sur votre machine.

OpenWebUI fonctionne avec :

  • Ollama : pour faire tourner des modèles localement
  • OpenAI-compatible APIs : pour utiliser des services externes (OpenAI, Claude, etc.)

Avantages principaux : gratuit, privé (pas de données envoyées à des tiers), et personnalisable.

Conseil : Ce tutoriel utilise des commandes à copier-coller. Chaque bloc de code dispose d'un bouton pour copier le contenu automatiquement.

2. Prérequis

Avant de commencer, vous avez besoin d'un des éléments suivants :

Option A : Avec Docker (recommandé)

  • Docker installé sur votre machine (version 20+)
  • Un terminal (PowerShell, CMD, ou terminal macOS/Linux)
docker --version

Si Docker n'est pas installé, téléchargez-le depuis docker.com.

Option B : Sans Docker (avec Python)

  • Python 3.11 ou plus récent
  • pip (généralement inclus avec Python)
python --version

3. Installation avec Docker (recommandée)

C'est la méthode la plus simple : Docker s'occupe de tout télécharger et configurer.

Installation simple (si Ollama est déjà installé sur votre machine)

Cette commande lance OpenWebUI et le connecte automatiquement à Ollama s'il tourne sur votre ordinateur.

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Explication des paramètres :

  • -d : lance le conteneur en arrière-plan
  • -p 3000:8080 : l'interface sera accessible sur le port 3000
  • --add-host=host.docker.internal:host-gateway : permet à Docker de communiquer avec Ollama sur votre machine
  • -v open-webui:/app/backend/data : sauvegarde vos données (conversations, paramètres)
  • --name open-webui : nom du conteneur (pour le retrouver facilement)
  • --restart always : redémarre automatiquement si le conteneur plante ou au reboot

Installation avec support GPU NVIDIA

Si vous avez une carte graphique NVIDIA et voulez utiliser le GPU pour accélérer les modèles :

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Installation avec Ollama intégré (tout-en-un)

Cette version installe OpenWebUI ET Ollama dans un seul conteneur. Idéal si vous n'avez pas Ollama.

Avec support GPU :

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

CPU uniquement (sans GPU) :

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

4. Installation sans Docker (avec Python)

Si vous préférez ne pas utiliser Docker, vous pouvez installer OpenWebUI directement avec Python.

Méthode recommandée : avec uv

uv est un gestionnaire d'environnement Python plus rapide et plus simple que pip.

Installer uv :

Sur macOS/Linux :

curl -LsSf https://astral.sh/uv/install.sh | sh

Sur Windows (PowerShell) :

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

Lancer OpenWebUI :

Sur macOS/Linux :

DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

Sur Windows (PowerShell) :

$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

Méthode classique : avec pip

Vous pouvez aussi utiliser pip directement. Il est recommandé d'utiliser un environnement virtuel.

Créer et activer un environnement virtuel :

Sur macOS/Linux :

python -m venv open-webui-venv
source open-webui-venv/bin/activate

Sur Windows :

python -m venv open-webui-venv
.\open-webui-venv\Scripts\activate

Installer et lancer :

pip install open-webui
open-webui serve

5. Accéder à l'interface

Une fois OpenWebUI lancé, ouvrez votre navigateur et rendez-vous sur :

http://localhost:3000
Note : Le port peut être différent selon votre configuration. Si vous avez utilisé pip sans Docker, c'est souvent http://localhost:8080.

Lors du premier accès, vous devrez créer un compte administrateur. Ce compte est local et vous permet de gérer les utilisateurs et les paramètres.

6. Mettre à jour OpenWebUI

Avec Docker

Pour mettre à jour automatiquement votre conteneur Docker, vous pouvez utiliser Watchtower.

Mise à jour manuelle :

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock nickfedor/watchtower --run-once open-webui

Mises à jour automatiques (toutes les 5 minutes) :

docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock nickfedor/watchtower --interval 300 open-webui

Avec pip

pip install --upgrade open-webui

7. Dépannage courant

Le port est déjà utilisé

Si le port 3000 est déjà utilisé par une autre application, changez-le dans la commande Docker :

docker run -d -p 8080:8080 ...

Remplacez 8080:8080 par le port de votre choix (ex: 9000:8080 pour le port 9000).

Problème de permissions (Linux/macOS)

Si Docker n'arrive pas à écrire dans le volume, essayez de créer le dossier manuellement :

mkdir -p ~/.open-webui/data

Docker ne trouve pas la commande

Vérifiez que Docker Desktop est bien lancé. Sur Windows/macOS, une icône Docker doit apparaître dans la barre des tâches.

Erreur "module not found" avec pip

Assurez-vous d'être dans l'environnement virtuel (vous devriez voir (open-webui-venv) dans votre terminal).

Important : Si vous utilisez Python 3.13, certaines dépendances peuvent ne pas fonctionner. Privilégiez Python 3.11 ou 3.12.

8. Pour aller plus loin

Voici quelques ressources utiles :

Bravo ! Vous avez installé OpenWebUI. Vous pouvez maintenant ajouter des modèles via Ollama (commande ollama pull llama3 par exemple) et commencer à discuter avec votre IA locale.
Retour aux tutoriels