Skip to content

Open WebUI

Interface de chat IA auto-hébergée — une interface similaire à ChatGPT pour exécuter des LLM locaux ou distants.

Imageghcr.io/open-webui/open-webui:main
Interface webhttp://your-server:3000
Chemin de configuration{BASE_DIR}/openwebui/data
Site webopenwebui.com
Code sourceGitHub

Impact sur les ressources

PerformanceHigh — Inférence de modèles
StockageMedium — Données de modèles IA

Installation

sh
mithrandir install openwebui

Configuration

Aucune configuration supplémentaire requise. Vous pouvez commencer à ajouter des fournisseurs, par exemple OpenAI ou Anthropic (Claude). Si vous souhaitez exécuter un modèle local avec Ollama, vous pouvez le faire également mais vous devrez d'abord configurer ollama vous-même.

WARNING

L'exécution de modèles locaux nécessite du matériel très spécifique et puissant. Assurez-vous d'avoir suffisamment de ressources pour les exécuter.