Open WebUI
Interface de chat IA auto-hébergée — une interface similaire à ChatGPT pour exécuter des LLM locaux ou distants.
| Image | ghcr.io/open-webui/open-webui:main |
| Interface web | http://your-server:3000 |
| Chemin de configuration | {BASE_DIR}/openwebui/data |
| Site web | openwebui.com |
| Code source | GitHub |
Impact sur les ressources
| Performance | High — Inférence de modèles |
| Stockage | Medium — Données de modèles IA |
Installation
sh
mithrandir install openwebuiConfiguration
Aucune configuration supplémentaire requise. Vous pouvez commencer à ajouter des fournisseurs, par exemple OpenAI ou Anthropic (Claude). Si vous souhaitez exécuter un modèle local avec Ollama, vous pouvez le faire également mais vous devrez d'abord configurer ollama vous-même.
WARNING
L'exécution de modèles locaux nécessite du matériel très spécifique et puissant. Assurez-vous d'avoir suffisamment de ressources pour les exécuter.