Open-WebUI verwandelt jeden Linux-Server in eine vollständige KI-Plattform, die ChatGPT in Funktionsumfang und Bedienkomfort ebenbürtig ist. Als führende ChatGPT-Alternative für den On-Premise-Betrieb ermöglicht die Software, große Sprachmodelle auf eigener Hardware zu betreiben. Laut Bitkom KI-Studie 2026 nutzt fast jedes dritte deutsche Unternehmen generative KI, doch 93 Prozent würden einen Anbieter aus Deutschland bevorzugen. Der Grund: Datensouveränität. Wer vertrauliche Geschäftsdaten in Prompts tippt, will wissen, wo diese landen. Mit dieser Self-Hosting-Lösung landen sie nirgendwo außer auf der eigenen Infrastruktur.
Dieser Praxis-Guide führt Sie durch die Einrichtung mit Docker und Ollama, zeigt die wichtigsten Konfigurationsschritte und erklärt, wie Sie die Plattform im Unternehmen sicher und produktiv betreiben.
Kennzahlen auf einen Blick
Kennzahl Wert GitHub-Stars 129.000+ (Stand März 2026) Docker-Downloads 290 Millionen+ Lizenzkosten 0 Euro (Open Source) Installationszeit Unter 10 Minuten per Docker Unterstützte Modelle Hunderte (via Ollama + OpenAI-kompatible APIs) Quellen: GitHub API, openwebui.com (März 2026)
Warum Open-WebUI für den Mittelstand relevant ist
Die Plattform schließt eine Lücke, die viele Mittelständler kennen: einen KI-Assistenten nutzen wollen, aber keine Daten an US-Cloud-Anbieter senden dürfen. Open-WebUI ist eine selbst gehostete Web-Oberfläche für Sprachmodelle, die lokale Modelle über Ollama und externe APIs in einem einheitlichen Chat-Interface bündelt. Die Software läuft auf dem eigenen Server, im eigenen Rechenzentrum oder bei einem deutschen Hoster. Keine Daten verlassen das Netzwerk, kein Auftragsverarbeitungsvertrag ist nötig.
Das Projekt startete im Oktober 2023 unter dem Namen “Ollama WebUI”. Seitdem hat es sich zum meistgenutzten Open-Source-Frontend für lokale KI-Modelle entwickelt. Die Zahlen sprechen für sich: 129.000 GitHub-Stars, über 290 Millionen Docker-Downloads und eine Community mit mehr als 359.000 Mitgliedern. Die Entwicklungsgeschwindigkeit ist beachtlich. Allein zwischen Februar und März 2026 erschienen zwölf neue Versionen, im Schnitt alle vier bis fünf Tage ein Release.
Open-WebUI im Vergleich zu anderen KI-Oberflächen
Neben Open-WebUI gibt es weitere Self-Hosting-Alternativen wie LibreChat, AnythingLLM und LobeChat. Jedes Projekt hat seinen Schwerpunkt. Die folgende Tabelle ordnet die wichtigsten Optionen ein.
| Plattform | Stärke | Multi-User | RAG | Community |
|---|---|---|---|---|
| Open-WebUI | Ausgewogenheit, Enterprise-Features | RBAC, LDAP, SCIM 2.0 | 9 Vektor-Datenbanken | 129.000 Stars |
| LibreChat | Breite API-Unterstützung | Multi-Tenancy | Vorhanden | 20.000 Stars |
| AnythingLLM | Dokumenten-Workflows | Begrenzt | Fokus-Feature | 35.000 Stars |
| LobeChat | Mobile UX, Design | Begrenzt | Eingeschränkt | 55.000 Stars |
Für Unternehmen mit mehr als zehn Nutzern und Anforderungen an Benutzerverwaltung, Dokumenteneinbindung und DSGVO-Konformität bietet Open-WebUI das breiteste Funktionsspektrum. Wer primär ein schickes Chat-Interface für Einzelnutzer sucht, fährt mit LobeChat gut. Für reine Dokumenten-Workflows ist AnythingLLM einen Blick wert.
Wie installiere ich Open-WebUI mit Docker?
Die Installation mit Docker ist der schnellste und zuverlässigste Weg. Ein einziger Befehl genügt, um die Plattform lauffähig zu machen. Voraussetzung ist lediglich ein Server mit installiertem Docker. Das kann ein dedizierter Linux-Server sein, eine virtuelle Maschine bei Hetzner oder ein alter Bürorechner mit Ubuntu.
Die Einrichtung gliedert sich in vier Schritte:
- Docker und Ollama installieren
- Open-WebUI-Container starten
- Admin-Konto anlegen und Modell laden
- Konfiguration für den Produktivbetrieb anpassen
Docker-Container starten
Wenn Ollama bereits auf dem Server läuft, starten Sie Open-WebUI mit diesem Befehl:
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
-e WEBUI_SECRET_KEY=Ihr-Geheimer-Schluessel \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:main
Der Parameter WEBUI_SECRET_KEY ist wichtig: Ohne ihn werden bei jedem Container-Neustart alle Sitzungen ungültig. Setzen Sie hier einen langen, zufälligen String ein.
Für Server mit NVIDIA-GPU nutzen Sie stattdessen das CUDA-Image:
docker run -d -p 3000:8080 --gpus all \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
-e WEBUI_SECRET_KEY=Ihr-Geheimer-Schluessel \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:cuda
Nach dem Start öffnen Sie http://Server-IP:3000 im Browser. Der erste Nutzer, der sich registriert, erhält automatisch Admin-Rechte.
Docker Compose für den Produktivbetrieb
Für den dauerhaften Betrieb empfiehlt sich Docker Compose. Damit verwalten Sie Open-WebUI und Ollama als zusammengehörige Dienste und können Konfigurationsänderungen sauber versionieren. Eine typische docker-compose.yml enthält beide Services, ein gemeinsames Netzwerk und persistente Volumes für Daten und Modelle.
Alternativ lässt sich Open-WebUI auch per pip install open-webui installieren und mit open-webui serve starten. Dieser Weg eignet sich für Entwicklungsumgebungen. Im produktiven Betrieb bleibt Docker die bessere Wahl, weil Updates und Rollbacks sich damit kontrolliert durchführen lassen.
Kann Open-WebUI auch ohne GPU laufen?
Ja, und das ist ein häufiges Missverständnis. Open-WebUI selbst benötigt keine GPU. Die Plattform ist ein Web-Frontend, das auf jedem Server mit 2 GB RAM läuft. Die GPU-Frage betrifft Ollama, also das Backend, das die Sprachmodelle ausführt.
Drei Szenarien sind möglich:
Ohne GPU, nur mit Cloud-APIs: Sie betreiben Open-WebUI als Oberfläche für OpenAI, Anthropic oder Mistral AI. Alle Berechnungen laufen in der Cloud, lokal brauchen Sie nur einen minimalen Server. Dieses Setup kombiniert die Datenkontrolle über das Interface mit der Rechenleistung externer Dienste. Prompts und Chatverlauf bleiben lokal, die eigentliche Modellberechnung nicht.
Ohne GPU, mit CPU-Inferenz: Ollama kann Modelle auch auf der CPU ausführen. Kleine Modelle wie Phi-3 (3,8 Milliarden Parameter) liefern brauchbare Ergebnisse, allerdings mit deutlich längeren Antwortzeiten. Für ein Pilotprojekt reicht das aus, für den täglichen Einsatz im Team wird es eng.
Mit GPU: Für den produktiven Betrieb mit lokalen Modellen ist eine NVIDIA-GPU mit mindestens 8 GB VRAM empfehlenswert. Damit laufen 7B-Modelle wie Mistral oder Llama 3 flüssig. Laut Eurostat-Erhebung 2025 nennen 49 Prozent der EU-Unternehmen Datenschutzbedenken als Grund, warum sie KI nicht einsetzen. Eine eigene GPU-Infrastruktur löst dieses Problem dauerhaft.
| Hardware-Szenario | RAM | GPU | Geeignet für |
|---|---|---|---|
| Nur Cloud-APIs | 2-4 GB | Keine | Schneller Einstieg, externe Modelle |
| CPU-Inferenz (Ollama) | 16 GB+ | Keine | Pilotphase, kleine Modelle |
| GPU-Betrieb (Standard) | 16-32 GB | 8-12 GB VRAM | Produktiver Teameinsatz, 7B-13B-Modelle |
| GPU-Betrieb (Enterprise) | 64 GB+ | 24 GB+ VRAM | Große Modelle, hohes Nutzungsvolumen |
Für den Einstieg reicht ein Hetzner-VPS mit 8 GB RAM und einer API-Anbindung an OpenAI oder Anthropic. Die monatlichen Kosten liegen unter 15 Euro für die Infrastruktur, dazu kommen die API-Kosten je nach Nutzung.
Ist Open-WebUI DSGVO-konform einsetzbar?
Beim Self-Hosting mit Ollama verlässt kein einziges Byte das eigene Netzwerk. Das macht Open-WebUI zu einer der wenigen KI-Plattformen, bei denen DSGVO-Konformität kein Versprechen ist, sondern Architekturmerkmal. Alle Chats, hochgeladene Dokumente und Nutzerdaten liegen auf dem eigenen Server. Es gibt keine Telemetrie, keine externen API-Aufrufe und keinen versteckten Datenabfluss.
Konkret bedeutet das für Unternehmen im DACH-Raum: Artikel 28 DSGVO (Auftragsverarbeitung) greift nicht, weil kein externer Dienstleister an der Datenverarbeitung beteiligt ist. Artikel 25 DSGVO (Datenschutz durch Technikgestaltung) wird durch die Systemarchitektur erfüllt, da die On-Premise-Installation von Grund auf für Datensparsamkeit ausgelegt ist.
Laut Bitkom Open Source Monitor 2025 setzen 75 Prozent der deutschen Unternehmen Open-Source-Software ein. Die Kombination aus Open Source und Self-Hosting deckt damit zwei zentrale Anforderungen ab: Transparenz über den Quellcode und Kontrolle über die Daten.
EU AI Act und Open-WebUI
Der EU AI Act bringt seit 2025 Dokumentationspflichten für KI-Systeme. Open-Source-Modelle wie Llama, Mistral oder Gemma profitieren von Erleichterungen gegenüber proprietären Systemen. Open-WebUI selbst ist kein KI-Modell, sondern eine Oberfläche. Die Plattform hilft bei der Compliance, weil sie Nutzungsdaten, Modellzuweisungen und Chatverläufe protokolliert. Das Admin-Dashboard liefert die Transparenz, die der EU AI Act verlangt.
Für besonders sensible Umgebungen unterstützt die Software verschlüsselte Datenbanken (SQLCipher) und Air-Gapped-Betrieb ohne jegliche Internetverbindung. Kanzleien, Behörden und Forschungseinrichtungen nutzen diese Option bereits.
Modellverwaltung: Sprachmodelle einrichten und nutzen
Die Modellverwaltung in Open-WebUI unterstützt jedes Sprachmodell, das über Ollama oder eine OpenAI-kompatible API verfügbar ist. In der Praxis bedeutet das: Hunderte Modelle stehen zur Wahl, von kompakten 3B-Varianten bis zu Flaggschiff-Modellen mit 70 Milliarden Parametern.
Lokale Modelle über Ollama
Ollama ist die meistgenutzte Engine für lokale Sprachmodelle. Mit über 166.000 GitHub-Stars und 106 Millionen Docker-Pulls hat sich das Projekt als Standard etabliert. Wenn Ollama auf demselben Server läuft, erkennt die Plattform die verfügbaren Modelle automatisch. Neue Modelle laden Sie direkt über die Web-Oberfläche herunter.
Bewährte Modelle für den Einstieg im Unternehmen:
Llama 3.1 (8B) eignet sich als Allrounder für Texterstellung, Zusammenfassungen und Analysen. Der VRAM-Bedarf liegt bei etwa 6 GB. Mistral 7B ist schneller und liefert bei strukturierten Aufgaben wie E-Mail-Entwürfen und Berichten präzise Ergebnisse. Gemma 3 von Google überzeugt bei deutschen Texten und Übersetzungen. DeepSeek Coder V2 ist die erste Wahl für Softwareentwicklung und SQL-Queries.
Cloud-APIs parallel nutzen
Der hybride Ansatz ist für viele Unternehmen der pragmatischste Weg. Vertrauliche Daten verarbeiten lokale Modelle, für komplexe Analysen greifen Sie auf leistungsstärkere Cloud-Modelle zurück. Die Anbindung an OpenAI, Anthropic oder Mistral AI erfolgt über die Einstellungen per API-Schlüssel. Im Chat wechseln Nutzer mit dem @-Befehl zwischen lokalen und externen Modellen, ohne die Oberfläche zu verlassen.
Wie binde ich Firmendokumente in Open-WebUI ein?
Die integrierte RAG-Funktion (Retrieval Augmented Generation) macht die Plattform zum Wissenssystem für das gesamte Unternehmen. Sie laden PDFs, Word-Dateien, Excel-Tabellen, Markdown-Dokumente oder Webseiten in die Plattform und befragen sie im Chat. Die Antworten enthalten Quellenangaben, sodass nachvollziehbar bleibt, woher die Information stammt.
Ein konkretes Szenario: Ein Industriezulieferer mit 120 Mitarbeitern hat über 800 Produktdatenblätter, technische Handbücher und Wartungsanleitungen. Bisher durchsuchte der Vertrieb verschachtelte Netzlaufwerke, um technische Detailfragen von Kunden zu beantworten. Mit der Plattform laden die Mitarbeiter alle Dokumente als Wissensbasis hoch und stellen ihre Fragen im Chat. Die Antworten referenzieren die exakten Quellen und sparen dem Vertriebsteam mehrere Stunden pro Woche.
RAG konfigurieren
Für die Vektorspeicherung stehen neun Backends zur Wahl: ChromaDB (Standard), PGVector, Qdrant, Milvus, Elasticsearch, OpenSearch, Pinecone, S3Vector und Oracle 23ai. Unternehmen mit bestehender Suchinfrastruktur können ihre vorhandenen Systeme weiterverwenden.
Die Dokumenten-Extraktion unterstützt Apache Tika, Docling und Azure Document Intelligence. Damit verarbeitet die Plattform auch eingescannte PDFs und komplexe Layouts. Im Chat aktivieren Nutzer das Firmenwissen per #-Befehl und wählen gezielt einzelne Dokumentensammlungen oder die gesamte Wissensbasis aus.
Self-Hosting absichern: Benutzerverwaltung und Zugriffskontrolle
Der Schritt vom Einzelnutzer zur unternehmensweiten Plattform erfordert klare Regeln bei Zugriff und Berechtigungen. Die Software bringt dafür Enterprise-taugliche Funktionen mit, die in dieser Tiefe bei kaum einer Open-Source-KI-Oberfläche zu finden sind.
Die Benutzerverwaltung basiert auf einem Rollenkonzept mit drei Stufen: Super-Admin (der erste registrierte Nutzer), Admin und User. Admins steuern, welche Modelle und Wissensdatenbanken den einzelnen Gruppen zur Verfügung stehen. Neue Mitarbeiter durchlaufen einen Genehmigungsprozess, bevor sie Zugang erhalten.
Für Unternehmen ab 30 Nutzern lohnt sich die Anbindung an bestehende Verzeichnisdienste. Das Tool unterstützt LDAP und Active Directory für die Authentifizierung, SSO über OIDC-Provider (Keycloak, Azure AD, Google Workspace) und SCIM 2.0 für automatisches Nutzer-Provisioning. Damit entfällt die doppelte Kontenverwaltung, und Mitarbeiter melden sich mit ihren gewohnten Zugangsdaten an.
Monitoring und Wartung
Für den Produktivbetrieb bietet die Plattform OpenTelemetry-Integration. Traces, Metriken und Logs lassen sich an Prometheus, Grafana oder Jaeger weiterleiten. So behalten IT-Teams die Systemauslastung, Antwortzeiten und Fehlerquoten im Blick.
Vor jedem Update sichern Sie das Docker-Volume. Das Update selbst erledigen Sie mit docker pull ghcr.io/open-webui/open-webui:main und einem Neustart des Containers. Bei kritischen Produktivumgebungen empfiehlt sich ein automatisiertes Backup per Cronjob. Die Release-Frequenz von vier bis fünf Tagen klingt hoch, aber nicht jedes Update muss sofort eingespielt werden. Für stabile Umgebungen reichen monatliche Updates.
Reifegrad-Modell: Vom Piloten zum Enterprise-Rollout
Der Weg zur unternehmensweiten KI-Plattform folgt einem Stufenmodell. Je nach Teamgröße und Anforderungen wächst die Infrastruktur mit.
| Stufe | Bezeichnung | Infrastruktur | Typische Nutzerzahl |
|---|---|---|---|
| 1 | Pilotbetrieb | Ein Docker-Container, SQLite | 1-5 Nutzer |
| 2 | Abteilungseinsatz | Docker Compose, PostgreSQL, GPU | 5-30 Nutzer |
| 3 | Unternehmensweit | Kubernetes, Redis, LDAP/SSO | 30-200 Nutzer |
| 4 | Hochverfügbar | Multi-Node, Load Balancing, Monitoring | 200+ Nutzer |
Der Einstieg gelingt am besten über einen Pilotbetrieb mit fünf Nutzern aus unterschiedlichen Abteilungen. Laut Bitkom-TRANSFORM-Studie 2026 sieht sich nur jedes vierte Unternehmen mit 20 bis 99 Beschäftigten als Digitalisierungsvorreiter. Ein überschaubares KI-Pilotprojekt mit Open-WebUI kann der Impuls sein, der fehlt.
Installieren Sie die Plattform auf einem vorhandenen Server, laden Sie Mistral 7B als erstes Modell und lassen Sie das Team zwei Wochen testen. Sammeln Sie Feedback: Welche Aufgaben funktionieren gut? Wo stoßen die Modelle an Grenzen? Nach dieser Phase entscheiden Sie auf einer belastbaren Grundlage, ob und wie Sie skalieren.
Im zweiten Schritt wechseln Sie auf Docker Compose mit PostgreSQL als Datenbank und richten Nutzergruppen ein. Binden Sie erste Firmendokumente über RAG ein. Im dritten Schritt folgt die Anbindung an LDAP oder Active Directory und ein dedizierter GPU-Server für lokale Modelle.
Kosten im Vergleich: Open-WebUI vs. ChatGPT Enterprise
Die Wirtschaftlichkeit hängt von der Nutzerzahl und dem gewählten Setup ab. Ein konkreter Vergleich macht die Unterschiede greifbar.
ChatGPT Team kostet 25 US-Dollar pro Nutzer und Monat. Bei 50 Mitarbeitern sind das 15.000 US-Dollar im Jahr, ohne Hardware, ohne Anpassung und ohne Kontrolle über die Daten. Microsoft 365 Copilot liegt bei 30 US-Dollar pro Nutzer und Monat, also 18.000 US-Dollar für 50 Nutzer.
Die Self-Hosting-Lösung verursacht keine Lizenzkosten. Die Investition fließt in Infrastruktur: Ein Hetzner-Server mit dedizierter GPU kostet ab 180 Euro pro Monat. Dazu kommen optional API-Kosten für Cloud-Modelle, die je nach Nutzung zwischen 50 und 500 Euro pro Monat liegen. Bei 50 Nutzern liegt die Gesamtkostenquote damit deutlich unter den SaaS-Alternativen, während die Datenkontrolle vollständig im Unternehmen verbleibt.
Für KI-Assistenten auf Basis von Open-WebUI zahlen Unternehmen also primär für Hardware statt für Lizenzen. Langfristig ist das kalkulierbarer, weil keine Preiserhöhungen durch den Anbieter drohen.
Erweiterbarkeit: Pipelines, MCP und eigene Tools
Die Plattform lässt sich weit über die Standardfunktionen hinaus anpassen. Das Pipelines-Framework erlaubt es, eigene Python-Funktionen als Plugins einzubinden. Damit automatisieren Sie Workflows, die über reines Chatten hinausgehen.
Praktische Beispiele: Eine Pipeline, die Eingaben analysiert und automatisch an das passende Modell routet. GPT-4o für komplexes Reasoning, ein lokales Llama-Modell für datenschutzsensible Anfragen, Claude für längere Texte. Oder ein Output-Filter, der Antworten vor der Anzeige scannt und sensible Daten (Personennummern, interne Codes) maskiert.
Seit Version 0.8 unterstützt die Plattform nativ das Model Context Protocol (MCP), das die Anbindung an externe Tools wie Dateisysteme, Datenbanken oder Web-Services standardisiert. Jupyter-Notebooks lassen sich direkt im Interface ausführen, und über den Community Store stehen Hunderte vorgefertigte Prompts, Tools und Funktionen zum Import bereit.
Unternehmen, die bereits auf Open-Source-KI setzen, finden in dieser KI-Oberfläche die Plattform, die alle Komponenten zusammenführt. Die offene Architektur aus FastAPI (Python) im Backend und SvelteKit im Frontend macht individuelle Anpassungen möglich, ohne den Kern der Software zu verändern.
Fazit: Der pragmatische Einstieg in Self-Hosted KI
Open-WebUI löst das zentrale Dilemma vieler Mittelständler: KI-Modelle nutzen, ohne die Kontrolle über die Daten abzugeben. Die Plattform kombiniert eine ChatGPT-ähnliche Bedienoberfläche mit vollständiger Datensouveränität durch Self-Hosting. Mit 129.000 GitHub-Stars, 290 Millionen Downloads und einem Release-Zyklus von vier bis fünf Tagen gehört sie zu den aktivsten Open-Source-Projekten weltweit.
Der erste Schritt ist denkbar einfach: Docker installieren, Open-WebUI starten, ein Sprachmodell laden. In unter 15 Minuten steht eine funktionierende KI-Plattform, die Sie anschließend Schritt für Schritt an Ihre Anforderungen anpassen.
Sie möchten Open-WebUI in Ihrem Unternehmen einsetzen? Sprechen Sie uns an - wir beraten Sie unverbindlich.
Häufige Fragen
Was ist der Unterschied zwischen Open-WebUI und Ollama?
Ollama ist eine Inference-Engine, die Sprachmodelle auf lokaler Hardware ausführt. Open-WebUI ist das grafische Frontend, über das Nutzer mit diesen Modellen interagieren. Ollama liefert die Rechenleistung, Open-WebUI die Bedienoberfläche mit Chat, Benutzerverwaltung und Dokumenten-Upload. Beide Projekte funktionieren unabhängig voneinander, ergeben im Zusammenspiel aber eine vollständige lokale KI-Plattform.
Welche KI-Modelle funktionieren mit Open-WebUI?
Open-WebUI unterstützt jedes Modell, das über Ollama oder eine OpenAI-kompatible API verfügbar ist. Lokal laufen Modelle wie Llama 3.1, Mistral 7B, Gemma 3, DeepSeek Coder und Phi-3 über Ollama. Über API-Anbindung nutzen Sie zusätzlich GPT-4o, Claude, Gemini und Mistral Large. Im Chat wechseln Sie per @-Befehl zwischen den Modellen.
Was kostet Open-WebUI?
Die Software ist kostenlos und Open Source. Es fallen keine Lizenzgebühren an, auch nicht bei vielen Nutzern. Die Kosten entstehen durch die Infrastruktur: Server-Hardware oder Cloud-Hosting und optional API-Gebühren für externe Modelle. Es gibt eine Enterprise-Version mit SLA-Support und White-Labeling für Unternehmen mit speziellen Anforderungen.
Welche Hardware braucht man für Open-WebUI?
Für Open-WebUI als reines Frontend reichen 2 GB RAM und ein einfacher Server. Wer lokale Modelle über Ollama betreiben will, braucht mehr: Für 7B-Modelle empfehlen sich 16 GB RAM und eine NVIDIA-GPU mit 8 GB VRAM. Große Modelle mit 70 Milliarden Parametern erfordern 64 GB RAM und GPUs mit mindestens 24 GB VRAM.
Wie sicher ist Open-WebUI?
Die Plattform bietet rollenbasierte Zugriffskontrolle (RBAC), LDAP-Integration, SSO über OIDC und verschlüsselte Datenbanken via SQLCipher. Beim Self-Hosting verlassen keine Daten das eigene Netzwerk. Der Quellcode ist öffentlich einsehbar, was unabhängige Sicherheitsaudits ermöglicht. Für besonders sensible Umgebungen ist ein Air-Gapped-Betrieb ohne Internetverbindung möglich.
Kann ich Open-WebUI auch auf einem Mac oder Windows-PC installieren?
Ja. Open-WebUI läuft überall, wo Docker läuft. Auf macOS und Windows installieren Sie Docker Desktop und starten den Open-WebUI-Container mit demselben Befehl wie unter Linux. Apple-Silicon-Macs (M1 bis M4) eignen sich dank Unified Memory gut für lokale Modelle über Ollama. Für den produktiven Unternehmenseinsatz empfiehlt sich allerdings ein dedizierter Linux-Server.
Wie aktualisiere ich Open-WebUI?
Ein Update erfolgt in drei Schritten: Zuerst sichern Sie das Docker-Volume mit einem Backup. Dann laden Sie das neueste Image mit docker pull ghcr.io/open-webui/open-webui:main. Anschließend stoppen und starten Sie den Container neu. Die Plattform veröffentlicht im Schnitt alle vier bis fünf Tage ein neues Release, aber nicht jedes Update muss sofort eingespielt werden.
Unterstützt Open-WebUI auch Spracheingabe und Bildgenerierung?
Ja. Die Plattform bietet Speech-to-Text über Whisper (lokal oder OpenAI), Text-to-Speech über mehrere Anbieter und sogar Hands-Free-Videocalls. Für Bildgenerierung unterstützt sie DALL-E, Gemini, ComfyUI und AUTOMATIC1111. Multimodale Modelle wie LLaVA ermöglichen zusätzlich die Analyse von hochgeladenen Bildern im Chat.
Lässt sich Open-WebUI mit bestehenden Firmensystemen verbinden?
Open-WebUI lässt sich über mehrere Wege in bestehende IT-Infrastruktur einbinden. Die LDAP- und SSO-Integration sorgt für nahtlose Authentifizierung. Über das Pipelines-Framework und das Model Context Protocol (MCP) verbinden Sie die Plattform mit Dateisystemen, Datenbanken und Web-Services. Google Drive und OneDrive/SharePoint-Integration sind ebenfalls verfügbar.
Gibt es deutsche Anbieter für Managed Open-WebUI-Hosting?
Ja, mehrere deutsche Dienstleister bieten Managed Hosting für Open-WebUI an. WZ-IT bietet DSGVO-konformes Hosting mit Serverstandort Deutschland ab 199,90 Euro pro Monat an. Never Code Alone (NCA) unterstützt bei Setup, RAG-Implementation und Schulung. Alternativ hosten viele Unternehmen die Plattform selbst auf Hetzner-Servern mit dedizierter GPU.
Sie möchten KI in Ihrem Unternehmen einsetzen? Sprechen Sie uns an - wir beraten Sie unverbindlich.