Open Source KI gibt Unternehmen die Kontrolle über ihre Daten zurück. Statt Prompts und Geschäftsinformationen an US-Cloud-Dienste zu senden, betreiben mittelständische Betriebe ihre generativen Sprachmodelle (Large Language Models, kurz LLMs) auf eigenen Servern. DSGVO-konform, ohne Vendor Lock-in und zu kalkulierbaren Kosten. Laut Bitkom Open Source Monitor 2025 setzen bereits 73 Prozent der deutschen Unternehmen Open-Source-Software ein, und 73 Prozent sehen darin ein Mittel für mehr digitale Souveränität. Gleichzeitig nennen 77 Prozent Datenschutzanforderungen als größtes Hindernis bei der Digitalisierung (Bitkom 2026). Open Source KI löst genau dieses Problem.
Kennzahlen auf einen Blick
Kennzahl Wert KI-Adoptionsrate in Deutschland 41 % der Unternehmen (Bitkom 2026) Open-Source-Nutzung 73 % der deutschen Unternehmen Größtes Digitalisierungshindernis Datenschutz (77 %) GitHub-Repos mit LLM-SDK 1,1 Millionen (+178 % YoY) Kostenersparnis Self-Hosting 60-70 % vs. Cloud-API Quellen: Bitkom 2025/2026, GitHub Octoverse 2025
Was Open Source KI für den Mittelstand bedeutet
Open Source KI bezeichnet Sprachmodelle und KI-Tools, deren Quellcode oder Modellgewichte öffentlich zugänglich sind. Unternehmen können diese generativen Modelle herunterladen, auf eigener Infrastruktur betreiben und an ihre Bedürfnisse anpassen. Der Unterschied zu proprietären Diensten wie ChatGPT oder Google Gemini: Keine Daten verlassen das Unternehmen, keine monatlichen Pro-Nutzer-Gebühren, keine Abhängigkeit von den Geschäftsentscheidungen eines einzelnen Anbieters.
Open Source vs. proprietäre Sprachmodelle
Proprietäre Modelle von OpenAI, Google oder Anthropic bieten hohe Qualität, aber wenig Kontrolle. Jede Eingabe wird an externe Server übertragen. Das Modell selbst bleibt eine Blackbox. Open-Source-Modelle wie Llama von Meta, Mistral aus Frankreich oder DeepSeek funktionieren anders: Sie stehen unter offenen Lizenzen zum Download bereit. Unternehmen installieren sie auf einem eigenen Server und nutzen sie ohne externe Verbindung.
Die Qualität hat sich in den vergangenen zwei Jahren massiv verbessert. DeepSeek-R1 erreicht bei mathematischen Aufgaben 97,3 Prozent Genauigkeit (MATH-500 Benchmark) und konkurriert damit direkt mit den besten proprietären Modellen. Mistral, ein europäisches Unternehmen aus Paris, liefert mit Mistral Large 3 ein Modell, das 256.000 Token Kontext verarbeitet und mehrsprachig arbeitet. Meta veröffentlicht mit Llama 3.3 ein 70-Milliarden-Parameter-Modell, das auf Hugging Face über 567.000 monatliche Downloads verzeichnet.
Lizenzmodelle im Überblick
Nicht jedes Open-Source-Modell ist gleich offen. Die Unterschiede in den Lizenzen bestimmen, was Unternehmen damit tun dürfen.
| Modell | Anbieter | Lizenz | Kommerzielle Nutzung |
|---|---|---|---|
| Mistral Small 4 | Mistral AI (Frankreich) | Apache 2.0 | Ja, uneingeschränkt |
| DeepSeek-R1 | DeepSeek | MIT | Ja, uneingeschränkt |
| Llama 3.3 | Meta | Community License | Ja, mit Einschränkungen ab 700 Mio. Nutzer |
| Gemma 3 | Google-Lizenz | Ja, für die meisten Unternehmen | |
| Qwen 3 | Alibaba | Apache 2.0 | Ja, uneingeschränkt |
Für den Mittelstand sind Apache-2.0- und MIT-lizenzierte Modelle die sicherste Wahl. Sie erlauben kommerzielle Nutzung, Anpassung und Weiterverteilung ohne Einschränkungen. Llama von Meta ist ebenfalls nutzbar, hat aber eine Schwelle bei 700 Millionen monatlichen Nutzern - eine Grenze, die für mittelständische Betriebe keine Rolle spielt.
Welche Vorteile bietet Open Source KI gegenüber ChatGPT?
Der zentrale Vorteil von Open Source KI liegt in der Datenhoheit. Bei ChatGPT, Claude oder Gemini werden sämtliche Eingaben an Server in den USA übertragen. Beim Self-Hosting bleibt jede Anfrage auf der eigenen Infrastruktur. Kein externer Anbieter protokolliert die Prompts, kein Modell lernt aus den Unternehmensdaten.
Datenhoheit und DSGVO-Konformität
Der EU-US Data Privacy Framework regelt den Datentransfer in die USA, aber Rechtsexperten halten das Abkommen für angreifbar. Der US CLOUD Act erlaubt amerikanischen Behörden den Zugriff auf Daten bei US-Unternehmen, selbst wenn diese in Europa gespeichert sind. Für Branchen mit besonderen Anforderungen an den Datenschutz - Kanzleien, Gesundheitswesen, Finanzdienstleister - stellt das ein konkretes Risiko dar.
Self-Hosting auf deutschen Servern eliminiert dieses Problem vollständig. Kein Auftragsverarbeitungsvertrag mit einem US-Anbieter nötig, keine Diskussion über Standardvertragsklauseln, kein Restrisiko durch den CLOUD Act. Die Daten bleiben im eigenen Rechenzentrum oder bei einem deutschen Hoster wie Hetzner, der ISO/IEC 27001 und BSI C5 zertifiziert ist.
Kosten, Flexibilität und Anbieterunabhängigkeit
ChatGPT Team kostet 30 US-Dollar pro Nutzer und Monat. Bei 50 Mitarbeitern summiert sich das auf 1.500 Dollar monatlich, und die Kosten steigen linear mit jedem weiteren Nutzer. Ein selbst gehosteter KI-Stack auf einem Hetzner GPU-Server kostet dagegen einen festen Betrag, unabhängig von der Nutzeranzahl.
Dazu kommt die Flexibilität: Proprietäre Dienste können Funktionen ändern, Preise erhöhen oder Nutzungsbedingungen anpassen. OpenAI hat das in der Vergangenheit mehrfach getan. Bei Open-Source-Modellen entscheidet das Unternehmen selbst, welches Modell es einsetzt, wann es aktualisiert und wie es konfiguriert wird. Kein Vendor Lock-in, keine Überraschungen.
Self-Hosting-Stack: Ollama, Open WebUI und Hetzner
Ein produktionsfähiger Open Source KI-Stack besteht aus drei Komponenten: einer Modell-Engine, einer Benutzeroberfläche und der passenden Hardware. Die Kombination aus Ollama, Open WebUI und einem Hetzner GPU-Server deckt alle drei ab. Diese drei Tools bilden die Grundlage für den Einsatz von Open Source KI im Mittelstand.
Die Einrichtung läuft in vier Schritten:
- GPU-Server bei Hetzner mieten (keine Mindestlaufzeit)
- Ollama installieren (ein Befehl)
- Open WebUI per Docker starten (ein Befehl)
- Modell laden und loslegen
Ollama als Modell-Engine
Ollama ist die Laufzeitumgebung für Open-Source-Sprachmodelle. Ein einziger Befehl auf der Kommandozeile genügt, um ein Modell herunterzuladen und zu starten. Die Software verwaltet Modelle, stellt eine REST-API bereit und ist kompatibel mit dem OpenAI-API-Format. Das bedeutet: Bestehende Anwendungen, die bisher OpenAI nutzen, lassen sich oft ohne Code-Änderung auf Ollama umstellen.
Die Modellbibliothek umfasst über 40.000 Modelle. Die populärsten: Llama 3.1 mit über 111 Millionen Downloads, DeepSeek-R1 mit 80 Millionen Downloads und Gemma 3 mit 33 Millionen Downloads. Ollama selbst hat 166.000 GitHub Stars und über 40.000 Integrationen mit Tools wie LangChain, n8n oder Dify.
Open WebUI als Benutzeroberfläche
Open WebUI liefert die grafische Oberfläche, die Mitarbeiter ohne technische Vorkenntnisse brauchen. Das Interface ähnelt ChatGPT: Ein Chat-Fenster, Modellauswahl, Gesprächsverlauf. Unter der Haube bietet Open WebUI Funktionen, die für den Unternehmenseinsatz entscheidend sind: Benutzerverwaltung mit Rollen und Berechtigungen, SSO-Anbindung, Audit-Logs und die Möglichkeit, eigene Dokumente als Wissensbasis einzubinden (RAG).
Mit über 290 Millionen Downloads und 128.000 GitHub Stars gehört Open WebUI zu den am schnellsten wachsenden Open-Source-Projekten weltweit. In unserem Praxis-Guide zu Open WebUI finden Sie eine detaillierte Anleitung für Einrichtung und Betrieb.
Hetzner GPU-Server als Infrastruktur
Für den Betrieb von Open-Source-KI-Modellen braucht ein Server eine GPU mit ausreichend Videospeicher (VRAM). Hetzner bietet mit der GEX-Produktlinie dedizierte GPU-Server in deutschen Rechenzentren an.
| Server | GPU | VRAM | Geeignet für | Preisbereich |
|---|---|---|---|---|
| GEX44 | NVIDIA RTX 4000 SFF Ada | 20 GB | Modelle bis 14B Parameter | Ab ca. 60-120 Euro/Monat |
| GEX131 | NVIDIA RTX PRO 6000 Blackwell | 96 GB | Modelle bis 70B Parameter | Ab ca. 200-400 Euro/Monat |
Die Standorte Falkenstein und Nürnberg garantieren, dass alle Daten in Deutschland verarbeitet werden. Hetzner ist ISO/IEC 27001 und BSI C5 zertifiziert, bietet 99,9 Prozent Uptime und hat keine Mindestvertragslaufzeit. Ein Hetzner-Kunde berichtet, die Kosten seien zehn- bis zwölfmal niedriger als bei vergleichbaren US-Cloud-Anbietern.
Welche Hardware braucht man für Open Source KI?
Die Hardware-Anforderungen hängen von der Modellgröße ab. Der entscheidende Faktor ist der Videospeicher (VRAM) der GPU. Ein 7-Milliarden-Parameter-Modell wie Mistral Small benötigt rund 4-8 GB VRAM. Ein 70B-Modell wie Llama 3.3 braucht 40-48 GB VRAM, je nach Quantisierungsstufe.
Quantisierung reduziert die Modellgröße, indem sie die Rechengenauigkeit verringert. Ein 4-Bit quantisiertes 70B-Modell passt auf eine GPU mit 48 GB VRAM und liefert dabei noch über 95 Prozent der ursprünglichen Qualität. Tools wie Ollama übernehmen die Quantisierung automatisch - das macht Open Source KI auch mit begrenzter Hardware nutzbar.
Kostenvergleich: Self-Hosting vs. API-Nutzung
Für ein Unternehmen mit 50 aktiven KI-Nutzern sieht die Rechnung so aus:
| Posten | Cloud-API (ChatGPT Team) | Self-Hosting (Hetzner GEX44) |
|---|---|---|
| Monatliche Kosten | 1.500 USD (30 USD/Nutzer) | 100-200 Euro (fix) |
| Kosten pro zusätzlichem Nutzer | +30 USD/Monat | 0 Euro |
| Modelle | GPT-4o (ein Anbieter) | Llama, Mistral, DeepSeek (frei wählbar) |
| Datenverarbeitung | USA (CLOUD Act) | Deutschland (DSGVO) |
| 5-Jahres-TCO | ca. 90.000 USD | ca. 15.000-30.000 Euro + IT-Personal |
Der Break-Even liegt bei etwa 20-30 aktiven Nutzern. Ab dieser Schwelle ist Self-Hosting günstiger als Cloud-APIs. Für kleine Teams unter 10 Nutzern kann ein API-basierter Ansatz wirtschaftlicher sein. Die Empfehlung: Ein Hybrid-Modell, bei dem 80 Prozent der Standardaufgaben über selbst gehostete Modelle laufen und Frontier-Modelle per API nur für besonders komplexe Aufgaben genutzt werden. Dienste wie Groq bieten dabei besonders schnelle Inference für Open-Source-Modelle als Cloud-Ergänzung. Wer KI in der Breite einsetzen möchte, findet in unserem Guide zu KI für Unternehmen eine passende Strategie.
Ist Open Source KI DSGVO-konform?
Open-Source-KI-Modelle sind nicht automatisch DSGVO-konform - aber Self-Hosting macht die Einhaltung deutlich einfacher. Wenn ein Sprachmodell auf einem Server in Deutschland läuft und keine Daten an Dritte übermittelt, entfällt der komplette Problembereich des Drittstaaten-Transfers. Die Verarbeitung personenbezogener Daten bleibt unter der Kontrolle des Unternehmens.
Datenschutz bei lokaler Verarbeitung
Bei Self-Hosting ist das Unternehmen selbst Verantwortlicher im Sinne der DSGVO. Es muss die Verarbeitung personenbezogener Daten in seinem Verarbeitungsverzeichnis dokumentieren und geeignete technische und organisatorische Maßnahmen (TOMs) umsetzen. Aber: Es gibt keinen Auftragsverarbeiter, keinen Drittstaaten-Transfer, kein Risiko durch den CLOUD Act.
Konkret bedeutet das: Wenn ein Mitarbeiter eine E-Mail mit Kundendaten durch das KI-System zusammenfassen lässt, bleiben diese Daten auf dem eigenen Server. Kein US-Unternehmen kann darauf zugreifen, kein LLM wird mit diesen Daten nachtrainiert. Für Branchen mit besonders sensiblen Daten - Anwaltskanzleien mit Mandatsgeheimnis, Gesundheitseinrichtungen mit Patientendaten, Finanzdienstleister mit BaFin-Auflagen - ist Open Source KI mit Self-Hosting die sicherste Lösung.
EU AI Act und Open-Source-Modelle
Der EU AI Act ist seit August 2024 in Kraft und wird stufenweise angewendet. Seit Februar 2025 gilt die KI-Kompetenzpflicht: Unternehmen müssen sicherstellen, dass Mitarbeiter, die KI-Systeme bedienen, über ausreichende Kompetenz verfügen. Ab August 2026 greifen die Transparenzpflichten für Hochrisiko-KI-Systeme.
Für die meisten internen Anwendungen im Mittelstand - Textzusammenfassungen, E-Mail-Entwürfe, Code-Unterstützung, Übersetzungen - fällt Open Source KI unter die Kategorie “minimales Risiko” und ist kaum reguliert. Wer KI allerdings in HR-Prozessen wie Bewerberscreening oder im Kreditscoring einsetzt, muss strengere Dokumentationspflichten erfüllen. Die EU-Kommission hat im November 2025 Vereinfachungen für KMU vorgeschlagen, darunter vereinfachte technische Dokumentation und erweiterte Regulatory Sandboxes ab 2028.
Kann man Open Source KI ohne Programmierkenntnisse nutzen?
Ja. Die Zeiten, in denen Open-Source-KI nur für Entwickler zugänglich war, sind vorbei. Tools wie Ollama und Open WebUI haben die Einstiegshürde drastisch gesenkt. Wer mit Docker umgehen kann oder bereit ist, drei Befehle auf der Kommandozeile auszuführen, kann einen funktionsfähigen KI-Stack in unter einer Stunde aufsetzen.
Deployment mit Docker und Open WebUI
Open WebUI lässt sich mit einem einzigen Docker-Befehl starten. Docker ist eine Container-Technologie, die Software in einer isolierten Umgebung ausführt - vergleichbar mit einer App, die alles mitbringt, was sie zum Laufen braucht. Die IT-Abteilung startet den Container, und die Mitarbeiter greifen über den Browser auf die ChatGPT-ähnliche Oberfläche zu.
Für Unternehmen ohne eigene IT-Abteilung gibt es Managed-Hosting-Angebote, bei denen Dienstleister den Open Source KI-Stack auf deutschen Servern betreiben und warten. Das Unternehmen nutzt die KI über den Browser, ohne sich um Updates, GPU-Treiber oder Modellverwaltung zu kümmern. Die Kosten liegen zwischen denen von Self-Hosting und Cloud-APIs, aber die Datenhoheit bleibt gewahrt.
Die Open-Source-Community spielt dabei eine zentrale Rolle: Fehler werden schnell entdeckt und behoben, neue Funktionen entstehen durch die Zusammenarbeit tausender Entwickler weltweit. Anders als bei proprietären Anbietern kann jedes Unternehmen den Code prüfen und sicherstellen, dass keine versteckten Datenabflüsse existieren. Laut GitHub Octoverse 2025 verzeichnen KI-fokussierte Open-Source-Projekte ein Contributor-Wachstum von 150 Prozent - dreimal so viel wie der Median aller Open-Source-Projekte.
Erweiterter Open-Source-KI-Stack für den produktiven Einsatz
Der Basis-Stack aus Ollama, Open WebUI und Hetzner reicht für den Einstieg. Für den produktiven Betrieb mit mehreren Abteilungen braucht ein Unternehmen zusätzliche Komponenten. Die Stadt München hat ihren kompletten KI-Stack auf Open-Source-Basis aufgebaut und dokumentiert - ein Vorbild für den Mittelstand.
RAG: Unternehmenswissen für die KI erschließen
Retrieval Augmented Generation (RAG) verbindet ein Sprachmodell mit der eigenen Wissensbasis. Statt das Modell mit allgemeinem Wissen zu befragen, durchsucht RAG zuerst die internen Dokumente und liefert dem Modell die relevanten Passagen als Kontext. Das Ergebnis: Antworten, die auf den tatsächlichen Unternehmensunterlagen basieren - Verträge, Handbücher, Produktdaten, Richtlinien.
Open WebUI bringt RAG bereits integriert mit. Für größere Dokumentenbestände empfiehlt sich eine dedizierte Vektordatenbank wie Qdrant oder Chroma. Diese speichern Dokumente als mathematische Vektoren und finden semantisch ähnliche Passagen in Millisekunden - auch wenn die Suchbegriffe nicht wörtlich im Dokument vorkommen.
| Komponente | Tool | Funktion |
|---|---|---|
| Vektordatenbank | Qdrant, Chroma, pgvector | Dokumente speichern und semantisch durchsuchen |
| Dokumenten-Parser | Docling | PDFs, Word-Dateien und Tabellen aufbereiten |
| Embedding-Modell | nomic-embed-text | Text in Vektoren umwandeln (läuft lokal via Ollama) |
LiteLLM: Mehrere Modelle über eine API steuern
Im produktiven Betrieb nutzen verschiedene Abteilungen unterschiedliche Modelle: Der Kundenservice braucht ein schnelles, günstiges Modell für E-Mail-Entwürfe. Die Rechtsabteilung benötigt ein Reasoning-Modell für komplexe Vertragsanalysen. LiteLLM löst dieses Problem als API-Gateway: Es stellt eine einheitliche Schnittstelle bereit, über die verschiedene Modelle angesprochen werden - lokal gehostete via Ollama und optional externe Frontier-Modelle per API.
LiteLLM bietet dazu Budget-Limits pro Team, Nutzungsstatistiken und automatisches Fallback: Wenn ein lokales Modell ausgelastet ist, leitet es Anfragen an ein alternatives Modell weiter. Das OpenAI-kompatible API-Format bedeutet, dass bestehende Tools ohne Anpassung funktionieren.
Langfuse: KI-Nutzung transparent machen
Wer KI im Unternehmen produktiv betreibt, braucht Transparenz: Welche Abteilung nutzt welches Modell wie oft? Wie lange dauern Antworten? Wo entstehen Fehler? Langfuse ist ein Open-Source-Monitoring-Tool, das diese Fragen beantwortet. Es zeichnet jede KI-Anfrage auf, misst Antwortzeiten und Kosten und macht die Nutzung über Dashboards sichtbar.
Für die Compliance-Anforderungen des EU AI Act ist Langfuse besonders wertvoll: Die Audit-Logs dokumentieren, wer wann welche KI-Anfrage gestellt hat. Bei Hochrisiko-Anwendungen verlangt der AI Act genau diese Nachvollziehbarkeit.
Die wichtigsten Open-Source-KI-Modelle 2026
Die Auswahl an leistungsfähigen Open Source KI-Modellen ist so groß wie nie zuvor. Über 1,1 Millionen Repositories auf GitHub nutzen ein LLM-SDK - ein Anstieg von 178 Prozent gegenüber dem Vorjahr (GitHub Octoverse 2025). Von kleinen 3-Milliarden-Parameter-Modellen für Edge-Geräte bis zu großen LLMs mit mehreren hundert Milliarden Parametern deckt das Open-Source-Ökosystem mittlerweile jeden Anwendungsfall ab.
| Modell | Parameter | Stärke | Ideal für |
|---|---|---|---|
| DeepSeek-R1 | 671B (37B aktiv) | Reasoning, Mathematik | Analyse, Recherche, komplexe Fragen |
| Llama 3.3 | 70B | Vielseitig, großes Ökosystem | Allzweck-Einsatz, RAG-Systeme |
| Mistral Small 4 | 24B | Effizient, mehrsprachig | E-Mail, Zusammenfassungen, Chat |
| Qwen 3 | 0,6B-235B | Starkes Deutsch, MoE-Architektur | Mehrsprachiger Einsatz |
| Gemma 3 | 27B | Läuft auf einzelner GPU | Einstieg mit begrenzter Hardware |
Für den Einstieg empfiehlt sich Mistral Small 4: Das Modell ist effizient genug für einen GEX44-Server, unterstützt Text und Bild, und die Apache-2.0-Lizenz erlaubt uneingeschränkte kommerzielle Nutzung. Wer mehr Rechenleistung hat, greift zu DeepSeek-R1 in der destillierten 32B-Variante - ein Modell, das bei Reasoning-Aufgaben proprietäre Alternativen übertrifft. Die Lizenzmodelle unterscheiden sich dabei deutlich: Apache 2.0 und MIT erlauben maximale Freiheit, während einige Modelle Einschränkungen für bestimmte Nutzungsszenarien vorsehen.
So starten Sie mit Open Source KI im eigenen Unternehmen
Der Einstieg in Open Source KI muss kein Großprojekt sein. Ein Pilotprojekt mit einem kleinen Team reicht, um den Nutzen zu bewerten und Erfahrungen zu sammeln. Die Investitionsbereitschaft in Digitalisierung steigt laut Bitkom deutlich: 36 Prozent der Unternehmen wollen 2026 mehr investieren als im Vorjahr. Gleichzeitig klagt ein Drittel der KI-nutzenden Unternehmen über unerwartet hohe Kosten bei proprietären Lösungen. Open Source KI bietet hier einen kosteneffizienten Einstieg.
Schritt für Schritt zum produktiven Einsatz
Der Weg vom ersten Test bis zur produktiven Nutzung lässt sich in drei Phasen gliedern:
| Stufe | Bezeichnung | Typische Merkmale | Zeitrahmen |
|---|---|---|---|
| 1 | Evaluierung | Ein Modell testen, Anwendungsfälle identifizieren | 1-2 Wochen |
| 2 | Pilotbetrieb | 5-10 Nutzer, eine Abteilung, definierter Anwendungsfall | 1-3 Monate |
| 3 | Produktivbetrieb | Rollout auf weitere Abteilungen, RAG-Anbindung, Workflows | 3-6 Monate |
In Phase 1 mieten Sie einen Hetzner GEX44 ohne Mindestlaufzeit, installieren Ollama und Open WebUI und laden ein Modell wie Mistral Small 4. In Phase 2 binden Sie eine erste Abteilung ein - etwa den Kundenservice für E-Mail-Entwürfe oder die Rechtsabteilung für Vertragszusammenfassungen. In Phase 3 integrieren Sie das System in bestehende Workflows, bauen eine Wissensbasis per RAG auf und schulen Ihre Mitarbeiter im Umgang mit KI. Die KI-Kompetenzpflicht des EU AI Act macht diese Schulung seit Februar 2025 ohnehin zur Pflicht.
Wer einen strukturierten Überblick über KI-Assistenten und ihre Einsatzmöglichkeiten sucht, findet dort konkrete Tool-Vergleiche für verschiedene Unternehmensgrößen.
Open Source KI ist keine Zukunftsmusik mehr. Die Modelle sind leistungsfähig, die Tools ausgereift und die Infrastruktur in Deutschland verfügbar. Der technische Aufwand für Self-Hosting ist überschaubar, der Gewinn an Datenhoheit und Kostenkontrolle dagegen erheblich. Für mittelständische Unternehmen, die KI nutzen wollen, ohne ihre Daten aus der Hand zu geben, ist Self-Hosting mit Open Source KI der logische nächste Schritt.
Sie möchten Open Source KI in Ihrem Unternehmen einsetzen? Sprechen Sie uns an - wir beraten Sie unverbindlich zu Self-Hosting, Modellauswahl und DSGVO-konformer Infrastruktur.
Häufige Fragen
Was versteht man unter Open-Source-KI?
Open-Source-KI bezeichnet Modelle für künstliche Intelligenz, deren Quellcode oder Modellgewichte öffentlich zugänglich sind. Unternehmen können diese Modelle frei herunterladen, auf eigener Hardware betreiben und an spezifische Anforderungen anpassen. Bekannte Beispiele sind Llama von Meta, Mistral aus Frankreich und DeepSeek.
Ist ChatGPT Open Source?
Nein, ChatGPT von OpenAI ist ein proprietäres Produkt. Der Quellcode und die Modellgewichte sind nicht öffentlich zugänglich. OpenAI hat zwar mit gpt-oss erste Open-Weight-Modelle veröffentlicht, aber das Hauptprodukt ChatGPT bleibt geschlossen. Alternativen wie Llama, Mistral oder DeepSeek sind unter offenen Lizenzen verfügbar.
Welche KI kann man kostenlos nutzen?
Open-Source-KI-Modelle wie Llama 3.3, Mistral Small 4, DeepSeek-R1 und Gemma 3 stehen kostenlos zum Download bereit. Die Modelle selbst kosten nichts, aber für den Betrieb braucht man Hardware mit einer geeigneten GPU. Auf einem gemieteten GPU-Server wie dem Hetzner GEX44 lassen sich diese Modelle ab etwa 60-120 Euro pro Monat betreiben.
Was ist der Unterschied zwischen Open-Source-KI und proprietärer KI?
Bei proprietärer KI wie ChatGPT oder Gemini werden alle Eingaben an externe Server übertragen, und der Anbieter kontrolliert Funktionen, Preise und Nutzungsbedingungen. Bei Open-Source-KI liegt der Quellcode offen, Unternehmen können die Modelle auf eigenen Servern betreiben und behalten die volle Kontrolle über ihre Daten. Proprietäre Modelle bieten aktuell noch einen leichten Qualitätsvorsprung bei sehr komplexen Aufgaben, aber die Lücke schließt sich schnell.
Welche Open-Source-KI-Modelle gibt es?
Die wichtigsten Open-Source-KI-Modelle 2026 sind DeepSeek-R1 (stark bei Reasoning), Llama 3.3 von Meta (vielseitiger Allrounder), Mistral Small 4 (effizient und mehrsprachig), Qwen 3 von Alibaba (starkes Deutsch) und Gemma 3 von Google (kompakt und effizient). Auf Plattformen wie Hugging Face und Ollama stehen über 40.000 Modelle für verschiedene Anwendungsfälle bereit.
Kann ein US-KI-Anbieter gleichzeitig DSGVO-konform sein?
US-KI-Anbieter können unter dem EU-US Data Privacy Framework Daten verarbeiten, aber der US CLOUD Act erlaubt amerikanischen Behörden den Zugriff auf Daten bei US-Unternehmen. Rechtsexperten halten dieses Konstrukt für angreifbar. Für Unternehmen mit sensiblen Daten ist Self-Hosting auf deutschen Servern die rechtssicherste Option.
Welche Hardware benötige ich, um KI-Modelle lokal zu betreiben?
Der wichtigste Faktor ist der Videospeicher (VRAM) der GPU. Ein 7-Milliarden-Parameter-Modell benötigt rund 4-8 GB VRAM, ein 70B-Modell 40-48 GB VRAM. Für den Einstieg genügt ein Server mit 20 GB VRAM wie der Hetzner GEX44. Durch Quantisierung lassen sich größere Modelle auf kleinerer Hardware betreiben, mit nur geringem Qualitätsverlust.
Ist Open-Source-KI sicher?
Open-Source-KI hat beim Thema Sicherheit einen strukturellen Vorteil: Der offene Quellcode kann von der gesamten Community geprüft werden, Sicherheitslücken werden schneller entdeckt und behoben. Beim Self-Hosting auf eigenen Servern entfällt zudem das Risiko eines Datenabflusses an Dritte. Unternehmen sollten dennoch Standardmaßnahmen wie Zugriffskontrollen, verschlüsselte Verbindungen und regelmäßige Updates umsetzen.
Wie lange dauert es, Open-Source-KI im Unternehmen einzurichten?
Mit Tools wie Ollama und Open WebUI ist ein funktionsfähiger KI-Stack in unter einer Stunde einsatzbereit. Die Einrichtung umfasst vier Schritte: GPU-Server mieten, Ollama installieren, Open WebUI per Docker starten und ein Modell laden. Für den produktiven Einsatz mit Benutzerverwaltung, Wissensbasis und Abteilungsrollout sollten 1-3 Monate eingeplant werden.
Welche Kosten entstehen beim Self-Hosting von KI?
Die Kosten setzen sich aus der Servermiete und dem internen IT-Aufwand zusammen. Ein Hetzner GEX44 mit 20 GB VRAM kostet etwa 60-120 Euro pro Monat, ein GEX131 mit 96 GB VRAM zwischen 200 und 400 Euro. Die Modelle selbst und die Software (Ollama, Open WebUI) sind kostenlos. Im Vergleich zu ChatGPT Team (30 Dollar pro Nutzer) amortisiert sich Self-Hosting ab etwa 20-30 aktiven Nutzern.
Sie möchten KI in Ihrem Unternehmen einsetzen? Sprechen Sie uns an - wir beraten Sie unverbindlich.