Open Source AI

Offen. Aber was genau bedeutet das?

Nicht alle KI-Modelle sind gleich offen — und nicht alle offenen Modelle passen zu jeder Organisation. Diese Seite hilft dir einzuordnen, was Open Source AI wirklich bedeutet und wann es für euch relevant wird.

Was “offen” bei AI-Modellen wirklich bedeutet

Der Begriff “Open Source AI” wird uneinheitlich verwendet — und das ist kein Zufall. OpenAI heißt “open” und ist es nicht. Llama von Meta nennt sich nicht Open Source — macht aber die Modellgewichte zugänglich. Mistral gilt als offen. DeepSeek auch. Und trotzdem sind das sehr unterschiedliche Dinge.

Der Schlüssel: Ein KI-Modell besteht aus mehreren Schichten. Nicht alle müssen offen sein:

Closed SourceChatGPT, Claude, Gemini Ultra

Modell läuft auf den Servern des Anbieters. Code, Gewichte und Training sind nicht einsehbar. Du nutzt es über eine API.

Open WeightLlama (Meta), Mistral, DeepSeek, Gemma

Die trainierten Modellgewichte sind öffentlich. Du kannst sie herunterladen und selbst betreiben. Trainingsdaten und -code sind meist nicht offen.

Vollständig Open SourceFalcon (teilweise), OLMo (Allen AI)

Code, Gewichte und Trainingsdaten sind offen. Selten — aber die ehrlichste Form von Offenheit.

Die praktische Konsequenz: “Open Source AI” ist keine Eigenschaft eines Dings — es ist eine Frage auf welcher Schicht du schaust. Das Werkzeug zum Betreiben (z.B. Ollama) kann Open Source sein, während das Modell das du damit betreibst eine eigene Lizenz hat.

Ralf Kruse

“Open Source AI ist nicht der Weg zu den leistungsfähigsten Modellen. Es ist der Weg zu passenden, datenschutzkonformen Systemen für den eigenen Kontext.”

Ralf Kruse, EnableChange

Warum Open Source AI für Organisationen relevant wird

Die meisten Organisationen starten mit fertigen Lösungen — ChatGPT, Copilot, Claude. Das ist vernünftig. Aber an einem Punkt stoßen viele auf dieselben drei Fragen:

Datenschutz & DSGVO

Vertrauliche Daten — Kundendaten, interne Dokumente, HR-Informationen — dürfen nicht einfach an externe APIs gesendet werden. Wer ein Modell lokal betreibt, schickt keine Daten nach draußen. Das ist das stärkste Argument für Open Source AI in regulierten Branchen.

Anbieter-Abhängigkeit

OpenAI war ursprünglich offen — und hat sich geschlossen. Anthropic, Google und andere folgen ähnlichen Mustern. Wer strategisch auf einen einzelnen Anbieter setzt, gibt Kontrolle ab: über Preise, Verfügbarkeit, Bedingungen. Open Source AI ist die Antwort auf dieses Lock-in.

Anpassung auf den eigenen Kontext

Organisationen brauchen KI die ihre Sprache spricht, ihre Prozesse kennt, ihre Dokumente versteht. Fine-Tuning und RAG ermöglichen das — aber nur wenn man Zugriff auf das Modell hat. Mit einem offenen Modell ist das möglich. Mit einer geschlossenen API nicht.

Entscheidend dabei: Nicht das Modell entscheidet über DSGVO-Konformität — sondern wo es betrieben wird. Ein Modell aus China (DeepSeek), lokal auf einem deutschen Server betrieben, ist datenschutzrechtlich unbedenklich. Dasselbe Modell über eine externe API zu nutzen kann problematisch sein.

Die Modell-Landschaft

Wer macht was — und wofür eignet es sich?

Organisationen haben in aller Regel nicht die Kapazität, Modelle von Grund auf selbst zu trainieren. Sie greifen auf Basismodelle zurück die sie dann anpassen — per Fine-Tuning, per RAG, oder durch kreative Nutzung für spezifische Use Cases. Die Orientierung was es gibt ist deshalb wichtig.

Llama 3USA · 8B, 70B, 405B Parameter

Meta gibt es strategisch frei — nicht aus Philanthropie sondern als Wettbewerbsstrategie

Gut für: Allgemeine Aufgaben, Fine-Tuning-Basis, Einstieg

MistralEuropa (Frankreich) · 7B, 22B, 141B Parameter

Einziges Modell das beide Wege bedient: EU-API und lokaler Open-Weight-Betrieb

Gut für: DSGVO-kritische Kontexte, Europäische Organisationen, Effizienter lokaler Betrieb

DeepSeekChina · 7B, 67B, 671B Parameter

Beweist dass Frontier-Performance keine Milliarden-Budgets braucht

Gut für: Lokal betrieben für hohe Qualität, Code-Generierung, Reasoning-Aufgaben

GemmaUSA · 2B, 7B, 27B Parameter

Kleinste Modelle mit überraschend guter Qualität

Gut für: Eingebettete Anwendungen, Einstieg auf schwacher Hardware, Mobile/Edge

Modelle entwickeln sich schnell. Die Landscape oben ist ein Snapshot — nicht das letzte Wort. Was stabil bleibt: die Frage welches Modell für welchen Zweck und mit welcher Infrastruktur.

Stand: Mai 2026 · Wird bei KB-Updates automatisch aktualisiert

Was man damit macht

Drei Wege wie Organisationen Open-Source-Modelle einsetzen — von einfach bis anspruchsvoll.

RAG — Eigene Dokumente einbinden

Mehr →

RAG hat den Proof-of-Concept-Status hinter sich gelassen: Unternehmen betreiben es produktiv als Knowledge-Base-Infrastruktur — die Herausforderung ist nicht mehr ob es funktioniert, sondern wie es zuverlässig bleibt.

  • ·Query enhancement is necessary because real users write ambiguous, incomplete queries that match poorly against well-structured knowledge base documents
  • ·Interne Wissensdatenbanken: Mitarbeitende fragen Prozesse, Richtlinien und Handbücher — das System antwortet mit Quellenangabe auf Basis aktueller Dokumente

Einstiegsaufwand: mittel · Kein Modell-Training nötig

Fine-Tuning — Modell anpassen

Mehr →

Fine-Tuning lohnt sich wenn ein Basismodell konsistent in einer bestimmten Sprache, einem Ton oder Aufgabenformat antworten soll — und RAG dafür nicht ausreicht.

  • ·Das Modell soll einen spezifischen Schreibstil oder Ton konstant einhalten — z.B. Unternehmenssprache, juridische Formulierungen oder technische Präzision
  • ·Eine eng definierte Aufgabe wird sehr häufig ausgeführt — z.B. Klassifizierung, Extraktion oder strukturierte Ausgaben in einem bestimmten Format

Einstiegsaufwand: hoch · Trainingsdaten + GPU nötig

DSGVO-konformer Betrieb

Mehr →

Lokal betriebene Modelle sind 2026 für viele Business-Aufgaben praxistauglich — wenn die Hardware stimmt.

  • ·Ollama + quantisierte Modelle (Q4/Q5): Llama 3, Mistral 7B, Phi-3 Mini laufen auf Standard-Hardware. Für Text-Zusammenfassung, Klassifizierung, interne Dokumente gut geeignet.
  • ·LM Studio als Desktop-Interface: Keine Server-Infrastruktur nötig, lokal auf MacBook/Windows-Laptop, zero networking. Ideal für Einzelnutzer oder kleine Teams.

Einstiegsaufwand: niedrig–mittel · Kein Cloud-Anbieter nötig

Stand: 2026-05 · Aktualisiert wenn KB-Daten sich ändern

Andere Regeln: Was Lizenzen wirklich bedeuten

“Frei” bedeutet nicht “ohne Bedingungen”. Jedes offene Modell hat eine Lizenz — und die unterscheiden sich erheblich.

Apache 2.0 / MIT

Sehr freizügig. Kommerzielle Nutzung erlaubt, keine Einschränkungen für Anwendungsfälle. Beispiel: viele Mistral-Modelle.

Llama License (Meta)

Scheinbar offen — aber mit Einschränkungen. Kommerzielle Nutzung erlaubt bis zu einem Schwellenwert (700M Nutzer). Verwendung zum Training konkurrierender Modelle verboten. Immer im Original lesen.

RAIL (Responsible AI License)

Nutzungseinschränkungen sind direkt eingebaut: bestimmte schädliche Anwendungen sind verboten. Gut gemeint — aber erzwingbar ist das kaum.

Die Faustregel: Für interne Organisationsnutzung sind die meisten Lizenzen unproblematisch. Wer auf Basis offener Modelle eigene Produkte oder Services baut, muss die Lizenz genauer prüfen — insbesondere bei kommerzieller Nutzung in größerem Maßstab.

Wann lohnt sich Open Source AI?

Open Source AI ist kein Selbstzweck. Die Frage ist immer: macht es für diesen Kontext, diesen Use Case, diese Organisation Sinn — gegenüber einer fertigen Lösung?

Eher Open Source wenn…

  • Vertrauliche Daten das Haus nicht verlassen dürfen
  • Unabhängigkeit von Anbietern strategisch wichtig ist
  • Das Modell auf eigene Daten/Sprache zugeschnitten werden soll
  • Bei hohem Volumen kalkulierbare Kosten wichtig sind
  • Technische Kapazität für Betrieb und Wartung vorhanden ist

Eher fertige Lösung wenn…

  • Schnelle Prototypen ohne eigene Infrastruktur gebraucht werden
  • Frontier-Performance wichtiger ist als Datenschutz
  • Kein technisches Team für Betrieb und Wartung vorhanden
  • Die Anwendung nicht sensibel ist und Daten offen sein können
  • Time-to-Value wichtiger ist als langfristige Kontrolle

“Kostenlos” ist Open Source AI übrigens nie — der Begriff täuscht. Hardware, Betrieb, Wartung und das Know-how für Fine-Tuning und RAG kosten. Die Frage ist: welche Kosten sind kalkulierbar und kontrollierbar?

Häufige Fragen

Was ist Open Source AI?

Open Source AI bedeutet dass der Code, die Modellgewichte oder beides frei zugänglich sind. Der Begriff wird uneinheitlich verwendet: Manche Modelle geben nur die Gewichte frei (Open Weight), andere auch den Trainingscode. Entscheidend ist immer: was genau ist offen — und für wen?

Was ist der Unterschied zwischen Open Source und Open Weight?

Open Weight bedeutet: die trainierten Modellgewichte sind zum Download verfügbar. Open Source (im strengen Sinn) bedeutet: auch der Trainingscode und idealerweise die Trainingsdaten sind öffentlich. Die meisten populären Modelle wie Llama oder Mistral sind Open Weight — nicht vollständig Open Source.

Ist Open Source AI DSGVO-konform?

Es kommt nicht auf das Modell an, sondern darauf wo es betrieben wird. Ein Modell wie DeepSeek oder Llama, das lokal auf einem eigenen Server in Deutschland betrieben wird, ist DSGVO-konform — weil keine Daten das Haus verlassen. Dasselbe Modell über eine externe API zu nutzen kann problematisch sein.

Wann lohnt sich Open Source AI für Organisationen?

Open Source AI lohnt sich besonders wenn Datenschutz und DSGVO kritisch sind, wenn hohe Abhängigkeit von einem einzelnen Anbieter vermieden werden soll, wenn das Modell auf interne Daten zugeschnitten werden muss, oder wenn bei hohem Volumen die Kosten kalkulierbar sein müssen. Es lohnt sich weniger wenn schnelle Prototypen ohne eigene Infrastruktur gebraucht werden.

Welche Open Source KI-Modelle gibt es?

Die wichtigsten Open-Weight-Modelle: Llama (Meta) als de-facto Standard, Mistral (europäisch, sehr effizient), DeepSeek (chinesisch, Frontier-nah), Gemma (Google, sehr kompakt). Alle können lokal betrieben werden, haben aber unterschiedliche Lizenzen und Stärken.

Gemeinsam erkunden

Open Source AI im Organisationskontext

Du fragst dich ob und wie Open Source AI für eure Organisation relevant ist? Lass uns das gemeinsam einordnen.

Gespräch anfragen