Am 5. April 2025 hat Meta Llama 4 veröffentlicht – und damit eine neue Messlatte für Open-Source-KI gesetzt. Die neue Modellfamilie ist nicht nur technisch beeindruckend, sondern für den deutschen Mittelstand aus einem bestimmten Grund besonders relevant: Sie kann vollständig auf eigener Infrastruktur betrieben werden, ohne dass Daten das Unternehmen verlassen.
Die Llama-4-Modellfamilie im Überblick
Meta veröffentlichte zwei sofort verfügbare Modelle sowie ein noch im Training befindliches:
Llama 4 Scout:
- 17 Milliarden aktive Parameter (109 Milliarden gesamt)
- Mixture-of-Experts (MoE)-Architektur – nur relevante Parameter werden pro Anfrage aktiviert
- 10 Millionen Token Kontextfenster – das weiteste aller öffentlich verfügbaren Modelle
- Multimodal: verarbeitet Text und Bilder gemeinsam
- Läuft auf einer einzelnen NVIDIA H100-GPU
Llama 4 Maverick:
- 17 Milliarden aktive Parameter (400 Milliarden gesamt)
- Multimodal, optimiert für komplexere Aufgaben
- Übertrifft GPT-4o und Gemini 2.0 Flash auf mehreren Benchmarks
Llama 4 Behemoth (in Training):
- Über 2 Billionen Parameter gesamt – das mit Abstand größte Modell, das Meta je trainiert hat
- Soll als Lehrer-Modell für spätere Scout- und Maverick-Versionen dienen
Alle Modelle sind unter einer offenen Lizenz (Meta Llama 4 Community License) verfügbar, die kommerzielle Nutzung bis zu einem bestimmten Nutzervolumen erlaubt.
Das 10-Millionen-Token-Kontextfenster: Praxisbedeutung
Zum Vergleich: Gemini 2.5 Pro hatte zum Release-Zeitpunkt 1 Million Token, Claude 3.7 Sonnet 200.000 Token. Llama 4 Scout geht damit um den Faktor 10 über das bislang Weiteste hinaus.
Was bedeutet das konkret für ein mittelständisches Unternehmen?
- Vollständige Vertragswerke – auch umfangreiche Rahmenverträge mit Anhängen – in einem einzigen Durchlauf analysieren
- Gesamte Projektdokumentationen über Monate hinweg im Kontext halten
- E-Mail-Historien, CRM-Daten, Support-Tickets gemeinsam auswerten – ohne Informationsverlust durch Aufteilung
- Code-Repositories vollständig auf Sicherheitslücken oder Optimierungspotenzial prüfen
Warum Open Source für KMU strategisch interessant ist
Proprietäre Modelle wie GPT-4o oder Claude sind leistungsstark – aber alle Anfragen und Daten laufen über die Server des Anbieters. Für viele Unternehmen im deutschen Mittelstand ist das aus zwei Gründen problematisch:
DSGVO: Personenbezogene Daten dürfen nicht ohne weiteres an Drittanbieter außerhalb der EU übertragen werden. Auch wenn OpenAI und Anthropic mittlerweile EU-Datenzentren betreiben, bleibt die rechtliche Komplexität hoch.
Vertraulichkeit: Kundenverträge, Kalkulationen, interne Strategiepapiere – viele Unternehmen möchten diese Informationen grundsätzlich nicht über externe APIs senden, unabhängig von der juristischen Lage.
Mit Llama 4 Scout auf eigener Hardware (oder einem deutschen Cloud-Anbieter wie Hetzner oder IONOS) bleibt alles im Unternehmen. Die Leistung ist dabei nicht theoretisch: Scout übertrifft auf mehreren Benchmarks Gemini 2.0 Flash und liegt auf Augenhöhe mit GPT-4o.
Der Haken: Infrastruktur und Expertise
Self-Hosting ist kein Selbstläufer. Eine H100-GPU kostet im Cloud-Mietmodell mehrere Euro pro Stunde, und die Einrichtung von Llama 4 erfordert technische Kenntnisse – Modell-Deployment, API-Einbindung, Sicherheitskonfiguration.
Für KMU ohne eigene IT-Abteilung gibt es Alternativen:
- Groq: Llama 4 Scout über API mit sehr schnellen Inferenzzeiten
- Together AI, Fireworks AI: Günstige Hosting-Optionen mit EU-Niederlassung in Planung
- Ollama (lokal): Für kleinere Modelle auf firmeneigenem Rechner
Die praktische Empfehlung: Wer heute mit proprietären Modellen arbeitet und DSGVO-Bedenken hat, sollte Llama 4 Scout konkret evaluieren – nicht als Experiment, sondern als produktive Alternative.
Fazit: Open Source ist erwachsen geworden
Llama 4 schließt die Leistungslücke zu proprietären Top-Modellen weitgehend. Das Kontextfenster von 10 Millionen Token ist für bestimmte Anwendungsfälle sogar ein echter Vorteil. Und die Möglichkeit, das Modell DSGVO-konform auf eigener Infrastruktur zu betreiben, ist für den deutschen Mittelstand kein Nebenpunkt – sondern oft die Voraussetzung für einen sicheren KI-Einsatz überhaupt.
ScaleWise berät KMU in Bayern bei der DSGVO-konformen KI-Implementierung – unabhängig von Anbietern, vor Ort in Niederbayern und Mittelfranken. BAFA-gefördert.