Google kündigt neues KI-Modell mit Mobile-First-Ansatz an

Google stellt Gemma 3n vor – ein leichtgewichtiges, aber leistungsstarkes KI-Modell, das von Grund auf für den Einsatz auf Mobilgeräten konzipiert wurde.
Es erscheint in zwei effektiven Varianten, Gemma 3n-2B-E und Gemma 3n-4B-E, wobei das „E“ für effective steht:
Mit selektiver Parameter­aktivierung werden jeweils nur die Gewichte geladen, die ein Prompt wirklich benötigt. Das reduziert Speicher- und Energie­bedarf auf rund 2 GB bzw. 3 GB RAM – genug, um selbst auf einem einzigen Smartphone-CPU-Kern flüssig zu laufen.

Die Architektur („MatFormer“) bietet:

  • ein 32 000-Token-Kontextfenster,
  • bereits heute Text- und Bildverarbeitung,
  • auf der Roadmap Audio- und Video-Eingaben,
  • Training auf Daten in rund 140 Sprachen.

Google entwickelt das Modell in enger Zusammenarbeit mit Qualcomm, MediaTek und Samsung, sodass künftige SoCs Gemma 3n direkt in der Firmware unterstützen sollen.

Neue Use-Cases für Mobile Apps

SzenarioNutzen auf dem Gerät
Visuelle AssistentenKamera­bilder lokal beschreiben, Objekte erkennen oder Fragen zu Fotos beantworten – ohne Cloud-Upload.
Schreib- & ÜbersetzungshilfenZusammenfassen, umformulieren oder live übersetzen in 140 Sprachen – selbst offline.
Conversational CompanionStändiger Gesprächspartner für Coaching, Lernhilfe oder mentale Gesundheit, ohne Latenz.
Dokumenten-Analyse unterwegsLange Berichte oder E-Books direkt auf dem Handy lesen und abfragen (32 k-Kontext).
Edge-Features in OEM-AppsSmart-Reply, Voice-Hotword-Erkennung oder Kontextsuche direkt in System-Apps integrieren.

Tolle Performance mit technischen Tricks

Technischer KniffErgebnis
MatFormer-ArchitekturVerschachtelte Submodelle („Matrjoschka“) aktivieren nur benötigte Teilnetze und sparen Energie.
Per-Layer Embeddings (PLE)Zwischenergebnisse werden gecacht; aktiv bleiben nur ~1,9 B bzw. ~3,8 B Parameter.
Granulare Token-PipelineNeuer Tokenizer + 32 k Positionsembeddings halten Speicherbedarf stabil – skalierbar auf 128 k.
Optimierte Mobil-KernelsZusammenarbeit mit Chip-Herstellern sorgt für NPU- und DSP-Beschleunigung in kommenden Geräten.

In Tests liefert die 4B-E-Variante 7–9 Token/Sekunde auf einem Pixel-9-Pro-Emulator – ganz ohne GPU.

Installation in Kurzform

# APK von GitHub laden
adb install gemma3n.apk

# App öffnen
→ Gemma 3n auswählen
→ Hugging Face Login
→ Modelle (~1,7 GB / 3,3 GB) werden heruntergeladen

Wer nicht sideloaden möchte, kann das Modell auch sofort im Browser über Google AI Studio ausprobieren.

Fazit

Gemma 3n zeigt, wie viel KI-Leistung heute in ein Smartphone passt: multimodal, kontextstark und datenschutzfreundlich, weil alles auf dem Gerät bleibt. Für Entwickler eröffnen sich neue Möglichkeiten – von smarten Kamera-Apps bis hin zu privaten Sprachassistenten. Spätestens mit der Freischaltung von Audio und Video wird sich zeigen, wie weit Googles Mobile-First-Ansatz gehen kann.

Link-Sammlung