Google Gemma 4 offiziell veröffentlicht: 4 Größen erstmals unter Apache 2.0 Lizenz, 31B weltweit die drittgrößte Open-Source-Community

BlockBeatNews

Laut dem 1M AI News Monitoring hat Google offiziell die Open-Source-Modellfamilie Gemma 4 veröffentlicht, die 4 Varianten unterschiedlicher Größe umfasst, und alle unter der Apache-2.0-Lizenz stehen. Google sagt, dies sei eine Reaktion auf das Feedback aus der Community. Apache 2.0 bedeutet, dass Entwickler frei für kommerzielle Zwecke nutzen, modifizieren und verteilen können, ohne zusätzliche Einschränkungen. Hugging Face-Mitgründer und CEO Clément Delangue bezeichnete diesen Schritt als „riesiges Meilenstein“.

Die 4 Modelle sind für unterschiedliche Hardware-Szenarien ausgelegt:

  1. 31B Dense: höchste Rohqualität, geeignet für Fine-Tuning; unquantisierte Gewichte können auf einer einzelnen 80GB H100 laufen, quantisierte Versionen unterstützen GPUs der Consumer-Klasse
  2. 26B MoE (Mixture of Experts / Gemischte Experten): insgesamt 26B Parameter, aber bei der Inferenz werden nur 3,8B aktiviert; der Fokus liegt auf niedriger Latenz und eignet sich für agentenbasierte Szenarien, bei denen Geschwindigkeit entscheidend ist
  3. E4B und E2B: Edge-Modelle für Mobiltelefone und IoT-Geräte; bei der Inferenz werden jeweils etwa 4B und 2B Parameter aktiviert, sodass die Akkulaufzeit der Geräte erhalten bleibt; native Unterstützung für Audio-Eingaben (Spracherkennung und -verständnis); vollständiger Offline-Betrieb ist möglich

Auf der Text-Rangliste der Arena AI-Plattform für anonyme Large-Modelle-Duells liegt 31B auf Platz drei unter den globalen Open-Source-Modellen, 26B auf Platz sechs; Google nennt dies ein „Modell, das das 20-fache seines Umfangs übertrifft“. Das Modell basiert auf denselben Forschungen und Technologien wie Gemini 3.

Die Kernfähigkeiten umfassen mehrstufiges Schließen und Planen, native Funktionsaufrufe und JSON-strukturierte Ausgaben (für Agent-Workflows), Code-Generierung sowie Text-, Bild- und Videoverständnis (für die gesamte Reihe) und natives Training über mehr als 140 Sprachen. Edge-Modelle unterstützen ein Kontextfenster von 128K, Large-Modelle unterstützen bis zu 256K. E2B und E4B wurden zusammen mit dem Google Pixel-Team sowie Qualcomm und MediaTek gemeinsam optimiert und können auf Geräten wie Mobiltelefonen, Raspberry Pi, NVIDIA Jetson Orin Nano usw. laufen. Android-Entwickler können über das AICore Developer Preview-Prototyp die Agent-App bauen, um sich für die spätere Gemini Nano 4-Kompatibilität vorzubereiten.

Im Ökosystem wird bereits am ersten Tag die Unterstützung für gängige Frameworks wie Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio und Unsloth bereitgestellt; außerdem kann man in Google AI Studio (31B und 26B) sowie in AI Edge Gallery (E4B und E2B) direkt damit testen. Seit der Veröffentlichung der ersten Version wurde die Gemma-Reihe über 400 Millionen Mal heruntergeladen, und die Community hat mehr als 100.000 Ableger-Varianten hervorgebracht.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare