Google stellt Gemma 4 vor: Dies ist die neue Familie offener Modelle.

  • Gemma 4 ist eine Familie von Open-Source-KI-Modellen, die auf der gleichen Technologie wie Gemini 3 basieren, aber unter einer vollständig kommerziellen Apache 2.0-Lizenz lizenziert sind.
  • Es umfasst vier Varianten (E2B, E4B, 26B MoE und 31B Dense), die für den Einsatz auf mobilen Geräten, Edge-Geräten, High-End-Workstations und GPUs konzipiert sind.
  • Es bietet Multimodalität (Text, Bild, Video und Audio in den kleineren Modellen), Kontextfenster von bis zu 256K Tokens und native Unterstützung für Agenten, JSON und Funktionsaufrufe.
  • Dank seiner Effizienz können große Modelle auf einer einzigen 80GB NVIDIA H100 GPU ausgeführt werden und es werden On-Premises-, Cloud- und Sovereign-Cloud-Bereitstellungen ermöglicht, was für regulierte europäische Unternehmen von entscheidender Bedeutung ist.

Gemma 4 Künstliche Intelligenz Modell

Mit der Einführung von … hat Google einen bedeutenden Kurswechsel in seiner Strategie für offene künstliche Intelligenz vollzogen. Gemma 4, eine neue Familie von Modellen mit offener Gewichtsklasse Ziel ist es, hohe Leistung, Hardwareeffizienz und eine wirklich offene Lizenz für die kommerzielle Nutzung zu vereinen. Basierend auf der gleichen technologischen Grundlage wie Gemini 3 richtet sich diese Produktlinie sowohl an große Unternehmen als auch an Entwickler, die fortschrittliche KI einsetzen möchten, ohne vollständig auf geschlossene Cloud-Dienste angewiesen zu sein.

Gemma 4 ist weit mehr als nur ein weiteres experimentelles Modell; sie kommt als ein vollständiger Vorschlag mit vier Varianten Diese Lösungen sind auf Mobilgeräten, Edge-Geräten, PCs und Servern mit leistungsstarken GPUs lauffähig. Googles Strategie konzentriert sich darauf, mehr Informationen pro Parameter bereitzustellen, die Infrastrukturkosten zu senken und gleichzeitig der Community und Unternehmen die Flexibilität zu geben, die Modelle an ihre eigenen Bedürfnisse anzupassen.

Eine Familie von vier Modellen, die alles von Mobilgeräten bis hin zu Rechenzentren abdecken.

Gemma 4 Modellvarianten

Die Gemma 4-Familie ist organisiert in vier Hauptgrößen: E2B, E4B, 26B MoE und 31B DenseDie ersten beiden Modelle sind auf die Ausführung am Netzwerkrand ausgerichtet, während die Modelle mit 26.000 Milliarden und 31.000 Milliarden Parametern auf leistungsstarke Workstations abzielen, darunter Hochleistungs-Laptops und Serverumgebungen.

Varianten Effektiv 2B (E2B) und Effektiv 4B (E4B) Sie wurden speziell für ressourcenbeschränkte Geräte wie Android-Telefone, IoT-Boards und eingebettete Systeme wie beispielsweise Raspberry Pi oder Hardware von Herstellern wie Qualcomm und MediaTek. Ziel ist es, gute Verarbeitungs- und Multimodalitätsfähigkeiten beizubehalten und gleichzeitig Speicher-, Akku- und Latenzverbrauch zu minimieren.

Oben das Modell 26B mit Mixture of Experts (MoE)-Architektur Es ist auf minimale Reaktionszeit optimiert: Während der Inferenz werden nur etwa 3,8 Milliarden Parameter aktiviert, was eine schnelle Token-Generierung auf Entwicklerhardware oder Consumer-GPUs ermöglicht. benutzerdefinierte KI-Chips, ideal für lokale Programmierassistenten und Entwicklungswerkzeuge.

Am oberen Ende befindet sich Gemma 4 31B DichtDie dichte, aufgabenorientierte Variante priorisiert Qualität und Konsistenz gegenüber Geschwindigkeit. Dieses Modell hat sich bereits in Open-Source-Modellrankings wie dem Arena AI Text Leaderboard unter den Spitzenreitern etabliert und konkurriert mit Systemen, die hinsichtlich der Parameter zwanzigmal größer sind.

Diese Kombination aus leichten und schweren Modellen ermöglicht es Gemma 4, folgende Bereiche abzudecken: Von alltäglichen mobilen Anwendungen bis hin zu kritischen GeschäftsprozessenDies gibt Systemarchitekten die Freiheit, je nach Projekt zwischen der Geschwindigkeit der Schlussfolgerung oder der Tiefe der Analyse zu wählen.

Erweiterte Multimodalität und lange Kontextfenster

Multimodalität in Gemma 4

Eine der Stärken der neuen Familie ist ihre Fähigkeit, mit mehrere Inhaltstypen nativAlle Gemma 4-Modelle können Text und Bilder verarbeiten und unterstützen verschiedene Auflösungen und Seitenverhältnisse, was Anwendungsfälle wie die Analyse von Scandokumenten, das visuelle Verständnis von Benutzeroberflächen oder die Generierung von Beschreibungen ermöglicht.

Außerdem die Versionen E2B und E4B erweitern die Multimodalität auf Video und Audio.Dies ermöglicht die Ausführung von Aufgaben mit geringer Latenz wie Spracherkennung, Videoanalyse oder Augmented-Reality-Anwendungen direkt auf dem Gerät. In mobilen oder IoT-Szenarien reduziert diese Fähigkeit, Bild- und Audioverarbeitung ohne ständige Cloud-Verbindung durchzuführen, Verbindungsprobleme und verbessert den Datenschutz.

Hinsichtlich der Verarbeitung großer Informationsmengen führt die Gemma 4-Familie Kontextfenster ein. bis zu 256.000 Token in den größten ModellenDie Varianten für Edge-Geräte bieten 128 Kontexte, während die Varianten 26B und 31B bis zu 256 Tokens erreichen. Dies ermöglicht beispielsweise das Laden ganzer Code-Repositories, großer Dokumentendatenbanken oder sehr langer Konversationsverläufe mit einer einzigen Abfrage.

Diese Kontextbreite ist besonders nützlich für Offline-Codegenerierung, automatisierter technischer Support oder Analyse von RechtsdokumentenDiese Bereiche sind besonders relevant für europäische Unternehmen, die strengen Vorschriften unterliegen und häufig Informationen innerhalb ihrer eigenen Systeme speichern müssen.

Neben Multimodalität und erweitertem Kontext hebt Google die Unterstützung von Gemma 4 für Folgendes hervor: mehr als 140 SprachenDiese breite sprachliche Abdeckung macht es zu einer attraktiven Option für Unternehmen mit globaler Präsenz, europäische öffentliche Verwaltungen oder Startups, die mehrsprachige Produkte auf den Markt bringen wollen, ohne auf mehrere verschiedene Modelle angewiesen zu sein.

Autonome Agenten, JSON und Funktionsaufrufe: Gemma 4 agentenbasierter flussorientierter Ansatz

Selbstständige Agenten mit Gemma 4

Gemma 4 geht über die herkömmliche Textgenerierung hinaus. Die gesamte Produktfamilie wurde mit einem klaren Fokus auf … entwickelt. agentenbasierte Arbeitsabläufe, ein zunehmend relevanter Trend in der Geschäftswelt und der Softwareentwicklung.

Die Modelle beinhalten serienmäßig Native Unterstützung für FunktionsaufrufeDies ermöglicht dem System den kontrollierten Aufruf externer APIs oder spezifischer Tools. Darüber hinaus bieten sie eine strukturierte JSON-Ausgabe, die die Integration mit Anwendungen erleichtert, die formatierte Antworten für die Weiterverarbeitung durch andere Dienste oder Microservices benötigen.

Ein weiterer wichtiger Aspekt ist die Kompatibilität mit Anweisungen des nativen SystemsDiese Funktionen ermöglichen eine präzise Definition der Systemrolle und die Festlegung klarer Regeln für das Verhalten des Modells. Diese Fähigkeit ist besonders nützlich beim Erstellen autonomer Agenten, die den Kundenservice verwalten, interne Prozesse automatisieren oder verschiedene Tools innerhalb eines Unternehmens koordinieren.

Laut Führungskräften von Google Cloud benötigt KI in Unternehmen Modelle, die Folgendes ermöglichen: Komplexe Logik ausführen und gleichzeitig Daten in sicheren Umgebungen speichernIn diesem Sinne wird der agentenbasierte Ansatz von Gemma 4 mit On-Premises- und kontrollierten Cloud-Bereitstellungsoptionen kombiniert, um Risiken zu reduzieren und die Kontrolle darüber zu erhöhen, wo und wie Daten verarbeitet werden.

Das Unternehmen liefert diese Modelle mit einem Agent Development Kit (ADK), ein modulares Framework, das die Entwicklung von Agenten beschleunigt und die Ausführung intensiver Workloads serverlos auf Cloud Run über NVIDIA RTX PRO 6000 GPUs (Blackwell) unterstützt, wodurch die anfänglichen Investitionen für Experimente mit komplexen Agenten reduziert werden.

Apache-Lizenz 2.0 und digitale Souveränität: Auswirkungen auf Europa und Spanien

Eine der bedeutendsten Änderungen im Vergleich zu früheren Gemma-Generationen betrifft die Lizenz. Zum ersten Mal Gemma 4 wird unter der Apache-2.0-Lizenz vertrieben, einer vollständig freizügigen Open-Source-Lizenz. wodurch die kommerzielle Nutzung ohne zusätzliche spezifische Einschränkungen durch Google ermöglicht wird.

In früheren Versionen enthielten die Nutzungsbedingungen Bestimmungen, die bei Unternehmensjuristen, insbesondere in großen Konzernen und öffentlichen Verwaltungen, Bedenken auslösten. Mit Apache 2.0 ordnet Google Gemma 4 derselben Lizenzkategorie zu wie … Andere offene Referenzmodelle wie Lamawodurch die Übernahme in Produktionsprojekte ohne die Notwendigkeit individueller Verhandlungen erleichtert wird.

Diese Entscheidung hat eine eindeutig europäische Auslegung. Die Kombination aus Offenes Modell, Kompatibilität mit über 140 Sprachen und souveräne Bereitstellungsoptionen Es entspricht den Vorschriften zur Datenresidenz und den Diskussionen um die KI-Verordnung der Europäischen Union. Spanische und europäische Unternehmen können Gemma 4 in ihre Lösungen integrieren und so mehr Kontrolle darüber behalten, wo Daten gespeichert und verarbeitet werden.

Google geht davon aus, dass Gemma 4 verfügbar sein wird in Sovereign Cloud-Umgebungen und Air-Gap-Konfigurationensowie bei Installationen vor Ort. Für regulierte Sektoren wie Bankwesen, Gesundheitswesen, Energie oder öffentliche Verwaltung eröffnet dies die Möglichkeit, fortschrittliche KI zu nutzen, ohne sensible Daten an gemeinsam genutzte Infrastrukturen außerhalb Europas senden zu müssen.

Die Flexibilität der Lizenz fördert auch die Schaffung von lokale und spezialisierte VariantenBeispiele dafür gab es bereits in der Vergangenheit, etwa Modelle, die an bestimmte Sprachen und Kontexte angepasst wurden (zum Beispiel BgGPT in Bulgarien oder medizinische Anwendungen an nordamerikanischen Universitäten), und Google erwartet, dass Gemma 4 dieses Ökosystem stärken wird, das manche als „Gemmaverse“ mit Zehntausenden von Community-Varianten bezeichnen.

Google Cloud-Integration, lokale Ausführung und erforderliche Hardware

Neben der Öffnung des Modells hat Google eine unterstützende Infrastruktur vorbereitet, die sich auf Folgendes konzentriert Vertex AI und Google Kubernetes Engine (GKE)Mithilfe dieser Dienste können Organisationen maßgeschneiderte Ressourcen bereitstellen, Inferenz-Workloads skalieren und die Bereitstellung an ihre Sicherheits- und Compliance-Anforderungen anpassen.

In Vertex AI ist Gemma 4 als Teil des Modellkatalogs integriert, was es technischen Teams ermöglicht, Testen, optimieren und bereitstellen Kundenspezifische Varianten bei gleichzeitiger Kontrolle über die Rechenressourcen. Die Kombination mit GKE ermöglicht dynamische Skalierung und passt die Anzahl der Replikate des Inferenzdienstes an den tatsächlichen Bedarf an.

Für mittelständische Unternehmen ist folgende Tatsache wichtig: Die bfloat16-Gewichte der Modelle 26B und 31B passen auf eine einzelne 80-GB-NVIDIA-H100-GPU.Dadurch wird der Mindestinvestitionsbedarf für den Zugang zu High-End-Modellen im Vergleich zu Alternativen, die mehrere GPUs parallel benötigen, deutlich reduziert.

Gleichzeitig ist Gemma 4 für die Ausführung auf optimiert. vielfältige Hardware, von Consumer-GPUs bis hin zu mobilen Lösungen mit 5G M2M-KonnektivitätDie E2B- und E4B-Modelle nutzen Techniken wie Per-Layer Embeddings (PLE), um die Effizienz pro Parameter zu maximieren, wodurch sie auf Smartphones, Raspberry Pi oder Edge-Geräten mit sehr geringen Latenzen ausgeführt werden können.

Die Kompatibilität erstreckt sich auch auf Ökosysteme wie Hugging Face, Ollama, vLLM, LM Studio oder llama.cppsowie Google-Entwicklungsplattformen wie AI Studio und AICore (für Android-Prototyping). Dadurch können sowohl unabhängige Entwickler als auch Teams in Unternehmen Gemma 4 problemlos in ihre gewohnten Arbeitsabläufe integrieren, ohne bei null anfangen zu müssen.

Mögliche Einsatzgebiete in Wirtschaft, Bildung und öffentlichem Sektor

Die Funktionen von Gemma 4 ermöglichen die Bereitstellung ein breites Spektrum praktischer Anwendungen Diese Modelle gehen über klassische Chatbots hinaus. Im Geschäftsumfeld können sie als Grundlage für interne virtuelle Assistenten dienen, die Fragen zu Unternehmensdokumenten beantworten, Managementzusammenfassungen erstellen oder wiederkehrende Aufgaben in mehreren Sprachen automatisieren.

Im Bereich der Programmierung ist die Kombination aus große Kontextfenster, Codegenerierung und geringe Latenz Dadurch eignet sich Gemma 4 für lokale Entwicklungsassistenten, automatisierte Code-Reviews oder Tools, die ganze Repositories in einem einzigen Durchgang analysieren und den Code auf der eigenen Infrastruktur des Unternehmens belassen.

Im Bildungsbereich könnte Gemma 4 verwendet werden für personalisierte Tutoren erstellen, die den Inhalt anpassen Auf der Schülerebene erstellen sie Zusammenfassungen komplexer Texte oder erklären Bilder und Grafiken, was insbesondere für Schüler mit besonderen Bedürfnissen im Bereich der Zugänglichkeit sehr nützlich ist.

Für den öffentlichen Sektor und die Verwaltungen in Spanien und Europa besteht die Möglichkeit, diese Modelle einzusetzen in kontrollierten Umgebungen, wobei die Daten in europäischem Gebiet gespeichert sindEs eröffnet Möglichkeiten bei Bürgerdiensten, Aktenanalysen oder der Automatisierung von Verfahren, vorausgesetzt, diese werden mit den in den Vorschriften geforderten Garantien für Transparenz und menschliche Aufsicht integriert.

In Sektoren wie der Fertigung, der Präzisionslandwirtschaft oder dem Infrastrukturmanagement ermöglicht die lokale Ausführung auf Edge-Computing-Geräten Folgendes: Analysieren Sie Daten in Echtzeit, ohne auf eine permanente Cloud-Verbindung angewiesen zu sein.Dadurch werden die Übertragungskosten gesenkt, die Reaktionszeiten verbessert und die Gefährdung sensibler Daten durch externe Netzwerke verringert.

Lokale KI, Kosten und die Kluft zwischen offenen und proprietären Modellen

Die Markteinführung der Gemma 4 spiegelt einen klaren Trend in der Branche wider: Priorität hat nicht mehr nur, wer das größte Modell hat, sondern Wer das beste Gleichgewicht zwischen Kapazität, Kosten und einfacher Bereitstellung erzieltGoogle beharrt darauf, dass die „Parameterintelligenz“ die zentrale Messgröße dieser neuen Generation sei.

Die Möglichkeit, fortgeschrittene Modelle lokal auszuführen, ohne stets auf große Cloud-Dienste angewiesen zu sein, deutet auf eine Veränderung in der Art und Weise, wie Produkte und Dienstleistungen gestaltet werdenBei vielen alltäglichen Aufgaben – wie dem Zusammenfassen eines Textes, dem Erstellen einer Erinnerung oder der Verarbeitung eines einfachen Bildes – macht es wenig Sinn, Daten an entfernte, riesige Modelle zu senden, wenn die Aufgabe auf dem Gerät selbst gelöst werden kann.

Dennoch ist Gemma 4 nicht als Ersatz für Googles proprietäre Modelle gedacht, sondern ergänzen sieDas Unternehmen hält Gemini für seine fortschrittlichste und geschlossenste Schicht, die für Anwendungsfälle reserviert ist, in denen maximale Kapazität von größter Bedeutung ist. Gemma 4 ist technologisch etwas weniger fortschrittlich, punktet aber mit Offenheit, Flexibilität und Kostenkontrolle.

Für IT-Abteilungen stellt dies eine zunehmend sichtbare Wahl dar: Geschlossene Modelle bieten im Vergleich zu offenen Modellen eine höhere Benutzerfreundlichkeit, aber weniger Kontrolle. die ein aktiveres Management der Infrastruktur im Austausch für die vollständige Souveränität und eine stärkere wirtschaftliche Optimierung mittelfristig erfordern.

In diesem Kontext hängt die Wettbewerbsfähigkeit spanischer und europäischer Unternehmen im Bereich der KI möglicherweise maßgeblich von ihrer Fähigkeit ab, offene Modelle wie Gemma 4 in ihre kritischen Prozesse integrierenSie werden gegebenenfalls mit firmeneigenen Diensten kombiniert, wobei stets die Einhaltung der Datenschutzbestimmungen und künftiger europäischer Vorschriften zur künstlichen Intelligenz gewährleistet wird.

Mit Gemma 4 bekräftigt Google sein festes Bekenntnis zu effizienten offenen Modellen, die auf gängiger Hardware laufen, sich an unterschiedliche regulatorische Rahmenbedingungen anpassen und als Grundlage für eine neue Generation lokaler Agenten und Anwendungen dienen können; diejenigen, die diese Kombination aus Offenheit, Leistung und Kontrolle zu nutzen wissen, werden einen Vorteil beim Aufbau nachhaltiger KI-Lösungen haben, die den Anforderungen Europas entsprechen.

Wichtigkeit von OTA-Updates in IoT-2
Verwandte Artikel:
Open Source im IoT: Plattformen, Daten und Edge-KI, die den Unterschied ausmachen