Ankündigungen
IBM erweitert die Granite-Modellfamilie um neue multimodale und reasoning KI für Unternehmen

ARMONK, N.Y., 26. Februar 2025 - IBM (NYSE: IBM) hat heute die nächste Generation seiner Granite Large Language Model (LLM)-Familie, Granite 3.2, vorgestellt und setzt damit seine Bemühungen fort, kleine und effiziente KI für Unternehmen zu entwickeln, die sich in der Praxis bewährt.
Alle Granite 3.2 Modelle sind unter der freien Apache 2.0 Lizenz auf Hugging Face verfügbar. Ausgewählte Modelle sind bereits heute auf IBM watsonx.ai, Ollama, Replicate und LM Studio verfügbar und werden in Kürze in RHEL AI 1.5 erwartet - damit stehen Unternehmen und der Open-Source-Community erweiterte Funktionen zur Verfügung. Zu den Highlights gehören:
- Ein neues Bildverarbeitungs-Sprachmodell für Aufgaben zum Verstehen von Dokumenten, das bei den wesentlichen Unternehmensbenchmarks DocVQA, ChartQA, AI2D und OCRBench[1]. eine Leistung zeigt, die der von wesentlich größeren Modellen - Llama 3.2 11B und Pixtral 12B - entspricht oder diese übertrifft. Zusätzlich zu den robusten Trainingsdaten verwendete IBM sein eigenes Open-Source-Toolkit Docling, um 85 Millionen PDFs zu verarbeiten und 26 Millionen synthetische Frage-Antwort-Paare zu generieren, um die Fähigkeit des VLM zu verbessern, komplexe dokumentenlastige Workflows zu verarbeiten.
- Chain-of-Thought-Funktionen für verbessertes Reasoning in den Modellen 3.2 2B und 8B, mit der Möglichkeit, das Reasoning ein- oder auszuschalten, um die Effizienz zu optimieren. Mit dieser Fähigkeit erreicht das 8B-Modell zweistellige Verbesserungen gegenüber seinem Vorgänger bei anweisungsgebundenen Benchmarks wie ArenaHard und Alpaca Eval, ohne dass die Sicherheit oder Leistung an anderer Stelle beeinträchtigt wird[2]. Darüber hinaus kann das Granite 3.2 8B Modell mit Hilfe neuartiger Inferenz-Skalierungsmethoden so kalibriert werden, dass es mit der Leistung viel größerer Modelle wie Claude3.5-Sonnet oder GPT-4o bei mathematischen Benchmarks wie AIME2024 und MATH500[3] mithalten kann.
- Verschlankte Größe der Granite Guardian-Modelle, die die Leistung der früheren Granite 3.1 Guardian-Modelle beibehalten, aber um 30 % verkleinert wurden. Die 3.2-Modelle bieten außerdem eine neue Funktion namens verbalisierten Vertrauens, die eine differenziertere Risikobewertung ermöglicht und Mehrdeutigkeiten bei der Sicherheitsüberwachung berücksichtigt.
Die Strategie von IBM, kleinere, spezialisierte KI-Modelle für Unternehmen bereitzustellen, erweist sich in Tests weiterhin als wirksam. So hat das Granite 3.1 8B-Modell kürzlich im Salesforce LLM Benchmark für CRM hohe Genauigkeitsnoten erzielt.
Die Granite-Modellfamilie wird von einem robusten Ökosystem von Partnern unterstützt, darunter führende Softwareunternehmen, die Granite-Modelle in ihre Technologien einbetten.
„Bei CrushBank haben wir aus erster Hand erfahren, wie die offenen, effizienten KI-Modelle von IBM einen echten Mehrwert für Unternehmens-KI liefern - sie bieten das richtige Gleichgewicht zwischen Leistung, Kosteneffizienz und Skalierbarkeit“, so David Tan, CTO, CrushBank. „Granite 3.2 geht mit neuen Argumentationsfähigkeiten noch einen Schritt weiter, und wir freuen uns darauf, diese beim Aufbau neuer agentenbasierter Lösungen zu nutzen.“
Granite 3.2 ist ein wichtiger Schritt in der Entwicklung des IBM-Portfolios und der Strategie zur Bereitstellung kleiner, praxistauglicher KI für Unternehmen. Die „Chain-of-Thought“-Ansätze für das schlussfolgernde Denken sind zwar leistungsfähig, erfordern aber eine erhebliche Rechenleistung, die nicht für jede Aufgabe erforderlich ist. Aus diesem Grund hat IBM die Möglichkeit eingeführt, Chain of Thought programmatisch ein- oder auszuschalten. Bei einfacheren Aufgaben arbeitet das Modell ohne Schlussfolgerungen, um unnötigen Rechenaufwand zu vermeiden. Darüber hinaus haben andere Schlussfolgerungstechniken wie die Skalierung von Schlussfolgerungen gezeigt, dass das Granite 8B-Modell die Leistung viel größerer Modelle bei Standard-Benchmarks für mathematische Schlussfolgerungen erreichen oder übertreffen kann. Die Weiterentwicklung von Methoden wie der Inferenzskalierung bleibt ein wichtiger Schwerpunkt für die Forschungsteams von IBM[4].
Neben den Granite 3.2 Instruct-, Vision- und Guardrail-Modellen bringt IBM die nächste Generation seiner TinyTimeMixers (TTM)-Modelle (unter 10 Mio. Parameter) auf den Markt, die längerfristigen Prognosen bis zu zwei Jahren in die Zukunft ermöglichen. Diese Modelle sind leistungsstarke Werkzeuge für die langfristige Trendanalyse, einschließlich Finanz- und Wirtschaftstrends, Nachfrageprognosen für Lieferketten und saisonale Bestandsplanung im Einzelhandel.
„In der nächsten Ära der KI geht es um Effizienz, Integration und reale Auswirkungen - Unternehmen können leistungsstarke Ergebnisse erzielen, ohne übermäßig viel Geld für Datenverarbeitung auszugeben“, sagt Sriram Raghavan, VP, IBM AI Research. „Die jüngsten Granite-Entwicklungen von IBM, die sich auf offene Lösungen konzentrieren, sind ein weiterer Schritt, um KI für heutige Unternehmen zugänglicher, kostengünstiger und wertvoller zu machen.“
Erfahren Sie mehr über IBM Granite: www.ibm.com/de-de/granite
Über IBM:
IBM ist ein führender Anbieter von globaler Hybrid Cloud und KI sowie von Beratungsexpertise. Wir helfen Kunden in mehr als 175 Ländern dabei, Erkenntnisse aus ihren Daten zu nutzen, Geschäftsprozesse zu optimieren, Kosten zu senken und Wettbewerbsvorteile in ihren Branchen zu erzielen. Mehr als 4.000 Regierungs- und Unternehmenseinheiten in kritischen Infrastrukturbereichen wie Finanzdienstleistungen, Telekommunikation und Gesundheitswesen verlassen sich auf die Hybrid-Cloud-Plattform von IBM und Red Hat OpenShift, um ihre digitale Transformation schnell, effizient und sicher zu gestalten. Die bahnbrechenden Innovationen von IBM in den Bereichen KI, Quantencomputing, branchenspezifische Cloud-Lösungen und Beratung bieten unseren Kunden offene und flexible Optionen. All dies wird von IBMs langjährigem Engagement für Vertrauen, Transparenz, Verantwortung, Inklusion und Service unterstützt.
Besuchen Sie ibm.com für weitere Informationen.
Medienkontakte:
Annette Hodapp
IBM Corporate Communications DACH
Annette_Hodapp@de.ibm.com
Amy Angelini
IBM Corporate Communications
alangeli@us.ibm.com
[1] Die Benchmark-Ergebnisse des Bildverarbeitungsmodells sind in dem technischen Artikel von IBM verfügbar, IBM Granite 3.2: Reasoning, Vision, Forecasting, and More, veröffentlicht am 26. Februar 2025.
[2] Die Benchmark-Ergebnisse des Instruct-Modells sind in dem technischen Artikel von IBM verfügbar, IBM Granite 3.2: Reasoning, Vision, Forecasting, and More, veröffentlicht am 26. Februar 2025.
[3] Die Ergebnisse des Inferenzskalierungs-Benchmarks sind im technischen Forschungsblog von IBM verfügbar, Reasoning in Granite 3.2 Using Inference Scaling, veröffentlicht am 26. Februar 2025.
[4] Reasoning in Granite 3.2 Using Inference Scaling, veröffentlicht am 26. Februar 2025.