THINK Blog DACH
Die große Wirkung kleiner Modelle

In den letzten zwei Jahren haben sich Large Language Models (LLMs) großer Beliebtheit erfreut, angetrieben von der weit verbreiteten Faszination für ChatGPT und ähnliche Apps, die auf...
In den letzten zwei Jahren haben sich Large Language Models (LLMs) großer Beliebtheit erfreut, angetrieben von der weit verbreiteten Faszination für ChatGPT und ähnliche Apps, die auf generativer künstlicher Intelligenz (Gen AI) basieren.
Ihre beeindruckende Fähigkeit, aus riesigen Datenmengen einzigartige Inhalte und Erkenntnisse zu gewinnen, hat die Welt in ihren Bann gezogen und zur Entwicklung neuer Tools und Apps geführt, wodurch ihr kultureller Einfluss zusätzlich untermauert wurde.
Hürden der Gen AI Einführung
Beim Einsatz von KI in Unternehmen gilt jedoch: umfangreicher ist nicht immer besser. Es gibt zwei Hauptprobleme mit LLMs, die Organisationen daran hindern, von generativer KI zu profitieren. Das erste Problem besteht darin, dass viele LLMs als „Einheitsmodelle“ für eine Vielzahl von Aufgaben konzipiert sind. Dies ist für Unternehmen nur von begrenztem Nutzen. Modelle, die für ein durchschnittliches Unternehmen gedacht sind, funktionieren nicht, weil es das stereotype „durchschnittliche“ Unternehmen nicht gibt.
Das zweite Problem ist, dass viele proprietäre LLMs eine „Black Box“ sind und keine Transparenz in Bezug auf die Daten bieten, die für das Training des Modells verwendet werden. Außerdem können sie das Modell möglicherweise nicht mit unternehmensspezifischen Daten anreichern, was jedoch den eigentlichen Mehrwert von KI ausmacht. Das bedeutet, dass Unternehmen für die Leistung des Modells verantwortlich sind, ohne Einblick in das Modell selbst zu haben oder es kontrollieren zu können.
Diese Probleme verhindern, dass Unternehmen nachvollziehen können, welche Modelle sicher und vertrauenswürdig sind. Wenn Unternehmen nicht effektiv entscheiden können, welche generativen KI-Lösungen für ihre Branche am besten geeignet sind oder, was noch wichtiger ist, welche innerhalb ihrer rechtlichen, regulatorischen und herkunftsspezifischen Anforderungen eingesetzt werden können, sind sie nicht in der Lage, das volle Potenzial von generativer KI auszuschöpfen.
Der Weg in die Zukunft
Unternehmen sind auf drei Kernelemente von KI-Modellen angewiesen, um mit generativer KI erfolgreiche Ergebnisse erzielen zu können:
- Effizienz – in Bezug auf Leistung und Kosten: Damit sich Modelle in einem wettbewerbsorientierten Umfeld durchsetzen können, müssen sie nicht nur funktionieren, sondern auch kostengünstig skalierbar sein. Größere Modelle mit mehr Parametern und Token erweisen sich als zu kostspielig. Lohnenswert sind nur Investitionen in effiziente Modelle.
- Transparente Daten: Unternehmen können nur kontrollieren, was sie tatsächlich einsehen können, und jedes Unternehmen muss die Kontrolle über die KI haben, die es einsetzt. Transparenz und Kontrolle tragen dazu bei, dass Unternehmen genaue und zuverlässige Ergebnisse erhalten.
- Flexibilität und Auswahl: Es wird nie ein Modell geben, das für jedes Unternehmen gleichermaßen geeignet ist. Unternehmen benötigen Optionen, um entscheiden zu können, in welchen Bereichen und wie sie mit KI-Lösungen arbeiten möchten, die auf ihre individuellen Anwendungsfälle zugeschnitten sind. Sie wollen eine KI auf der Grundlage von Modellen entwickeln, die sich einfach an neue Szenarien und Anwendungsfälle anpassen lassen.
#ThePowerofSmall
Um diesen Anforderungen gerecht zu werden und den größtmöglichen Nutzen durch den Einsatz von KI zu erzielen, suchen Unternehmen nun nach Alternativen zu universellen LLMs – und entdecken die Vorzüge kleinerer Lösungen.
Kleine Sprachmodelle (Small Language Models, SLMs) werden für ihre Energieeffizienz, Datentransparenz und Leistung geschätzt, die mit größeren Modellen mithalten oder diese übertreffen können, und sind der Schlüssel zu einer verantwortungsvollen Einführung von KI, ohne dabei Innovationen im Weg zu stehen.
Kleine Modelle sind nicht nur kostengünstiger und energieeffizienter, sie bieten auch eine bessere Datentransparenz und -integrität. Viele LLMs basieren auf öffentlichen Daten aus dem Internet mit all ihren Fehlinformationen und irrelevanten Inhalten, während kleinerer Modelle auf bereinigten und gefilterten Datensätzen für spezifische Aufgaben entsteht. Dadurch werden Risiken wie falsche und unangemessene Ergebnisse reduziert. Dies hat den Vorteil, dass Organisationen wissen, welche Daten in ihren Modellen enthalten sind.
Mit einem solchen vertrauenswürdigen Basismodell können Unternehmen ihre eigenen proprietären Daten hinzufügen, wodurch der wahre Mehrwert von KI erschlossen werden kann.
Open Source
Organisationen sind am besten in der Lage, spezialisierte Modelle zu erstellen und mit ihren eigenen Daten zu bereichern, wenn die Basismodelle auf Open-Source-Grundlage arbeiten. Um den wachsenden Bedarf von Unternehmen zu decken, die diesen Ansatz verfolgen, hat IBM viele seiner Basismodelle aus der Granite-Familie für die Open-Source-Nutzung freigegeben. Dazu zählen anpassbare SLMs, die auf transparenten, gefilterten Datensätzen trainiert werden.
Die Kombination eines kleinen (Granite-)Modells mit Unternehmensdaten ermöglicht es Unternehmen, eine aufgabenspezifische Leistungsfähigkeit zu erzielen, die mit größeren Modellen mithalten kann, und das zu einem Bruchteil der Kosten. In mehreren vorläufigen Machbarkeitsstudien haben die neuesten Granite-Modelle von IBM gezeigt, dass sie drei bis 23-mal kostengünstiger sind als große Frontier-Modelle. Doch trotz der niedrigeren Kosten geht dies nicht zwangsläufig mit einer geringeren Leistung einher. Tatsächlich haben Granite-Sprachmodelle in vielen akademischen und industriellen Benchmarks ähnlich große Modelle von führenden Anbietern übertroffen oder sind mit ihnen gleichauf.
Ein konkretes Beispiel aus der Praxis
IBM hat einen KI-gestützten digitalen Assistenten namens AskIBM entwickelt, der mit den KI-Technologien von IBM arbeitet. Der Assistent, der Aufgaben wie das Verfassen von E-Mails und das Zusammenfassen von Dokumenten automatisieren kann, wurde in 60 Tagen entwickelt und an über 30.000 Dokumenten trainiert. Der Entwicklungsprozess beinhaltete rechtliche, datenschutzrechtliche, cybersicherheitsbezogene und KI-ethische Überprüfungen. Gestartet im Januar 2024, wurde die Alpha-Version für über 280.000 IBM-Mitarbeiter weltweit verfügbar gemacht, mit dem Ziel, Feedback zur Verbesserung und Skalierung des Produkts zu sammeln.

Abbildung 1: Der Antwortfluss von AskIBM
Abschließende Überlegungen
Wir haben einen spannenden Punkt im Hype um die KI erreicht, an dem Spekulationen darüber, was die generative KI leisten kann, nun zur Realität für Unternehmen werden. Viele Unternehmen erkennen nun, dass die immense Leistung großer LLMs nicht der einzige Weg ist, um von den Vorteilen der generativen KI zu profitieren. Kleinere, spezialisiertere Modelle können die Effizienz, das Vertrauen, die Flexibilität und die Leistung erbringen, die Unternehmen benötigen, und das zu geringeren Kosten sowohl für das Endergebnis als auch für die Umwelt.
Weitere Informationen zu IBM Granite-Modellen finden Sie unter https://www.ibm.com/de-de/granite