THINK Blog DACH
In einem Projekt für den weltgrößten Musikversender Thomann standen wir vor der Aufgabe, mithilfe von Künstlicher Intelligenz (KI) in Form von Natural Language Understanding (NLU) mit dem IBM...
In einem Projekt für den weltgrößten Musikversender Thomann standen wir vor der Aufgabe, mithilfe von Künstlicher Intelligenz (KI) in Form von Natural Language Understanding (NLU) mit dem IBM Watson Knowledge Studio einen großen Datenschatz zu heben. Watson Knowledge Studio ist eine Cloud-basierte Anwendung, mit der Benutzer Watson für das Verständnis der sprachlichen Nuancen einer bestimmten Branche schulen können.
Erkenntnisse aus unzähligen Kundenkommentaren ziehen
Im Onlinechannel erfasst Thomann das Feedback der Kunden zu den Produkten über ein Freitextfeld. Diese Funktion wird rege genutzt, erzeugt allerdings eine riesige, völlig unstrukturierte Datenmenge an Kundenkommentaren – zu viel für die menschliche “Rechenleistung”. Da es unmöglich ist, Zehntausende von Kundenkommentaren händisch zu analysieren, sollten wir eine Möglichkeit aufzeigen, dies zu automatisieren. Schließlich vermutet das Musikgeschäft – zurecht – in den Daten spannende Insights zur Qualität der Produkte.
Im Gegensatz zu uns Menschen stellt Sprachverstehen für Computer jedoch eine ziemliche Barriere dar. Bis vor Kurzem überforderte die Komplexität natürlicher Sprachen die Systeme noch. Mittlerweile können mittels Machine Learning auch Rechner mit Sprache umgehen. Heutige KI-Anwendungen können recht komplexe Analysen durchführen: Aus jeder Art von Texten können Schlüsselwörter, Objekte, Marken oder Bewertungen extrahiert und in Kategorien eingeordnet werden. Auch erkennt das System grundlegende Konzepte, die vielleicht gar nicht im Text genannt werden.
Lernen, Sprache zu verstehen
Bei der Auswertung der qualitativen Kundenmeinungen zu den von Thomann vertriebenen Produkten war es unser Ziel, in einem Proof of Concept darzulegen, wie mithilfe von Natural Language Understanding mit dem IBM Watson Knowledge Studio die Daten effizient ausgewertet, strukturiert, quantifiziert und kategorisiert werden können, um aussagekräftige Customer Insights abzuleiten. Jedoch ist jede Maschine im Sprachverstehen auch nur so gut wie das zugrundeliegende Training. Daher standen wir zunächst vor der Aufgabe, ein Entitätenmodell aus dem Bereich Musik zu identifizieren und mussten ein Set an Beispielsätzen einspielen. Diese sollten nicht zu heterogen sein, damit Domänenfelder, also Details über das Wissensgebiet Musik, und Strukturen der deutschen Sprache und deren Semantik erst einmal Schritt für Schritt von der Maschine gelernt werden können.
Beim Natural Language Understanding wird der Maschine ein Domänenwissen antrainiert. Ziel dieses Trainings ist, dass die Maschine automatisiert erkennt, was welche Formulierungen bedeuten. Hier hilft keine eingebaute Sentimentanalyse, sondern lediglich die Annotation einer gewissen Anzahl ähnlicher Aussagen mit der Zuweisung positiv, negativ oder neutral. Neben dem Domänenlexikon lernt die Maschine im Training auch grammatische Strukturen, die eine bestimmte Bedeutung tragen. Beispielsweise wird in der Konstruktion „zu + Adjektiv“ ausgedrückt, dass man das Maß, die Größe oder die Intensität von etwas nicht gut oder nicht richtig findet, man hält es also für nicht passend oder nicht akzeptabel.
Nach dem Training fand das Modell dann auch bisher unbekannte Formulierungen wie „Der Sound war zu schwammig“ als schlechte Bewertung für die Qualität des Klangs einer Gitarre. Die Struktur „zu + Adjektiv“ war gelernt und somit konnten schnell vergleichbare Feedbacks mit negativer Konnotation aus der Datengrundlage herausgefiltert werden. Damit ergibt sich ein großer Vorteil für Produkt- oder Categorymanager im Unternehmen: Mit der nun geschaffenen Möglichkeit können sie sowohl die negativen als auch die positiven Kommentare auf Knopfdruck tagesaktuell zusammengefasst abrufen. In unserem Use Case haben wir diese in die Kategorien Klang, Qualität und Preis unterteilt.
Training macht den Meister
Mit ein wenig Einsatz in Annotation und Entitätenmodell kann das IBM Watson Knowledge Studio im Bereich Natural Language Understanding durchaus auch schwere Nüsse knacken. Dadurch entsteht für Unternehmen, die Künstliche Intelligenz in Form von Natural Language Understanding einsetzen, sowohl intern als auch in Richtung Kunden großer Nutzen. Einerseits, da die Kundenkommentare nun nicht mehr nur punktuelle Momentaufnahmen darstellen, sondern durch die Kategorisierung und Quantifizierung effizient zur Verbesserung der Produkte und Services genutzt werden können. Und zum anderen dadurch, dass Kunden auf der Website etwa automatische Zusammenfassungen der Kommentare anderer Nutzer zu den jeweiligen Produkten suchen können.
Eine wichtige Erkenntnis, die jeder, der sich mit Natural Language Understanding beschäftigt, jedoch berücksichtigen sollte: Domänenwissen kann eine KI nur erlangen, wenn man sie ihr beibringt. Dies ist verständlich, da auch kein Mensch sich auf allen Wissensgebieten gleich zurechtfindet. Somit kann man sich vorstellen, dass das Training zum Lexikon und Domänenwissen in einem NLU-Projekt auf jeden Fall mit einem gewissen Zeitaufwand verbunden ist. So lag bei Thomann beispielsweise kein vortrainiertes Modell zur Domäne “Musik(instrumente)” vor – ohne die Hilfe eines Musikers aus unserem Team hätten wir hier aufgrund der vielen Fachbegriffe vermutlich vor kaum überwindbaren Hürden gestanden. Weiterhin war unsere Linguistin eine große Hilfe bei der Strukturierung der deutschen Sprache.
Unsere Sicht auf NLU: Die Technologie – insbesondere IBM Watson Knowledge Studio – kann bereits heute erstaunlich gute Ergebnisse liefern und das mit verhältnismäßig wenig Aufwand und nahezu ohne Coding-Kenntnisse. Unternehmen, die jetzt KI einsetzen, können dadurch einen Wettbewerbsvorteil erlangen. Wir erwarten eine exponentielle Steigerung der Möglichkeiten mit zunehmender Verbreitung von standardisierten Modellen zu verschiedensten Domänen, begleitet von zunehmendem Wissensaufbau bei der Anwendung von NLU in den Unternehmen und der Dienstleisterbranche.