THINK Blog DACH
Um alltägliche Dinge zu erklären, greifen wir auf einen umfangreichen und ausdrucksstarken Wortschatz zurück. Wir benutzen Beispiele, Gegenbeispiele, erstellen Regeln und Muster und heben...
Um alltägliche Dinge zu erklären, greifen wir auf einen umfangreichen und ausdrucksstarken Wortschatz zurück. Wir benutzen Beispiele, Gegenbeispiele, erstellen Regeln und Muster und heben wichtige Merkmale hervor, die vorhanden sind oder eben nicht. Wir als Menschen erwarten eine solche Erklärbarkeit auch bei Entscheidungen, die von Algorithmen getroffen werden. Wir wollen nachvollziehen können, wie maschinelle Lernmodelle zu ihren Entscheidungen kommen. Zum Beispiel profitieren Ärzte davon, verschiedene Krankheitsbilder für eine Diagnose zu vergleichen, die entweder sehr ähnlich oder sehr verschieden sind. Ein Bankkunde möchte nachvollziehen können, warum seine Kreditanfrage abgelehnt wurde und wie er seinen Antrag anpassen muss. Auf der anderen Seite wird eine Regulierungsbehörde ihre Entscheidung zu einem Vorgang nicht nur auf eine einzige Datenquelle und eine Ausgangslage stützen, sondern die zu entscheidende Situation als Ganzes betrachten, um so sicherzustellen, dass alles den Vorschriften entspricht. Ein IT-Entwickler wiederum wird nachvollziehen wollen, an welchen Stellen ein Programmiermodell Stärken oder Schwächen hat, um dessen Leistung zu verbessern.
Verschiedene Nutzer benötigen also auch unterschiedliche Erklärungen, wie Algorithmen zu Entscheidungen kommen. Dabei gibt es nicht den einen richtigen Ansatz, der am besten funktioniert. Vielmehr kommt es auf den Einzelfall und die jeweiligen Anforderungen an.
Erklärbarkeit über eine einzige Schnittstelle liefern
Um diese unterschiedlichen Erklärungsansätze genauer zu beschreiben, haben wir bei IBM AI Explainability 360 entwickelt. Dieses neue Open-Source Toolkit enthält Algorithmen für fallbezogenes Denken, so genannte lokale und globale Post-hoc Erklärungen und vieles mehr. Für die verschiedenen Möglichkeiten zur Erklärung von Algorithmen können Nutzer auf die folgenden Hilfestellungen zurückgreifen:
- Die AI Explainability 360 Demo, eine interaktive Demo, die eine einfache Einführung durch eine Credit-Scoring-Anwendung bietet.
- Mehrere detaillierte Tutorials, die Data Scientists anleiten, wie sie die Erklärbarkeit von KI auf andere Bereiche anwenden können – beispielsweise auf die klinische Medizin, das Gesundheits- oder das Personalwesen.
- Dokumentation, die den User bei der Auswahl einer passenden Erklärmethode unterstützen.
Das Toolkit wurde mit einer gemeinsamen Schnittstelle für alle möglichen Arten von Erklärmustern entwickelt – keine einfache Aufgabe. Darüber hinaus kann es erweitert werden, um Innovationen der Community zu beschleunigen, die zur Weiterentwicklung von KI beitragen. Wir haben uns bewusst für einen Open-Source-Ansatz entschieden, um eine aktive Community aus Data Scientists, politischen Entscheidungsträgern und der breiten Öffentlichkeit auf diesem Gebiet zu schaffen: Eine Community, die versteht, wie gewisse Algorithmen funktionieren und wie sich die Entscheidungen dieser Algorithmen auf ihre Praxisbereiche auswirken. AI Explainability 360 unterscheidet sich von anderen Open-Source-Programmen zur Erklärbarkeit von KI-Anwendungen vor allem durch die Vielfalt ihrer Methoden, ihrem Fokus auf die Ausbildung unterschiedlicher Stakeholder sowie die Erweiterbarkeit durch ein gemeinsames Framework.
Making AI more trusted, by making it explainable.
Vertrauenswürdige KI-Empfehlungen sicherstellen
Darüber hinaus interagiert es mit AI Fairness 360 und Adversarial Robustness 360, zwei weiteren Open-Source Toolboxes von IBM Research, die 2018 eingeführt wurden, um die Entwicklung von ganzheitlichen und vertrauenswürdigen so genannter Machine Learning-Pipelines zu unterstützen. Die erste Version besteht aus acht Algorithmen und beinhaltet Metriken aus der Community als quantitative Proxies, um die Qualität der Erklärungen sicherzustellen. Wir würden es sehr begrüßen, wenn die Research Community selbst den Ball aufnimmt und weitere Algorithmen entwickelt oder sich an dem Toolkit beteiligt.
Zwei der Algorithmen sind besonders hervorzuheben: Boolean Classification Rules via Column Generation – eine sehr genaue und skalierbare Methode, um maschinelle Lernmodelle direkt nachzuvollziehen. Das hat auch die Jury der FICO Explainable Machine Learning Challenge überzeugt und die Arbeit mit dem ersten Preis bedacht.
Der zweite Algorithmus ist die Contrastive Explanations Method – die vielleicht wichtigste lokale Post-hoc Methode, wenn es darum geht, KI nachzuvollziehen: Sie erklärt, warum ein Ereignis nicht isoliert, sondern anstelle eines anderen Ereignisses stattgefunden hat.
Verzerrungen bereits während der Ausführung erkennen
AI Explainability 360 ergänzt die bahnbrechenden Algorithmen von IBM Research, die in Watson OpenScale integriert wurden. Die Plattform wurde letztes Jahr veröffentlicht und unterstützt Kunden bei der transparenten Verwaltung von KI während des gesamten KI-Lebenszyklus, unabhängig davon, wo die KI-Anwendungen erstellt wurden oder in welcher Umgebung sie laufen. OpenScale erkennt und berücksichtigt auch Verzerrungen im gesamten Spektrum von KI-Anwendungen, während diese Anwendungen ausgeführt werden.