THINK Blog DACH

Ohne Ethik kein Vertrauen:Zeit für ein Gespräch
By | Leader IBM Watson Center Munich, IBM Innovation Studio EMEA, CTO - AI Advisory Board Bavaria - IBM DE
June 19, 2019

Künstliche Intelligenz (KI) durchdringt alle Bereiche unseres Lebens und viele von uns hatten bereits Kontakt mit einem intelligenten System, ohne es zu wissen. Denn dank großer Fortschritte im...

Künstliche Intelligenz (KI) durchdringt alle Bereiche unseres Lebens und viele von uns hatten bereits Kontakt mit einem intelligenten System, ohne es zu wissen. Denn dank großer Fortschritte im Bereich der natürlichen Sprachprogrammierung klingen die virtuellen Assistenten nicht einmal mehr wie rasselnde Roboter. Besonders wenn es um den Kundenservice geht, haben viele von uns bereits mit einem von ihnen gesprochen. Wir fragen die intelligenten Helfer nach den unterschiedlichen Arten von Darlehen bei der Bank, beantragen mit ihrer Unterstützung staatliche Leistungen oder rufen über sie eine Mitfahrgelegenheit, die uns nach Hause bringt. Die Wunderwaffe von KI: Der Service wird schneller, intelligenter und personalisierter.

Aber es gibt bei vielen auch Bedenken, ob man einer KI wirklich vertrauen kann. Eine Studie des IBM Institute of Business Value ergab, dass aktuell 82 Prozent der Unternehmen zumindest über die Einführung von KI nachdenkt. Gebremst wird diese Entwicklung aber von Sicherheits- und Datenschutzbedenken: 55 Prozent sind sich unsicher, wie ihre Daten verwendet werden. Vertrauen in die Technologie ist aber die Grundvoraussetzung, damit Unternehmen KI-Systeme selber implementieren. Die großflächige Adoption von KI muss in einigen Fällen also noch warten.

Vertrauen

Transparenz schafft Vertrauen

Tech-Unternehmen sind gefordert, das Vertrauen in KI zu stärken und die erheblichen Vorteile der Technologie herauszustellen. Aber wie kann das gelingen? Zunächst braucht jedes Unternehmen, das KI-Modelle entwickelt oder nutzt, klare Grundsätze für die Entwicklung, den Einsatz und die Steuerung von KI. Diese müssen nicht umfangreich oder komplex sein, aber sie müssen zumindest vom Vorstand oder der Geschäftsleitung glaubhaft vertreten werden. Darüber hinaus müssen sie öffentlich sichtbar sein und in konkrete Handlungen umgesetzt werden. Transparenz ist hier das Stichwort. Außerdem sind in diesem Zusammenhang die Anwender von KI-Lösungen gefragt. Konkret bedeutet das beispielsweise, dass eine Bank ihre Kunden informiert, wenn sie einen virtuellen Assistenten bei der Beantwortung von Fragen rund um Darlehen einsetzt.

Ein Blick in die Praxis zeigt, dass nicht selten unterschiedliche Personen für die Erfassung der Daten, die Erstellung der Algorithmen und deren Anwendung verantwortlich sind. Unternehmen müssen daher in jeder einzelnen Phase sicherstellen, dass die Ethik-Grundsätze eingehalten werden. Bei dieser Aufgabe sind sie aber zum Glück nicht auf sich alleine gestellt, sondern können auf mehrere vielversprechende Rahmenbedingungen zurückgreifen.

Ethische Richtlinien etablieren

Die Europäische Kommission hat im April 2019 Ethikrichtlinien zur Entwicklung und Nutzung von Künstlicher Intelligenz veröffentlicht. Ziel ist es, einen weltweiten Standard für eine ethische und verantwortungsbewusste KI zu definieren. Dazu hat das Gremium aus unabhängigen Experten, unter anderem Francesca Rossi, Global AI Ethics Leader bei IBM, sieben Voraussetzungen formuliert. Demnach muss ein KI-System die folgenden Anforderungen erfüllen: Vorrang menschlichen Handelns und menschlicher Aufsicht, Robustheit und Sicherheit, Privatsphäre und Datenqualitätsmanagement, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, gesellschaftliches und ökologisches Wohlergehen sowie die Rechenschaftspflicht.

Die Leitlinien enthalten auch eine Bewertungsliste, die Tech-Unternehmen als Fahrplan für die Operationalisierung vertrauenswürdiger KI dienen kann. Jetzt sind sie gefragt, diese Liste auf Herz und Nieren zu testen – bis zum Jahresende. Ihre Rückmeldungen aus dieser Pilotphase helfen dabei, die endgültige Liste für 2020 festzulegen. Zu Beginn könnten sich die Unternehmen zwei der wichtigsten Herausforderungen widmen: Verzerrungen in den Daten erkennen und vermeiden sowie sicherstellen, dass die Menschen verstehen, wie eine KI zu ihren Entscheidungen kommt.

Unfaire Verzerrungen identifizieren

Denn die KI wird von Menschen mit Daten trainiert, die implizite Rassen-, Geschlechter- oder andere Vorurteile enthalten können. Im Recruiting-Prozess könnte ein solches System die Auswahl der Kandidaten in der ersten Runde in Bezug auf ihr Alter, Ausbildungsort oder Adresse verzerren. Werkzeuge, die solche Verzerrungen erkennen und abschwächen, werden aktuell entwickelt oder sind bereits auf dem Markt. Sie müssen aber auch genutzt werden: Unternehmen sollten sicherstellen, dass sie diese Tools entweder selber verwenden oder nur mit solchen KI-Anbietern zusammenarbeiten, die dies tun.

Genauso muss nachvollziehbar und überprüfbar sein, wie die KI zu ihren Empfehlungen kommt. Hier darf es keinen „Einheitsbrei“ geben, sondern die Empfehlung muss auf den jeweiligen Empfänger zugeschnitten sein. Wenn ein Krankenhaus ein KI-System einsetzt, um Mediziner bei der Diagnose einer Krankheit zu unterstützen, sollte das System in der Lage sein, dem Arzt und dem Patienten entsprechend zugeschnittene Erklärungen zu geben, wie es zu einer Diagnose kommt. Ebenso könnten in einem Gerichtsprozess der Richter und die Öffentlichkeit unterschiedliche Erklärungen für die automatisierte Bewertung eines Rechtstextes benötigen.

Vertrauen-Arzt

Künstliche Intelligenz verändert grundlegend alle Facetten des Arbeitslebens in rasantem Tempo. Indem sich Werkzeuge zur Einhaltung von Ethik-Richtlinien weiterentwickeln und sich auch Regierungen einbringen, bekommen Unternehmen wichtige Hilfestellungen an die Hand gereicht. Diese unterstützen bei der Implementierung von KI-Systemen und bauen Bedenken ab. Das Zeitalter für eine verantwortungsvolle und ethische KI ist angebrochen – jetzt liegt es an den Unternehmen, das Gespräch zu suchen und Vertrauen aufzubauen.

Article Categories