THINK Blog DACH

Bias vermeiden: Künstliche Intelligenz richtig steuern
By | IBM Consultant for Data Strategy
July 18, 2024
Bias vermeiden: Künstliche Intelligenz richtig steuern

Äpfel sind rot und Berufe wie Arzt, Rechtsanwalt oder CEO werden von weißen Männern ausgeübt. Das zumindest nehmen gängige KI-Bildgeneratoren an, wenn man ihnen solch allgemeine Prompts...

Äpfel sind rot und Berufe wie Arzt, Rechtsanwalt oder CEO werden von weißen Männern ausgeübt. Das zumindest nehmen gängige KI-Bildgeneratoren an, wenn man ihnen solch allgemeine Prompts schickt. Mit der Realität hat das freilich wenig zu tun, es handelt sich um sogenannte Verzerrungen (Bias) in KI. Dieser Bias entsteht durch Stereotypen, Verzerrungen und Vorurteile in den Trainingsdaten der KI, die dann die Ergebnisse beeinflussen. Das hat Folgen für die Nutzer_innen und die Akzeptanz von KI. Wie man dieses Herausforderungen angehen kann, fasse ich in diesem Beitrag zusammen.

Bias ist eine sogenannte „Algorithmische Voreingenommenheit“ und beschreibt systematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen. Beispiele für Bias im Zusammenhang mit Machine Learning und KI, gibt es viele, und das Problem ist wesentlich älter als Generative KI. So gab es beispielsweise Algorithmen, die in Bewerbungsverfahren zum Screening von Lebensläufen zum Einsatz kamen und Kandidatinnen benachteiligt haben, da diese eine Universität für Frauen besucht haben. Die Nachrichtenagentur Reuters berichtete ausführlich. Dies entstand schlicht aufgrund der Tatsache, dass der Algorithmus versehentlich mit vorwiegend Lebensläufen von Männern trainiert worden war und beispielsweise eine „Womans University“ im Trainingsdatenset einfach nicht vorkam und die KI dann entsprechende Lebensläufe aussortierte.

Wie wirkt sich Bias auf generative KI aus?

Bias war also schon immer vorhanden. Doch generative KI, also beispielsweise Text- und Bilderzeugungsmodelle wie ChatGPT oder Midjourney, zeigen Bias nun noch prominenter und machen die Lösung des Problems dringlicher. Durch sie ist KI erstmals einer breiten Öffentlichkeit zugänglich, und immer mehr Menschen nutzen die Modelle in ihrer täglichen Arbeit. Generative KI-Modelle lernen ebenfalls aus Trainingsdatensätzen und reproduzieren die in diesen Trainingsdaten vorhandene Muster. Sie sind also nur so präzise wie die Datensätze, mit denen sie trainiert wurden.

Das Ergebnis:

  1. Textgenerierung: Modelle, die Texte generieren, können bestehende sprachliche Vorurteile widerspiegeln. Wenn sie mit Textdaten trainiert werden, die beispielsweise geschlechts-, oder kulturbezogene Vorurteile enthalten, kann das zu unangemessenen oder diskriminierenden Inhalten führen.
  2. Bildgenerierung: Bei der Generierung von Bildern kann Bias in den Trainingsdaten dazu führen, dass bestimmte Merkmale bevorzugt oder vernachlässigt werden. Beispielsweise könnten Hautfarbe, Geschlecht oder soziale Klasse in den generierten Bildern verzerrt dargestellt werden. So entstehen die roten Äpfel und die vorwiegend männlichen und weißen Ärzte.

Faire Trainingsdatensätze: Leichter gesagt als getan

Wie ist es also möglich einen Datensatz so zu kuratieren, dass dieser möglichst fair ist? Nehmen wir für das Apfel-Beispiel vereinfacht an, dass derzeit ca. 70 % aller Apfelbilder im Internet rote Äpfel zeigen, 20 % gelbe und 10 % grüne Äpfel. Das wirft die Frage auf, wie die Verteilung bei einem „fairen“ Datensatz aussehen müsste. Wäre es fair, wenn wir diese zu gleichen Teilen aufteilen und von jeder Farbe 33% in unser Trainingsdatenset geben? Oder wäre es fairer zu betrachten, wie die Verteilung von roten, grünen, gelben oder auch mehrfarbigen Äpfeln in der realen Welt ist und dieses Verhältnis zu reproduzieren? Wir landen hier schnell im Bereich ethischer Fragen, die nicht immer eindeutig zu beantworten sind. Standardisierte, allgemein anerkannte und verpflichtende Vorgehensweisen fehlen zurzeit noch, da Ethikgremien höchstens Handlungsempfehlungen aussprechen können. Zudem sind die Datensätze, mit denen generative KI trainiert wird, riesig. Das aktive Kuratieren eines solchen Sets ist also kein einfaches Unterfangen und wenn zum Kuratieren wieder eine KI eingesetzt wird, muss davon ausgegangen werden, dass auch diese einen Bias haben könnte.

Wenn wir das Beispiel nun weiterdenken und auf die Berufsgruppen anwenden, geraten wir in noch schwierigere ethische Fahrwasser. Wer entscheidet in diesem Fall nach welchen Kriterien, wie viele Bilder von Männern und Frauen und welcher Herkunft wie häufig in ein Trainingsdatenset für eine Berufsgruppe einfließen? Soll die Verteilung der realen Welt zugrunde liegen, die nicht selten selbst das Ergebnis von Chancenungerechtigkeit ist? Soll die Grundlage stattdessen ein zwar wünschenswerter, aber fiktiver und unrealistischer Idealzustand sein, in dem alle Ethnien, Altersgruppen und Geschlechter entsprechend ihres Anteils an der Bevölkerung in allen Berufsgruppen vertreten sind? Dann stellt sich allerdings die Problematik, dass ein solches, faires Datenset für beispielsweise eine Person in Deutschland nicht unbedingt ein faires Datenset für eine Person einer anderen Herkunft darstellt.

Welche Lösungen bieten Anbieter von KI derzeit an?

Das Ziel ist es, ein möglichst faires Datenset zu erhalten, welche es ermöglicht eine vertrauenswürdige und erklärbare KI zu trainieren. Die Kuratierung ist daher der erste Schritt beim Aufbau eines vertrauenswürdigen Modells. Man unterscheidet zwischen positiver Kuratierung, also Inhalte dem Datenset hinzuzufügen und negativer Kuratierung, also Inhalte aus dem Datenset zu entfernen. Negative Kuratierung ist jetzt schon möglich, indem stark negativ behaftete Begriffe und Beleidigungen entfernt werden. Weiterhin ist es möglich in einem gewissen Rahmen eine positive Kuratierung durchzuführen, also Datensets für spezifische Branchen oder Umfelder anzupassen. IBM watsonx bietet diese Funktion, um etwa Fachterminologien bestimmter Bereiche zu inkludieren oder stark negativ behaftete Begriffe herauszufiltern. Das macht generative KI für Unternehmensumfelder sicherer und vertrauenswürdiger.

Welche Rolle spielt das Prompting, und was können KI-Nutzer_innen selbst tun?

Für Nutzer_innen ist es zunächst einmal wichtig, sich vor Augen zu führen, dass Bias existiert und oft auch nicht auf den ersten Blick zu erkennen ist. Weiterhin sollten von generativer KI erzeugte Ergebnisse immer hinterfragt werden. Zu viele Fehler schleichen sich noch in die Ergebnisse ein. Von diesem Wissen sollten Nutzer_innen sich auch bei der Formulierung ihrer Prompts leiten lassen und möglichst präzise Anfragen stellen, Suggestivfragen vermeiden und Kontext geben. Denn wenn wir eine bildgenerierende KI nach Bildern von grünen Äpfeln oder weiblichen CEOs fragen, erzeugt diese die richtigen Bilder auch. Nutzer_innen sollten sich nicht scheuen, der KI kritische Fragen zu stellen. Es kann auch sinnvoll sein, der KI eine Rolle zuzuweisen oder diese sogar bitten, kritisch ihre eigene Antwort zu reflektieren.

Beispiele für gezieltes Prompting, das hilft, Bias zu reduzieren, sind:

  • „Kannst du mir verschiedene Standpunkte zu Thema X geben?“
  • „Beschreibe die Vor- und Nachteile von…“
  • „Bitte beantworte meine Frage ohne geschlechts- oder kulturspezifische Stereotypen.“
  • „Bitte liefere ein Bild, das die Vielfalt der Ärzteschaft repräsentiert, einschließlich verschiedener Geschlechter, ethnischer Zugehörigkeiten und Altersgruppen.“.
  • „Beschreibe die erforderlichen Qualifikationen, Verantwortlichkeiten und Fähigkeiten für das Berufsbild, ohne geschlechtsspezifische Begriffe zu verwenden.“

Fazit: Die erfolgreiche Bias-Bekämpfung ist Grundlage für die Akzeptanz der Technologie

Die Reduzierung von „Bias in KI“-Anwendungen erfordert ein hohes Bewusstsein für das Phänomen auf Seiten der Industrie und von Nutzer_innen. Um das volle Potenzial generativer KI ausschöpfen zu können, ist es entscheidend, ungewollten Bias zu minimieren. Das fördert das Vertrauen der Öffentlichkeit in KI-Systeme und dieses Vertrauen ist die Grundlage für eine breite Akzeptanz und die erfolgreiche Implementierung der Technologie.

KI-Algorithmen, die einen starken Bias enthalten, verstärken bestehende Ungleichheiten und führen zu ungenauen oder fehlerhaften Entscheidungen in Unternehmen oder Organisationen. Es drohen Rufschäden und Vertrauensverlust. Unternehmen und ihr technisches Personal tragen daher eine hohe ethische Verantwortung. Sie müssen sicherstellen, dass ihre KI-Anwendungen fair und gerecht sind.

In der IBM verfolgen wir einen multidisziplinären und multidimensionalen Ansatz zur Förderung von verantwortungsvoller und vertrauenswürdiger KI. Lesen Sie hier mehr über unsere Perspektive zu den Chancen, Risiken und Maßnahmen zur Risikominimierung im Zusammenhang mit Foundation Models.

Article Categories