THINK Blog DACH
Die Regulierung von Technologie sollte durch die Entwicklung eines offenen KI-Ökosystems gestützt werden, damit Unternehmen wie Entwickler mit dieser verantwortungsvoll umgehen können. Dieser...
Die Regulierung von Technologie sollte durch die Entwicklung eines offenen KI-Ökosystems gestützt werden, damit Unternehmen wie Entwickler mit dieser verantwortungsvoll umgehen können.
Dieser Artikel erschien ursprünglich: Centre for the Fourth Industrial Revolution
- Mit der zunehmenden Präsenz von Künstlicher Intelligenz (KI) in verschiedensten Lebensbereichen spielt die Regulierung von Technologie zum Schutz der Menschen vor zahlreichen ethischen und sozialen Problemen eine immer wichtigere Rolle.
- Die Regulierung einer schnelllebigen Branche wie die der Technologiebranche kann sich als schwierig erweisen, da die Innovationsgeschwindigkeit neue Regeln schnell überholen kann.
- Die Einrichtung eines offenen KI-Ökosystems könnte das innovative Potenzial der globalen Tech-Community besser zugänglich machen. Gleichzeitig könnten Experten besser überblicken, was in der Entwicklung wie in den Unternehmen passiert und Entwickler blieben für ihre Innovationen selbst verantwortlich.
Die Anwendungen von Künstlicher Intelligenz (KI) werden immer ausgefeilter. Dabei zeichnet sich bezüglich der jüngst sehr populären Large Language Models (LLMs) ein Paradigmentwechseln in ihrer Entwicklung ab.
LLMs werden mithilfe generativer KI erstellt, um neue Antworten auf Anweisungen in natürlicher Sprache, Code oder anderen Datentypen zu erzeugen. Sie können auch als Grundlage für viele kleine, spezialisierte Modelle für spezifische Aufgaben verwendet werden.
Der Hype um LLMs hat jedoch auch eine Flut von Bedenken bezüglich der Entwicklung und des Einsatzes von KI ausgelöst. Diese Bedenken beinhalten eine Vielzahl ethischer und sozialer Risiken, wie z.B. den Missbrauch von LLMs durch Akteure mit böswilliger Absicht.
Bereits seit einiger Zeit bemüht man sich seitens der Unternehmen wie auch auf nationaler und globaler Ebene, die Risiken der KI einzudämmen, damit Sicherheit, Vertrauenswürdigkeit und Fairness eingehalten werden können. Die kürzlich ins Leben gerufene AI Governance Alliance des Weltwirtschaftsforums und die Europäische AI Alliance der EU sowie länderspezifische Initiativen wie das Pilot Gen AI Redteaming Network der Schweizer Regierung und der ETH Zürich verfolgen dieses Ziel.
Nun steht das KI-Gesetz der EU kurz vor der Verabschiedung. Während diese neue Technologie in unseren Alltag zunehmend Einzug hält, dürfte es weltweit bald das erste umfassende KI-Gesetz sein, das zum Schutz unserer Sicherheit und unserer Grundrechte beiträgt.
Die Regulierung von Technologie ist wichtig, reicht aber allein nicht aus. Der KI-Bereich entwickelt sich gegenwärtig so schnell weiter, dass Regulierungen bald zu Einschränkungen führen könnten. Deshalb brauchen wir einen ganzheitlichen Ansatz für die Regulierung von KI und ihren Umgang. Dieser sollte die Regulierung der Technologie in Verbindung mit Bemühungen um ein offenes und transparentes KI-Ökosystem berücksichtigen. So könnten Entwickler und Forscher Risiken, die durch den Einsatz von KI entstehen könnten, mit Hilfe einer dynamischen Governance frühzeitig erörtern und eindämmen.
Was bedeutet eine dynamische Governance?
LLMs lernen kontinuierlich von neuen Daten, doch ein spezifisches Prompting durch den oder die Benutzer_in kann unerwünschte oder unvorhersehbare Ergebnisse zur Folge haben. Damit die beabsichtigte Funktionsweise gewährleistet werden kann, ist es für Unternehmen unabdingbar, ihre Modelle, die eingegebenen Daten und die Ergebnisse ständig zu überwachen.
Spezielle Governance-Toolkits – Systeme und Prozesse, die Unternehmen bei der Messung ihrer Governance-Leistung unterstützen, wie z.B. watsonx.governance von IBM – können Unternehmen in dieser Hinsicht helfen, indem sie es ihnen ermöglichen, die Ergebnisse kontinuierlich zu überwachen und zu verbessern. Dadurch könnten Unternehmen Risiken, die sich aus der Qualität der Trainingsdaten ergeben, durch eine verbesserte Transparenz darüber, wie die KI Entscheidungen trifft, steuern und die Einhaltung der technologischen Regulierungen sicherstellen – auch wenn sich die Vorschriften im Laufe der Zeit ändern.
Eine solche dynamische Governance sollte unabhängig davon angewandt werden, ob die KI in einer geschlossenen, proprietären Umgebung oder in einem offenen KI-Ökosystem entwickelt wird. Auch wenn manche Unternehmen es vorziehen, ihre KI-Technologie im Verborgenen zu entwickeln, kann eine offene und transparente KI der Gesellschaft zugutekommen, Innovationen vorantreiben und zur Sicherheit der KI selbst beitragen. Mit einem offenen Innovationsansatz wird der Zugang zu den wichtigsten und am weitesten verbreiteten Weiterentwicklungen demokratisiert. Transparenz führt außerdem dazu, dass neue Tools von der Tech-Community intensiver geprüft werden, was ebenfalls die Sicherheit erhöht.
Kurz gesagt: Offenheit und Transparenz erschließen das innovative Potenzial der globalen Community und fördern gleichzeitig einen verantwortungsbewussten Umgang. Dies wurde bereits bei der Linux Foundation deutlich, einer Open-Source-Softwareplattform, die 2007 als gemeinnütziges Projekt zur Förderung von technologischer Innovation gegründet wurde. Offenheit ermöglicht eine genauere Prüfung durch die Tech-Community, wobei die Audits Experten auf der ganzen Welt zugänglich gemacht werden. Forscher und Entwickler haben dadurch Zugriff auf die Daten, die sie benötigen, um Fehler zu beheben und Risiken zu begegnen. Sie können so schneller auf technische und ergebnisbezogene Probleme reagieren.
Schaffung einer offenen KI-Community
Aus diesem Grund haben IBM und Meta kürzlich die AI Alliance gegründet. Ziel dieser Zusammenarbeit ist es, gemeinsam eine offene KI-Community zu fördern. LLMs sollten von Grund auf transparent und verantwortungsvoll entwickelt werden.
Während Initiativen wie die AI Alliance darauf abzielen, globale Talente zusammenzubringen, um die Entwicklung, Bereitstellung und das Management von KI-Technologie zu demokratisieren, meine ich nicht, dass KI komplett offen sein sollte. Und, was entscheidend ist, „offen“ bedeutet nicht „unkontrolliert“. Governance ist ebenso wichtig, unabhängig davon, ob es um offene oder proprietäre KI geht.
Wir sind noch weit davon entfernt, zu verstehen, wie KI unsere Gesellschaft verändern wird. Doch wir wissen bereits heute, dass die Regulierung der KI von zentraler Bedeutung ist. Die Einführung dynamischer Governance-Technologien und eines offenen KI-Ökosystems sind grundlegende Schritte auf dem Weg zu einer angemessenen Regulierung von KI.
Der Artikel erschien zuerst im englischen Original auf dieser Website.