banner

Nachricht

Jun 13, 2023

Die Bedeutung erklärbarer KI für die Beseitigung von Vorurteilen im Zeitalter von ChatGPT

Seit den Anfängen der künstlichen Intelligenz sorgt die Technologie zeitweise für Aufregung, Besorgnis und natürlich auch für Fortschritte in allen Branchen.

Von Skynet bis hin zu revolutionären Diagnosefunktionen im Gesundheitswesen hat KI die Macht, sowohl die Fantasie anzuregen als auch Innovationen voranzutreiben.

In der breiten Öffentlichkeit drehen sich Diskussionen rund um KI in der Regel um ausgefallene Weltuntergangsszenarien, die Befürchtung, dass Roboter unsere Jobs übernehmen könnten, oder die Aufregung darüber, wie die Automatisierung zu einem ausgeglicheneren Work-Life-Paradigma führen könnte. Für die meisten ist die praktische Anwendung und das Verständnis von KI weitgehend verborgen geblieben, was zu Missverständnissen geführt hat, die das Vakuum füllen.

Die überzeugendsten Anwendungsfälle für KI waren lange Zeit Unternehmen, Regierungen und Technologiegiganten vorbehalten, aber das änderte sich mit der Einführung von ChatGPT von OpenAI. Dies ist das erste Beispiel dafür, dass ein großes Sprachmodell und seine generativen Fähigkeiten allgemein für den Massenkonsum verfügbar sind.

Es hat einen KI-Spielplatz geschaffen, der in vielen Kontexten sofort und in unterschiedlichem Maße nützlich ist.

Das eklatanteste Problem, das es schon seit den Anfängen der KI gibt, ist jedoch die Voreingenommenheit.

In jüngster Zeit haben sich Datenwissenschaftler intensiv auf die Suche nach Möglichkeiten gemacht, mit denen Verzerrungen aus Modellen beseitigt werden können. Besonderer Druck besteht in Branchen, in denen sich die Ergebnisse von Modellen negativ auf Kunden und Endbenutzer auswirken könnten.

Bei Finanzdienstleistungen beispielsweise werden seit vielen Jahren Entscheidungsalgorithmen eingesetzt, um Entscheidungen zu beschleunigen und Dienstleistungen zu verbessern. Aber im Zusammenhang mit Krediten können „schlechte“ oder „falsche“ Entscheidungen, die das Ergebnis eines voreingenommenen Modells sind, katastrophale Folgen für den Einzelnen haben.

Um Voreingenommenheit zu beseitigen, ist eine mehrgleisige Strategie erforderlich. Sie reicht von der Sicherstellung, dass die Teams für Datenwissenschaft und maschinelles Lernen repräsentativ für die Communities sind, für die sie Lösungen entwickeln – oder zumindest die Prinzipien der Integration von Fairness in Modelle verstehen – bis hin zur Sicherstellung, dass Modelle erklärbar sind.

Die Hauptmotivation für erklärbare KI als Best Practice ist die Eliminierung von „Black-Box“-Modellen für maschinelles Lernen. Black Boxes sind zwar oft leistungsstark, aber wenn ihre Ergebnisse nicht nachvollziehbar sind, gibt es kaum konkrete Verteidigungsmöglichkeiten gegen Vorwürfe der Ungenauigkeit oder Diskriminierung.

In Branchen, in denen Entscheidungsmodelle tiefgreifende Konsequenzen haben können, wächst der Druck sowohl seitens der Verbraucher als auch der Regulierungsbehörden, die Rechenschaftspflicht zu erhöhen, weshalb Unternehmen meiner Ansicht nach versuchen müssen, der Konkurrenz einen Schritt voraus zu sein.

Die Schlüsselkomponenten eines Modells, die bei der Berücksichtigung von Bias erklärt werden müssen, werden oft vernachlässigt. Datenwissenschaftler und Ingenieure für maschinelles Lernen verfügen über eine Standardpipeline, mit der sie beim Erstellen eines Modells arbeiten können. Daten sind natürlich das Herzstück von allem, daher beginnen wir damit, unsere Datensätze zu untersuchen und Beziehungen zwischen ihnen zu identifizieren.

Anschließend führen wir eine explorative Datenanalyse durch, die es uns ermöglicht, Daten in eine nutzbare Form umzuwandeln. Dann ist es an der Zeit, die Daten zu bereinigen, zu bereinigen und vorzuverarbeiten, bevor wir mit der Feature-Generierung beginnen, um nützlichere Beschreibungen der Daten zur Lösung des vorliegenden Problems zu erstellen.

Anschließend experimentieren wir mit verschiedenen Modellen, optimieren Parameter und Hyperparameter, validieren die Modelle und wiederholen den Zyklus, bis wir eine leistungsstarke Lösung haben. Das Problem dabei ist, dass die resultierenden Ergebnisse verzerrt sein können, wenn in jeder Phase keine engagierten Anstrengungen unternommen werden, um Fairness zu gewährleisten.

Natürlich können wir niemals die vollständige Beseitigung von Verzerrungen gewährleisten, aber wir können Anstrengungen unternehmen, um sicherzustellen, dass jede Phase der Modellentwicklung einer Methodik entspricht, bei der Fairness im Vordergrund steht.

Meine Empfehlung für die Umsetzung besteht darin, zunächst verschiedene Datensätze für Trainingsmodelle auszuwählen, d verstanden.

Die eigentliche Herausforderung und ein Kernprinzip der erklärbaren KI besteht darin, dass das Innenleben von Modellen nicht nur von Datenwissenschaftlern verstanden werden sollte. In den meisten Fällen müssen (und sollten) mehrere Parteien wissen, wie ein Modell für maschinelles Lernen funktioniert.

Google war mit der Veröffentlichung seines Papiers zu „Modellkarten“ im Jahr 2019 Vorreiter bei der Erstellung einer standardisierten Dokumentation, die genau dies leistet. In dem Papier schlagen die Autoren die Protokollierung von Modelldetails, beabsichtigter Verwendung, Metriken, Bewertungsdaten, ethischen Überlegungen, Empfehlungen und mehr vor .

Auf dieser Grundlage und unter Berücksichtigung der besonderen Anforderungen von Branchen, beispielsweise solchen, die stark reguliert sind, können Unternehmen zeigen, wie Verzerrungen in jeder Phase der Modellerstellung systematisch berücksichtigt wurden. Kehren wir zum Anwendungsfall eines Kreditgebers zurück, wird deutlich, warum erklärbare KI so wichtig ist.

Wenn eine Person das Gefühl hat, dass ihr ein Kredit zu Unrecht verweigert wurde, ist es wichtig, dass der Kreditgeber erklären kann, warum die Entscheidung getroffen wurde. Im Extremfall kann die Nichtbegründung der Entscheidung zu rechtlichen Schritten wegen Diskriminierung führen.

In diesem Fall ist es wichtig, dass das Modell, die zu seiner Konstruktion verwendete Methodik und sein Ergebnis sowohl für Juristen als auch für die betroffene Person verständlich sind. Abgesehen von diesem Ausnahmefall können die Informationen über Modelle für eine Reihe von Geschäftsbereichen und nicht-technischen Personen relevant sein, sodass für jeden eine unterschiedliche Dokumentation maßgeschneidert werden sollte.

Wenn es keine Dokumentation gibt, die Modelle erklärt, wird letztendlich jedes Modell für irgendjemanden eine Black-Box-Lösung sein, was eine zunehmend unhaltbare Situation ist. Es ist kein Fehler, dass ChatGPT zu einem Zeitpunkt angekommen ist, an dem die allgemeine Bevölkerung ein angemessenes Verständnis von Datenschutz, -verwaltung und -rechten erreicht hat. Die beiden sind möglicherweise nicht direkt miteinander verbunden, sondern können eher als komplementäre, ausgleichende Kräfte in der Entwicklung der Technologie betrachtet werden.

Dank Datenschutzbestimmungen wie der EU-DSGVO und dem kalifornischen Consumer Privacy Act sowie der endlosen Cookie-Genehmigungsformulare auf Websites sind wir uns alle bewusster, welche Daten wir weitergeben und wie sie verwendet werden könnten – und mit größerem Bewusstsein gehen auch höhere Erwartungen einher .

ChatGPT hat die kollektive Vorstellung davon beflügelt, was möglich ist, wenn ein Modell auf riesigen Datenmengen trainiert wird, aber es gibt sehr deutliche Beispiele dafür, wie das Modell problematische Ergebnisse geliefert hat. ChatGPT ist eine Black Box, daher können die Ergebnisse, die es liefert, nicht vollständig erklärt oder als verlässlich angesehen werden. Es macht auch sachliche Fehler, von denen einige gravierend sind, weil es von gängigen Gesprächsmustern ausgeht, etwa wenn Einzelpersonen selbstbewusst ihre Meinung als Tatsachen behaupten.

Mit der Weiterentwicklung der KI wird sich auch das allgemeine Verständnis ihrer Leistungsfähigkeit und Grenzen weiterentwickeln. Große Sprachmodelle sind von Natur aus Black Boxes, was bedeutet, dass die Zukunft von ChatGPT und seine Benutzerfreundlichkeit von der Entwicklung robuster Methoden abhängen werden, um abzuleiten, wie und warum diese Modelle zu ihren Ergebnissen gelangt sind, was die nächste Stufe der erklärbaren KI darstellt .

Speichern Sie meinen Namen, meine E-Mail-Adresse und meine Website in diesem Browser für den nächsten Kommentar.

D

AKTIE