Wir freuen uns sehr über dein Interesse!
Auf dieser Seite wollen wir dir die Konzepte Bias und Fairness in Systeme aus dem Bereich der Künstliche Intelligenz (KI) vorstellen.
Die Grundlagenseite unterteilt sich in sieben aufeinander aufbauende Abschnitte. Du gelangst zu dem jeweiligen Abschnitt, wenn du auf das Icon im entsprechenden Kasten unten klickst.
Die Grundlagenseite unterteilt sich in sieben aufeinander aufbauende Abschnitte. Du gelangst zu dem jeweiligen Abschnitt, wenn du auf das Icon im entsprechenden Kasten unten klickst.
Bearbeitungshinweis:
Unsere Übungsaufgaben bauen auf den vermittelten Grundlagen auf dieser Seite auf. Wir empfehlen daher die parallele Erarbeitung der Grundlagen und der Übungsaufgaben. Aber keine Sorge! Nach den betreffenden Abschnitten verlinken wir auf die passenden Übungen und weisen dich nochmals darauf hin.
Lerne zunächst die Definitionen der Schlüsselbegriffe “KI-Systeme“, “Bias” und “Fairness” kennen. Klicke dafür jeweils auf einen der entsprechenden drei Kästen.
Lerne zunächst die Definitionen der Schlüsselbegriffe “KI-Systeme“, “Bias” und “Fairness” kennen. Klicke dafür jeweils auf einen der entsprechenden drei Kästen.
Lerne die Relevanz von Künstlicher Intelligenz (KI) für Wirtschaft und Gesellschaft, aber auch für deinen Alltag kennen. Für ein tieferes Verständnis grenzen wir in diesem Abschnitt zudem die Begriffe „Künstliche Intelligenz“ und „Maschinelles Lernen“ ab.
Lerne die Relevanz von Künstlicher Intelligenz (KI) für Wirtschaft und Gesellschaft, aber auch für deinen Alltag kennen. Für ein tieferes Verständnis grenzen wir in diesem Abschnitt zudem die Begriffe „Künstliche Intelligenz“ und „Maschinelles Lernen“ ab.
Schon heute setzen viele Unternehmen und Verwaltungen datengetriebene, algorithmische Entscheidungssysteme ein. Absehbar wird es kaum eine Branche oder einen Bereich des täglichen Lebens geben, in dem Systeme aus dem Bereich der Künstlichen Intelligenz (KI) nicht allgegenwärtig sein werden.
Auch du selbst nutzt bereits KI in deinem Alltag. Hast du heute bereits Spotify genutzt oder eine Serie auf Netflix geschaut? Ein KI-System hilft dir, die Musik und Filme zu finden, die du gerne magst. Ein Algorithmus lernt auf der Grundlage deiner Auswahl und gibt dann etwa Empfehlungen von neuen Songs, die du mit hoher Wahrscheinlichkeit zu deiner Wiedergabeliste auf Spotify hinzufügen wirst. Smart Home Geräte wie Alexa oder automatische Gesichtserkennung bei der Entsperrung deines Smartphones sind zwei weitere Beispiele dafür, welche Bedeutung KI in unserem Alltag hat.
KI steckt inzwischen hinter vielem – von Chatbots, Shopping-Empfehlungen bis hin zur Navigation mit Google Maps. Mit Hilfe von KI schafft es beispielsweise Google, Suchanfragen zu verstehen und relevante Ergebnisse für diese Anfrage zu bewerten. Unternehmen wie Facebook und LinkedIn setzen KI-Systeme ein, um fragwürdige Inhalte zu identifizieren. Dazu gehören potenziell gewaltverherrlichende, pornografische oder politisch extreme Inhalte. Bilder, Texte und Videos, die in diese Kategorie fallen (könnten), markiert die KI automatisch. Auch in der Medizin finden KI-Systeme in vielen Bereichen Anwendung: Basierend auf Bilddaten lernen KI-Systeme Diagnosen zu treffen.
Maschinelles Lernen (ML) als Teilgebiet von KI ermöglicht es Maschinen, ohne explizite Programmierung von Regeln Muster in Datensätzen zu finden und auf Basis dieser Analyse, Entscheidungen und Vorhersagen zu treffen. Ermöglicht wird dies durch die zunehmende Verfügbarkeit von großen Datenmengen und hohe Rechenleistung. ML-Anwendungen werden typischerweise umso genauer, je mehr Daten sie zur Verfügung haben – ohne dass eine zusätzliche Programmierung erforderlich ist.
Immer öfter liest man Schlagzeilen, weil KI-Systeme unsachgemäß eingesetzt werden und diskriminierende Entscheidungen treffen. Beispielsweise, wenn Bewerbungen mit Hilfe eines KI-Systems gefiltert werden und als Ergebnis nur Bewerber*innen des männlichen Geschlechts ausgewählt werden. Daher hat die Berücksichtigung von Fairness und Bias bei der Entwicklung solcher Systeme bereits erheblich an Bedeutung gewonnen.
Jedoch ergibt sich noch immer folgendes Problem: Nicht nur in der Bevölkerung, sondern auch unter denjenigen, die KI-Systeme entwickeln und einsetzen, gehen viele noch immer pauschal von einer Objektivität und Neutralität algorithmischer Entscheidungen aus. Doch weder ist diese gegeben, noch ist eine Entscheidung allein anhand objektiver Merkmale notwendigerweise fair und nicht-diskriminierend. Angesichts dieser Situation besteht ein großer Bedarf, ein tiefes Verständnis für die Herausforderungen in der Nutzung und Implementierung von KI-Systemen und möglichen Lösungsansätzen zu erlangen.
Lerne in diesem Abschnitt verschiedene Arten von Bias innerhalb des ML-Lebenszyklus kennen.
Lerne in diesem Abschnitt verschiedene Arten von Bias innerhalb des ML-Lebenszyklus kennen.
Maschinelles Lernen (ML) wird zunehmend eingesetzt, um Entscheidungen zu treffen, die das Leben von Menschen beeinflussen. Typischerweise lernen Algorithmen auf Basis vorhandener Daten und wenden die erlernten Muster auf ungesehene Daten an. Infolgedessen können bei der Datenerfassung, der Modellentwicklung und dem Einsatz der Systeme Probleme auftreten, die zu verschiedenen Verzerrungen führen können.
Bias kann in jeder Phase des ML-Lebenszyklus entstehen. Der ML-Lebenszyklus umfasst eine Reihe von Entscheidungen und Praktiken in der Entwicklung und Bereitstellung von ML-Systemen. Jede Phase beinhaltet Entscheidungen, die Bias herbeiführen können. Der Prozess beginnt mit der Datenerhebung. Dabei werden eine Zielpopulation definiert und eine Stichprobe daraus gezogen sowie Merkmale und Kennzeichnungen identifiziert und gemessen. Dieser Datensatz wird in Trainings- und Testdaten aufgeteilt. Ein ML-Modell wird auf Basis von Trainingsdaten „angelernt“. Die Testdaten werden zur Bewertung des Modells verwendet. Anschließend wird das Modell für eine reale Anwendung bereitgestellt und trifft Entscheidungen für ihre Nutzer*innen. Dieser Prozess ist zyklisch: Beispielsweise beeinflussen die Entscheidungen der Modelle den Zustand der Welt, der bei der nächsten Datenerfassung oder Entscheidungsfindung vorliegt.
Klicke auf die roten Punkte, um die elf Bias-Arten im ML-Lebenszyklus kennenzulernen:
Kein Problem. Du findest alle Informationen aus der interaktiven Grafik auch in dieser Box.
Kein Problem. Du findest alle Informationen aus der interaktiven Grafik auch in dieser Box.
Historische Verzerrungen sind die
bereits bestehenden Vorurteile und
soziotechnischen Probleme in der Welt.
Sie können selbst bei
perfekter Stichprobenziehung
und Merkmalsauswahl in den
Datenerstellungsprozess eindringen.
Repräsentationsverzerrungen ergeben
sich aus der Art und Weise, wie wir beim
Datenerhebungsprozesses vorgehen.
Nicht repräsentativen Stichproben fehlt es
an der Vielfalt der Grundgesamtheit
(bspw. fehlende Untergruppen).
Messfehler treten bei der Auswahl, Erfassung
oder Berechnung von Merkmalen und
Bezeichnungen auf, die in einem Vorhersageproblem
verwendet werden sollen.
In der Regel ist ein Merkmal oder eine
Kennzeichnung ein Proxy (ein konkretes Maß),
das zur Annäherung an ein Konstrukt gewählt wird,
das nicht direkt kodiert oder beobachtbar ist.
Omitted Variable Bias tritt auf,
wenn eine oder mehrere wichtige
Variablen aus dem Modell ausgelassen werden.
Der Bias tritt auf, wenn die für
eine bestimmte Aufgabe verwendeten Trainingsdaten
nicht die Nutzungspopulation repräsentieren.
Der Bias kann auch durch die Wahl
der Performance-Metriken verstärkt werden.
Hierunter versteht man Verzerrungen,
die nicht in den Daten enthalten sind,
sondern lediglich durch den
Algorithmus hinzugefügt werden.
Aggregationsverzerrungen treten auf, wenn ein
Einheitsmodell für Daten verwendet wird, denen Gruppen oder
Typen von Beispielen zugrunde liegen, die unterschiedlich
betrachtet werden sollten.
Damit ist ein Bias durch
die Benutzeroberfläche und durch
den Nutzenden selbst gemeint, indem das
System sein selbstgewähltes einseitiges Verhalten
und seine Interaktion aufzwingt.
Eine Verzerrung der Population entsteht,
wenn Statistiken, demografische Daten,
Repräsentant*innen und Nutzereigenschaften
in der Nutzerpopulation der Plattform
anders sind als in der ursprünglichen Zielgruppe.
Die Verzerrung beim Einsatz des Systems bezieht sich
im Allgemeinen auf jede Verzerrung,
die während des Einsatzes auftritt, wenn ein System auf
unangemessene Weise verwendet oder interpretiert wird,
was so nicht von den Designer*innen oder
Entwickler*innen beabsichtigt war.
Eine Rückkopplungsschleife zwischen Daten, Algorithmen
und Nutzenden, kann die bestehenden
Quellen von Verzerrungen noch verstärken.
In dieser Box beschreiben wir dir ein anschauliches Beispiel für jede der oben aufgeführten Bias-Arten.
Beachte, dass sich die einzelnen Bias-Arten nicht gegenseitig ausschließen, d. h. ein KI-System kann unter mehr als einer Art von Bias leiden. Beispielsweise können KI-Systeme in Fitness-Trackern Repräsentationsverzerrung enthalten, wenn dunklere Hauttöne im Trainingsdatensatz nicht enthalten sind, Messverzerrung enthalten, wenn der Fitness-Tracker bei dunklen Hauttönen eine geringere Leistungsfähigkeit aufweist und Bewertungsverzerrungen enthalten, wenn der Datensatz, der zur Bewertung des KI-Systems verwendet wird, keine dunklen Hauttöne enthält. Mehr dazu: https://www.youtube.com/watch?v=vVRWeGlMkGk.
Was solltest du mitnehmen?
Bias entsteht nicht nur durch verzerrte Daten. Bias kann auch aus der Art und Weise resultieren, wie das KI-System modelliert wird, wie das System evaluiert wird oder wie Nutzer*innen die Endergebnisse des KI-Systems interpretieren.
Nutze den ersten Kurs dieser Lerneinheit, um die verschiedenen Bias-Arten besser zu verstehen. Wenn du dir den vielfältigen Arten von Bias bewusst bist, kannst du solche in KI-Systemen besser erkennen.
Beachte, dass sich die einzelnen Bias-Arten nicht gegenseitig ausschließen, d. h. ein KI-System kann unter mehr als einer Art von Bias leiden. Beispielsweise können KI-Systeme in Fitness-Trackern Repräsentationsverzerrung enthalten, wenn dunklere Hauttöne im Trainingsdatensatz nicht enthalten sind, Messverzerrung enthalten, wenn der Fitness-Tracker Messgerät bei dunklen Hauttönen eine geringere Leistungsfähigkeit aufweist und Bewertungsverzerrungen enthalten, wenn der Datensatz, der zur Bewertung des KI-Systems verwendet wird, keine dunklen Hauttöne enthält.
Mehr dazu: https://www.youtube.com/watch?v=vVRWeGlMkGk).
Was solltest du mitnehmen?
Bias entsteht nicht nur durch verzerrte Daten. Bias kann auch aus der Art und Weise resultieren, wie das KI-System modelliert wird, wie das System evaluiert wird oder wie Nutzer*innen die Endergebnisse des KI-Systems interpretieren.
Nutze den ersten Kurs dieser Lerneinheit, um die verschiedenen Bias-Arten besser zu verstehen. Wenn du dir den vielfältigen Arten von Bias bewusst bist, kannst du solche in KI-Systemen besser erkennen.
Lerne die statistischen Definitionen von Fairness kennen.
Lerne die statistischen Definitionen von Fairness kennen.
Das Konzept Fairness soll sicherstellen, dass das KI-System nicht zu unfairen Entscheidungen oder Diskriminierung führt. Die Wahrung des Konzepts Fairness wird sowohl aus ethischer als auch aus rechtlicher Sicht von einer KI-Anwendung verlangt. Tatsächlich ist es verboten, gleiche soziale Sachverhalte ungleich oder ungleiche gleich zu behandeln, es sei denn, ein abweichendes Vorgehen wäre sachlich gerechtfertigt. Dies bedeutet insbesondere, dass Individuen nicht aufgrund ihrer Zugehörigkeit zu einer marginalisierten oder benachteiligten Gruppe diskriminiert werden dürfen.
Das potenzielle Schadensszenario, mit dem sich das Konzept Fairness in erster Linie auseinandersetzt, ist die Diskriminierung einer bestimmten Personengruppe durch ein KI-System – sei es aufgrund der ethnischen Herkunft der Personen, ihres Geschlechts, Alters, der Religion / Weltanschauung, oder sonstiger Indikatoren. Diese Indikatoren werden als sensible Merkmale angesehen, für die eine Nichtdiskriminierung festgelegt werden sollte. Bei dem Konzept Fairness werden die potenziellen Auswirkungen von Diskriminierung aus Sicht der Betroffenen ermittelt. Dies ist insbesondere relevant für KI-Systeme, die Entscheidungen über Personen treffen. Beispiele dafür sind KI-basierte Kreditvergaben, Auswahl von Bewerber*innen oder Empfehlungen bezüglich medizinischer Behandlungen. Folgen von Diskriminierung durch KI-Systeme können etwa verletzte Persönlichkeitsrechte, finanzielle Schäden oder Rufschädigung sein.
Während sich die Ungerechtigkeit anhand verschiedener Beispiele intuitiv erfassen lässt, besteht die Herausforderung darin, Fairness objektiv, metrikbasiert und möglichst skalierbar zu definieren. Wir stellen dir im Folgenden konkrete Möglichkeiten vor, Fairness quantitativ zu erfassen.
Es gibt verschiedene Möglichkeiten, zu definieren, wann ein KI-System fair ist. Wir schauen uns im Folgenden statistische Definitionen von Fairness an. Wir fokussieren uns hierbei auf Klassifikation im ML-Bereich. Klassifikation bezeichnet hier die Identifizierung einer Kategorie (z. B. kreditwürdig vs. nicht kreditwürdig) für eine Dateninstanz (z. B. die Daten einer Bankkundin) anhand von Trainingsdaten, deren Kategorien bekannt sind.
Die meisten der zur Bewertung der Fairness eines Modells verwendeten Metriken beziehen sich entweder auf die Arten von Fehlern, die ein Modell machen könnte, oder auf die Vorhersagekraft des Modells für verschiedene Gruppen. Oft können sie aus den Werten der sogenannten Confusion-Matrix abgeleitet werden. Sie enthält die Anzahl der richtig und falsch klassifizierten Testdaten des Modells je Klasse.
Wir betrachten die Confusion-Matrix für das Beispiel binärer Klassifikation. Beispielsweise könnte ein Modell Röntgenbilder in die Klassen „krank“ oder „gesund“ aufteilen oder ein Modell könnte Daten einer Bankkundin in die Klassen „kreditwürdig“ oder „nicht kreditwürdig“ kategorisieren. Wichtig ist dabei, dass die Ergebnisse vorab verifiziert sind. So werden als Testdaten beispielsweise Bilder verwendet, von denen vorab zweifelsfrei feststeht, auf wie vielen Bildern wirklich das Krankheitsbild zu sehen ist.
Klassifikationsmodelle müssen nicht binär sein – sie können beispielsweise auch für mehr als zwei Klassen trainiert werden. Die meisten Performance-Metriken lassen sich aus denen der binären Klassifikation ableiten, weshalb wir uns in dieser Lerneinheit auf diese beschränken.
Wie im Video erklärt, können also bei der Arbeit mit einem binären Klassifikator sowohl die vorhergesagten als auch die tatsächlichen Klassen zwei Werte annehmen: Klasse 1 und Klasse 2. Wir wiederholen zunächst die verschiedenen möglichen Beziehungen zwischen vorhergesagtem und tatsächlichem Ergebnis:
Oft gibt ein Modell für eine Dateninstanz aber nicht direkt eine der beiden Klassen (Klasse 1 oder Klasse 2) aus, sondern einen bestimmten Wert. Damit die Dateninstanz einer der beiden Klassen zugeordnet wird, wird ein Schwellenwert festgelegt über bzw. unter dem die eine oder die andere Klasse ausgegeben wird. Daher wird bei der Analyse binärer Ergebnisse häufig auch die ROC-Kurve (Receiver Operator Characteristic) verwendet, um die Performance eines Modells darzustellen. Die ROC-Kurve gibt Auskunft über die Performance über eine Reihe von Schwellenwerten und kann durch die Fläche unter der Kurve (AUC, area under the ROC-Curve), eine einzelne Zahl, zusammengefasst werden.
Die ROC-Kurve stellt die Performance-Metrik TPR gegen die Performance-Metrik FPR bei verschiedenen Klassifikationsschwellenwerten dar. Die folgende Abbildung zeigt eine typische ROC-Kurve.
Die AUC (area under the curve) misst die zweidimensionale Fläche unterhalb der gesamten ROC-Kurve (man denke an die Integralrechnung). Der Bereich unter der Kurve ist das Maß für die Fähigkeit eines Klassifikators, zwischen Klassen zu unterscheiden, und wird als Zusammenfassung der ROC-Kurve verwendet. Je höher die AUC, desto besser ist die Performance des Modells bei der Unterscheidung zwischen der Klasse 1 und Klasse 2.
Es gibt noch viele weitere Performance-Metriken, wie beispielsweise die folgenden vier:
Oft gibt ein Modell für eine Dateninstanz aber nicht direkt eine der beiden Klassen (Klasse 1 oder Klasse 2) aus, sondern einen bestimmten Wert. Damit die Dateninstanz einer der beiden Klassen zugeordnet wird, wird ein Schwellenwert festgelegt über bzw. unter dem die eine oder die andere Klasse ausgegeben wird. Daher wird bei der Analyse binärer Ergebnisse häufig auch die ROC-Kurve (Receiver Operator Characteristic) verwendet, um die Performance eines Modells darzustellen. Die ROC-Kurve gibt Auskunft über die Performance über eine Reihe von Schwellenwerten und kann durch die Fläche unter der Kurve (AUC, area under the ROC-Curve), eine einzelne Zahl, zusammengefasst werden.
Die ROC-Kurve stellt die Performance-Metrik TPR gegen die Performance-Metrik FPR bei verschiedenen Klassifikationsschwellenwerten dar. Die folgende Abbildung zeigt eine typische ROC-Kurve.
Die AUC (area under the curve) misst die zweidimensionale Fläche unterhalb der gesamten ROC-Kurve (man denke an die Integralrechnung). Der Bereich unter der Kurve ist das Maß für die Fähigkeit eines Klassifikators, zwischen Klassen zu unterscheiden, und wird als Zusammenfassung der ROC-Kurve verwendet. Je höher die AUC, desto besser ist die Performance des Modells bei der Unterscheidung zwischen der Klasse 1 und Klasse 2.
Im Folgenden führen wir nun drei statistische Definitionen von Fairness ein, die auf den oben genannten Performance-Metriken basieren. Auch hierfür haben wir für dich ein Video vorbereitet:
Wir wiederholen die drei vorgestellten Definitionen von Fairness:
In der Praxis ist es nicht möglich, ein Modell für alle Definitionen von Fairness zu optimieren. Welche Fairness-Definition solltest du also wählen? Wie bei den meisten ethischen Fragen ist die Antwort in der Regel nicht leicht zu finden und die Auswahl einer Definition sollte in einem Gespräch diskutiert werden, an dem alle Mitglieder*innen deines Teams beteiligt sind.
Übrigens: Wenn du an echten Problemstellungen arbeitest, werden die Daten viel, viel größer sein. In diesem Fall ist die Confusion-Matrix immer noch ein nützliches Instrument zur Analyse der Performance. Ein wichtiger Punkt ist jedoch, dass von realen Modellen in der Regel nicht erwartet werden kann, dass sie jede Fairness-Definition perfekt erfüllen. Wenn beispielsweise “Demographic Parity” als Fairness-Definition gewählt wird und ein Modell 50 % Männer auswählen soll, kann es vorkommen, dass das endgültige Modell einen Prozentsatz auswählt, der nahe an 50 % liegt, aber nicht genau 50 % beträgt (wie 48 % oder 53 %).
Lerne in diesem Abschnitt, wie du mit den Problemen Bias & Fairness in der realen Welt umgehen kannst.
Lerne in diesem Abschnitt, wie du mit den Problemen Bias & Fairness in der realen Welt umgehen kannst.
Es ist keine leichte Aufgabe, Bias in deinem KI-System zu erkennen, da dieser an jeder Stelle des ML-Lebenszyklus auftreten kann. Zudem sehen verschiedene Menschen verschiedene Ergebnisse als “fair” an.
Du hast bereits gelernt, dass Bias auf eine Vielzahl spezifischer Arten in einem ML-Lebenszyklus auftreten kann. Zudem hast du gesehen, dass es nicht den einen Ansatz für Fairness gibt, sondern verschiedene Auslegungen. Wie geht man nun in der realen Welt mit Bias und Fairness in KI-Systemen um? Um diese Problematik anzugehen, müssen viele Fragen gestellt werden. In der folgenden Grafik siehst du mögliche Fragestellungen für ausgewählte Phasen des ML-Lebenszyklus, die gestellt werden können, um unfaire Entscheidungen zu vermeiden.
Ein großes Problem besteht darin, dass ein Bias selten offensichtlich ist. Denke an die Kommentare, welche unter einem Beitrag auf einem sozialen Netzwerk gepostet werden. Sobald ein Kommentar zum Beispiel durch Hassreden gegen die Richtlinien der Plattform verstößt, kann es nach dem Posting durch die Plattform gelöscht werden. Manche Plattformen setzen KI-Systeme ein, um solche hasserfüllten Kommentare automatisch zu selektieren und zu löschen. Aber wer bestimmt, welche Kommentare hasserfüllt sind? Könnte solch ein KI-System unfaire Ergebnisse produzieren? Könnte jemand diskriminiert werden?
Nutze den dritten Kurs dieser Lerneinheit, um genau dieses Szenario genauer zu untersuchen. Du kannst hier direkt an einem realen Datensatz arbeiten und für ein KI-System prüfen, ob ein Bias vorliegt und Performance-Metriken untersuchen.
Lerne in diesem Abschnitt verschiedene Mitigationsstrategien kennen.
Lerne in diesem Abschnitt verschiedene Mitigationsstrategien kennen.
Bias in KI-Systemen kann vielfältig sein und zu unfairen oder diskriminierenden Entscheidungen führen. Aber es gibt auch viele Möglichkeiten, Bias zu bekämpfen. Wir geben dir in diesem Abschnitt einen Einblick in mögliche Mitigationsstrategien.
Es gibt einige Ansätze zur Abschwächung oder Beseitigung von Bias in den verschiedenen Phasen des ML-Lebenszyklus. Es gibt jedoch keinen „One size fits all“-Ansatz. Die Ansätze reichen davon, eine Anwendung so zu formulieren, dass sie relativ frei von Bias ist, über eine relativ unvoreingenommene Datenerfassung bis hin zur Entwicklung von Algorithmen zur Minimierung von Voreingenommenheit. Im Folgenden wollen wir dir zwei konkrete Ansätze vorstellen.
Erklärbare KI (engl. Explainable Artificial Intelligence, XAI) ist ein Bereich, in dem es im Wesentlichen darum geht, KI-Systeme transparenter zu machen, damit Menschen einem KI-System vertrauen und es genau überprüfen können – auch im Hinblick auf Voreingenommenheit und Fairness. Genauer gesagt umfasst Erklärbare KI eine Vielfalt von Technologien und Maßnahmen, welche dafür sorgen, dass die Transparenz eines KI-Systems steigt. Ziel ist immer, die Ergebnisse oder die interne Funktionsweise von KI-Systemen für menschliche Anwender*innen verständlich zu machen. Dadurch kann auch das Erkennen von Bias im ML-Lebenszyklus erheblich unterstützt werden und folglich korrigiert werden. Erklärbare KI kann demnach als eine Möglichkeit zur Mitigation von Bias und zur Verbesserung der KI-Fairness betrachtet werden.
Techniken zur Minimierung von Verzerrungen in Algorithmen können in drei Kategorien eingeteilt werden:
Der Bereich der algorithmischen Fairness ist ein neues Forschungsgebiet, welches noch weiter optimiert bzw. verfeinert werden muss. Dennoch gibt es bereits eine Vielzahl an Forschungsarbeiten, die faire Algorithmen und Techniken zur Abschwächung von Verzerrungen vorschlagen und verschiedene Algorithmen zur Abschwächung von Verzerrungen vergleichen.
Im Folgenden geben wir dir drei kurze Beispiele für bestehende Arbeiten und zeigen ihre Einteilung in eine dieser Kategorien. Dabei besteht das Hauptziel der Algorithmen darin, ein Modell mit höherer Accuracy zu erreichen und gleichzeitig sicherzustellen, dass die Modelle in Bezug auf sensible Attribute weniger diskriminierend sind. Mit einfachen Worten: Die Ausgabe des Klassifikators sollte nicht mit sensiblen Attributen korrelieren. Die Erstellung solcher ML-Modelle wird zu einem multikriteriellen Optimierungsproblem. Die Qualität des Klassifikators wird anhand seiner Genauigkeit und der Unterscheidung, die er auf der Grundlage sensibler Merkmale vornimmt, gemessen; je genauer, desto besser, und je weniger diskriminierend (auf der Grundlage sensibler Merkmale), desto besser.
Im Folgenden geben wir dir drei kurze Beispiele für bestehende Arbeiten und zeigen ihre Einteilung in eine dieser Kategorien. Dabei besteht das Hauptziel der Algorithmen darin, ein Modell mit höherer Accuracy zu erreichen und gleichzeitig sicherzustellen, dass die Modelle in Bezug auf sensible Attribute weniger diskriminierend sind. Mit einfachen Worten: Die Ausgabe des Klassifikators sollte nicht mit sensiblen Attributen korrelieren. Die Erstellung solcher ML-Modelle wird zu einem multikriteriellen Optimierungsproblem. Die Qualität des Klassifikators wird anhand seiner Genauigkeit und der Unterscheidung, die er auf der Grundlage sensibler Merkmale vornimmt, gemessen; je genauer, desto besser, und je weniger diskriminierend (auf der Grundlage sensibler Merkmale), desto besser.
Es gibt bisher nicht die eine richtige Antwort, wie Fairness in einem KI-System gewährleistet werden kann. Die “richtigen Antworten” entwickeln sich ständig weiter, da KI-Fairness ein aktives Forschungsgebiet ist.
Lerne in diesem Abschnitt die Vorteile einer Zukunft mit fairen Algorithmen zu sehen und zu ergreifen.
Lerne in diesem Abschnitt die Vorteile einer Zukunft mit fairen Algorithmen zu sehen und zu ergreifen.
Du darfst vor der Herausforderung, den Einsatz von algorithmischen Entscheidungssystemen fair zu gestalten, nicht zurückschrecken. Je tiefer man in das Thema Bias & Fairness in KI-Systemen taucht, desto mehr bekommt man die Komplexität des Problems zu spüren. Auf der philosophischen Seite findet ein Diskurs über die richtige Definition von Fairness bzw. Diskriminierung statt. Dies ist ein Diskurs, der technisch der Unmöglichkeit gegenübersteht, alle theoretischen Auffassungen von Fairness gleichzeitig zu berücksichtigen, da sie sich teilweise gegenseitig ausschließen. Auf der technischen Seite sieht man sich mit den Herausforderungen der Blackbox eines komplexen Algorithmus konfrontiert: Was passiert überhaupt alles in meinem Algorithmus?
Die Diskussion über faire Algorithmen muss jetzt stattfinden. Letztlich können uns Algorithmen helfen, sofern sie fair sind, unsere eigene Voreingenommenheit zu überwinden. Es sollten schnellstmöglich bestehende, diskriminierende Praktiken offengelegt und die Reflexion über zugrundeliegende Entscheidungskriterien angestoßen werden. So können die nächsten Schritte im Einsatz von Algorithmen und KI angeregt werden. Dazu zählt beispielsweise eine geschulte, aufgeklärte Nutzung von algorithmischen Entscheidungssystemen.
Bias und Fairness sind dabei nur Teile des Puzzles von vertrauenswürdiger und ethischer KI. Neben Bias und Fairness zählen beispielsweise auch Datenschutz und Erklärbarkeit dazu.