Warum wir Algorithmen nicht blind vertrauen sollten
Die Mathematikerin und Datenwissenschaftlerin Cathy O’Neil bezeichnet Algorithmen als „Mathematische Massenvernichtungswaffen“. Ihr TEDtalk ist Pflichtprogramm für alle, die wissen wollen, was hinter vermeintlich objektiven Algorithmen steckt.
Algorithmen, die aus „Big Data“ generiert werden, sind nicht fair. Sie sind oft weit entfernt von wissenschaftlichen Erkenntnissen – und daher auch extrem anfällig für die Übernahme stereotyper und vorurteilsbehafteter Verhaltensweisen und Beurteilungen. Um einen Algorithmus zu programmieren, benötigt man zwei Informationen:
- Daten aus der Vergangenheit
- Eine Definition von Erfolg – also welches Ergebnis mit den Daten erzielt werden soll.
Algorithmen benutzen wir jeden Tag, bei allen Alltags-Handgriffen, die wir uns im Laufe der Jahre angewöhnt haben – vom Zähneputzen bis zum Rasen mähen. Diese „Handlungs-Algorithmen“ haben wir jedoch selbst bestimmt. Wir entscheiden über Erfolg oder Misserfolg – und im zweiten Fall müssen wir auch mit den Konsequenzen leben. Wer die Zähne nicht putzt, bekommt halt irgendwann Karies.
Algorithmen in der IT sind nichts anderes. Sie sind Meinungen, Haltungen und Überzeugungen, die in einen Code eingebettet sind. Algorithmen sind nicht neutral. Sie übernehmen Vorurteile und Stereotype derer, die sie programmieren. Und das wird zu einem echten Problem – vor allem bei der voranschreitenden Weiterentwicklung Künstlicher Intelligenzen.
Wenn vorurteilsbehaftete Algorithmen immer mehr Entscheidungen abnehmen und die einprogrammierten Vorurteile und Stereotype unerkannt bleiben, könnte es schwerwiegende negative Konsequenzen nach sich ziehen für jede Art von Minderheiten und sozial schwachen Personengruppen.
Kürzlich veröffentlichte Studien in den USA sagen voraus, dass mehr als 80% der Unternehmen in fünf Jahren Künstliche Intelligenz zur Leistungsbeurteilung nutzen und beim Personalrecruiting einsetzen werden. Denken Sie kurz darüber nach, welche Implikationen Vorurteile und Stereotype haben werden, die in den Algorithmen Künstlicher Intelligenzen eingebaut sein könnten.
Vicente Ordóñez, Informatikprofessor an der University of Virginia, stellte vor einiger Zeit fest, dass Künstliche Intelligenzen einen signifikanten genderbezogenen Verzerrungseffekt zeigten, der durch Machine-Learning-Algorithmen sogar noch verstärkt wurde. Bestimmte Bilder wurden jeweils einem Geschlecht zugeordnet. Wenig überraschend ordneten die Programme Tätigkeiten wie Kochen oder Waschen als „typisch weiblich“ ein. Solche wie Sport oder Schießen war, wer hätte es gedacht, auch bei der KI Männersache.
Cathy O’Neil kritisiert in ihrem TEDtalk, dass wir den Algorithmen viel zu oft vertrauen, weil wir glauben, dass die klare Sprache und Struktur der Mathematik menschliche Stereotype oder vorurteilsbehaftete Handlungen ausmerzen kann. In einer perfekten Welt wäre das sicherlich so. Aber die Welt ist nicht perfekt, sie ist nicht vorurteilsfrei und im echten Leben ist 1+1 nicht mehr 2, wenn man die mathematische Formel auf die Berechnung einer Kaninchenpopulation anwendet.
Algorithmen sind nicht fair, weil die Menschen, die sie programmieren, nicht zu 100 Prozent fair sein können. Niemand kann das. Niemand ist vorurteilsfrei oder wertfrei. Wir alle haben unsere Vorlieben und Abneigungen – das ist menschlich!
Programmierer automatisieren einen Status Quo (basierend auf Datensätzen aus der Vergangenheit). Und wenn dieser Status Quo unfair, vorurteilsbehaftet oder stereotyp ist, so übernimmt ihn dieser Algorithmus. Ungefragt! Denn es ist ja nicht der Algorithmus selbst der das tut, sondern die Person, die diesen Algorithmus basierend auf den vorhandenen Daten programmiert hat.
Ethisch-moralische, durch Algorithmen getroffene, Entscheidungen, die eine Masse von Menschen betreffen können, brauchen daher dringend eine kontrollierende Instanz.
Viele Unternehmen zeigen allerdings – und das ist die Kritik einer sich gerade formenden Gruppe hochrangiger Wissenschaftlerinnen und Wissenschaftler in den USA – wenig Interesse an der Überwachung und Begrenzung algorithmischer Vorurteile. Auch die Intransparenz bereits bestehender Algorithmen bereitet der „AI Now-Initiative“ Sorgen.
Weil, wie Cathy O’Neil in ihrem TEDtalk sagt:
„There’s a lot of money to be made in unfairness.”
Um Algorithmen fairer zu machen, schlägt O’Neil daher einen “Algorithmus-Audit” vor, der wie folgt aussieht:
- Die Daten müssen auf Integrität geprüft werden.
- Die Definition von „Erfolg“ muss transparent(er) definiert werden.
- Treffergenauigkeit und Fehlerquoten müssen bewusst berücksichtigt werden. Wo tauchen Fehler auf? Und welche Zielgruppe ist davon schwerpunktmäßig betroffen? Warum ist das so? Und wollen wir das? Was sind mögliche Folgen?
- Der Langzeiteffekt von Algorithmen muss in Betracht gezogen werden.
Algorithmen können Vorurteile, Ungerechtigkeiten und Unfairness von menschlichen Handlungen aufdecken. Das ist die große Chance, wenn wir Big Data und Algorithmen weise und zukunftsweisend einsetzen.
Doch dazu bedarf es eines Paradigmenwechsels:
Programmierer sollten nicht blind vorhandene Datensätze in Algorithmen umwandeln, sondern sie sollten zu Wächtern sozialer Ungerechtigkeiten werden, die von den Algorithmen offengelegt werden wurden. So manifestieren sie nicht bestehende Unfairness, sondern werden zu Übersetzern von ethisch längst überfälligen Diskussionen.
Geschäftsführer bei Dr. Schlensker & Team GmbH, Verlagsleiter bei Edition Geistesblitze
7 JahreDer entscheidende Punkt ist hier selbstverständlich die Definition von "Erfolg", also der Erwartung an den Algorithmus, bestimmte Ergebnisse zu liefern. Hier spielen einerseits bewusste oder unbewusste Vorstellungen und Haltungen, die auf Algorithmen abgebildet werden, eine Rolle. Dabei ist auch die Konditionierung der Programmierer durch Religion von nicht gerade geringer Bedeutung. Diese Störfaktoren lassen sich mit übersichtlichem Aufwand durch auf breiter Ebene angelegte gegenseitige Revision der Programmierer und Kontrolle der Programmierer und der Ergebnisse der Algorithmen durch wissenschaftlich qualifiziertes Personal in den Griff bekommen. Schwieriger wird es andererseits bei den selten bewusst für die Methoden angewandten Paradigmen, was um so heftigere Auswirkungen zeigt, je schwammiger die Denkprozesse bei den Programmierern selbst ablaufen. Hier schleicht sich oft ein, dass keine Grenze zwischen Kausalität und mehr oder weniger zufälliger Korrelation gezogen wird, was zwangsläufig zu Vorurteilen führt, aber ebenso finden wir stereotype Denkweisen, die beispielsweise "Schwarz" mit "Nicht-Weiß" gleichsetzen oder mit Fehlern behaftete Daten gar nicht erst in Erwägung ziehen, was die gelieferten Ergebnisse teilweise völlig unbrauchbar macht. Bei der Entwicklung von Algorithmen ist also zum einen diszipliniertes Denken mit scharfem Verstand zu fordern und zu vertiefen, und zum anderen dürfen wir deren Einordnung in einen sozialen und ethischen Kontext nicht versäumen. Erst dadurch kann die Digitalisierung in diesem Bereich für uns alle wirklich erfolgreich werden - "Erfolg" hier selbstverständlich am menschlichen Wohlergehen gemessen.