03.11.2020

„Empfehlungen und Ergebnisse einer KI müssen akkurat und nachvollziehbar sein“

„Jede Jeck is anders“ – aber können auch Algorithmen mit Andersartigkeit umgehen? Und wie schafft man eine vertrauenswürdige und nachvollziehbare KI, die Diskriminierung verhindert? Diese Fragen beantwortet Sophie Richter-Mendau, Business Psychologist & AI Consultant bei IBM, beim nächsten eco LiT Online-Event am 11. November. Wir haben vorab mit ihr ein Interview geführt.

Frau Richter-Mendau, können KI-Algorithmen auch mit Andersartigkeit umgehen?

Die gute Nachricht lautet: Ja, können sie! Die schlechte lautet: Es mag auf den ersten Blick mühselig erscheinen.

Würde man KI-Algorithmen beim Training lediglich mit Daten aus der Vergangenheit füttern, sind die Chancen hoch, dass die Entscheidungen der KI eine ähnliche Subjektivität oder Verzerrung aufweisen wie zuvor beim menschlichen Urteil, wenn nicht sogar noch verstärkt werden.

Hatte zuvor die Personalabteilung (unbewusst) Bewerber_innen abgelehnt, die in einer bestimmten Altersspanne lagen oder einen fremdländisch klingenden Namen trugen? So muss dafür Sorge getragen werden, dass sich diese Diskriminierung nicht in das Modell überträgt – und das bedeutet Arbeit.

Wie lässt sich Diskriminierung durch KI verhindern?

Hier ist Proaktivität bereits im Entwicklungsprozess gefragt. Mögliche Voreingenommenheit muss geprüft und beseitigt werden – nicht nur einmalig, denn eine KI lernt ja ständig dazu. Vielmehr muss die Überwachung des Algorithmus zu einem integralen Bestandteil des Operationalisierungskonzepts werden.

Dazu orientieren wir uns bei IBM am Vorgehensmodell CRISP-DM – dem CRoss-Industry Standard Process for Data Mining. Diese Methodik zur Bearbeitung von KI-Fragestellungen, das bereits in den 1990er Jahren unter Mitarbeit von IBM entstand und weite Verbreitung gefunden hat, zeichnet sich durch mehrere Wiederholungsschleifen aus: Gewonnene Erkenntnisse werden zügig ausgewertet, vorherige Prozessschritte angepasst und Ergebnisse auf diese Weise iterativ verbessert.

Technisch setzen wir dabei sowohl auf Open Source als auch auf innovative IBM-Technologien und Services: Die Toolbox „AI Fairness 360“ bspw. umfasst diverse Methoden zur Erkennung und Beseitigung von Bias in Daten und Modellen. Das Produkt Watson OpenScale ermöglicht eine automatisierte Überwachung operativer KI-Entscheidungssysteme, indem es individuelle Entscheidungen für den Menschen nachvollziehbar und erklärbar macht.

Hat KI gegenüber Menschen dabei auch Vorteile?

Kennen Sie die Studie, in der herausgefunden wurde, dass Gefangene höhere Chancen auf eine Entlassung auf Bewährung hatten, wenn ihre Anhörung beim Richter früh am Morgen oder nach einer Pause stattfand? Mit anderen Worten: Hatte man das Pech, als Letzter vor der Mittagspause angehört zu werden, fiel das Urteil sehr wahrscheinlich negativ aus.

Die einzigen anderen Variablen, die die Entscheidung der Richter beeinflussten, waren die Anzahl der Gefängnisaufenthalte eines Gefangenen und die Teilnahme am Rehabilitationsprogramm – andere Faktoren, wie die Schwere der Straftat des Gefangenen, die Zeit im Gefängnis, das Geschlecht und die ethnische Zugehörigkeit hatten tendenziell keinen Einfluss auf die Entscheidungen.

Ob es am Blutzuckerspiegel lag, der kurz vor der Mittagspause im Keller war oder die Stimmung im Laufe des Vormittags sank? Darüber lässt sich nur spekulieren. Interessant ist die Beobachtung, dass wir Menschen nicht konsistent objektiv handeln – und genau hier liegt die Chance des Einsatzes von KI, die weder müde noch hungrig wird, sondern jeden Fall objektiv bewerten kann.

Mit welchen Maßnahmen erzeugen Sie bei Anwendern Vertrauen gegenüber KI ?

Vertrauen und Akzeptanz folgen der Erklärbarkeit: Empfehlungen und Ergebnisse einer KI müssen akkurat und nachvollziehbar sein, nicht nur für den Entwickler. Bekommt ein Bankberater durch seinen KI-Assistenten die Empfehlung, den Kreditantrag seines Klienten abzulehnen, sollte er verstehen, welche Faktoren besonderen Einfluss genommen und zu dieser Entscheidung geführt haben.

Es wäre sicherlich auch wünschenswert, dass die die betroffene Person selbst über die Gründe der Entscheidung aufgeklärt wird – zumindest in den Anwendungsfällen, in denen es sinnvoll ist. Eine wichtige Voraussetzung ist, dass Privatsphäre und Datenschutz gewährleistet werden: Die betroffene Person muss darüber informiert werden, welche Daten über sie erhoben werden, damit sie sich dafür oder dagegen entscheiden kann.

eco LiT Online-Event "Jeder Jeck ist anders – wie künstliche Intelligenz alle zusammenbringt“ 1

Das könnte Sie auch interessieren