Künstliche Intelligenz in Erklärungsnot
Bild: @istock.com/Wenjie Dong Posted on von Big Data

Künstliche Intelligenz in Erklärungsnot

Artificial Intelligence (AI) ist auch im Mittelstand auf dem Vormarsch. Wer sich von der smarten Maschine Entscheidungen abnehmen lässt, sollte eines wissen: Bis heute versteht selbst die Wissenschaft nicht genau, was in den Systemen vor sich geht und wie Algorithmen ihre Entscheidungen treffen.

Klein, haarig, vier Pfoten und spitze Ohren: Merkmale, an denen sich mit menschlicher Intelligenz jeder Stubentiger problemlos erkennen lässt. Auch dann, wenn er auf einem Foto zu sehen ist. Nicht anders bei Artificial-Intelligence-Anwendungen, denn auch sie sind in der Lage, Katzen und Kater zuverlässig auf Digitalbildern zu bestimmen. Wie ihnen das gelingt: Durch gezieltes Training mit Tierbildern, in dem die Maschine die charakteristischen Eigenschaften mehr und mehr erlernt. Am Ende kann der Computer mit hoher Wahrscheinlichkeit entscheiden, ob ein Bild das Haustier zeigt – oder eben nicht.

Entscheidungen müssen nachvollziehbar sein

Das Problem: Wer den Menschen fragt, woran er die Katze erkannt hat, bekommt eine klare Antwort. Nicht so bei der IT: Der Computer liefert nur ein Ergebnis – keine Erklärung. Die Algorithmen sind mittlerweile zu kompliziert und zu intransparent, sodass selbst die Wissenschaft im Dunkeln tappt, was in den „neuronalen Netzen“ vor sich geht. Die Netze aus künstlichen Neuronen sind eine Entwicklung der Informatik, die bereits bis in die 1940er Jahre zurückgeht. Sie machen die Maschine erst intelligent, erlauben es dem Computer, aus Daten eigenständig zu lernen.

So setzen beispielsweise auch Finanzdienstleister wie Kreditech auf künstliche Intelligenz (KI), um die Bonität von Kreditnehmern zu prüfen. Mit Algorithmen durchforstet das Start-up ein „Universum an Datenpunkten, die Menschen im Internet hinterlassen“, um „von potenziellen Kunden mit unregelmäßigen Einkommen relevante Informationen herauszudestillieren, die auf das Zahlungsverhalten von Menschen schließen lassen“, schreibt dazu das Handelsblatt in seiner Online-Ausgabe. Wer bei einem solchen Service keinen Kredit bekommt und nachfragt, woran es gelegen hat, bringt die künstliche Intelligenz aber in Erklärungsnot. Intransparenz ist bei AI-Anwendungen überall ein Problem. Denn wo KI im Mittelstand auf dem Vormarsch ist, um etwa Anlagen zu fahren oder die Qualität von Erzeugnissen zu sichern, sollten Entscheidungen immer nachvollziehbar sein. Nicht anders beim autonomen Fahren, wo die Maschine vielleicht auch in Situationen entscheidet, wo der Mensch auf seine Erfahrung zurückgreift, um einen Unfall zu verhindern.

Explainable Artificial Intelligence liefert Erklärungen

Wie die Lösung aussehen kann: „Explainable Artificial Intelligence“. Die sogenannte XAI lernt, handelt und entscheidet nicht nur eigenständig, sondern erklärt ihr Verhalten auch noch. Gewissermaßen wie bei der Matheklausur aus Schultagen zählt bei XAI nicht nur das Ergebnis, sondern auch der Lösungsweg. Wo AI noch wie eine wundersame Black Box war, setzt XAI auf transparente Modelle und erklärbare Resultate. So erkennt ein XAI-System nicht nur die Katze auf dem Bild, sondern begründet auch, an welchen Merkmalen es seine Entscheidung festgemacht hat.

 

Eine Abbildung, die die Unterschiede von Artifical Intelligence und Explainable Artificial Intelligence, kurz XAI, zeigt. XAI erklärt seine Entscheidungen für den Menschen nachvollziehbar.
Explainable Artificial Intelligence (XAI) erkennt nicht nur die Katze auf dem Foto, sondern begründet das auch. Quelle: Defense Advanced Research Projects Agency

 

Welche Vorteile Transparenz in der Praxis bietet, zeigt ein Blick nach Dänemark. Hier nutzt die Danske Bank KI, um Betrugsversuche in Echtzeit zu erkennen. Dazu analysiert der skandinavische Finanzdienstleister verborgene Merkmale in Millionen von Live-Transaktionen. Im Falle des Falles löst das System sofort Alarm aus. Bis dato galt es dann, von Hand nachzuprüfen – auch, um Fehlalarme auszuschließen, wie BigData-Insider.de in einem Artikel schreibt. Seit 2016 hat das Unternehmen eine neue AI-Lösung im Einsatz, die ihre Berechnungen mit Modellen für maschinelles Lernen auch plausibel macht: „Das System bewältigt hunderttausende Transaktionen pro Minute und sorgt durch mitgelieferte Erklärungen bei den blockierten Prüfergebnissen für Transparenz“, schreibt das Fachmagazin. So macht AI Finanzbetrügern das Leben schwer und den Anwendern erklärbar einfach.

zurück zur Startseite

Kommentar

Wenn Sie die E-Mail-Adresse eingeben, die Sie bei Twitter oder Gravatar verwenden, erscheint Ihr Bild neben dem Kommentar.

mit * gekennzeichnete Felder sind Pflichtfelder. Sie erhalten zur Freischaltung ihres Kommentars eine E-Mail. Ihre E-Mail-Adresse wird nicht veröffentlicht.