Ein Algorithmus hat kein Taktgefühl
Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können – Katharina Zweig (Buchclub Rezension)
Ein Beitrag von Ali Haidari
Montag, 10. Februar 2020
Interactive Media Design
Was sind Algorithmen?
Algorithmen begleiten uns in vielen Aspekten in unseren Leben.
Jeder hat das Wort Algorithmus schon gehört, aber genau verstanden haben es nur die wenigsten. Algorithmen bestimmen den kürzesten Weg von A nach B und empfehlen uns Filme und Produkte, die uns gefallen könnten. Gleichzeitig bestimmen sie aber auch häufig darüber, ob Banken Kredite ausgeben, Straftäter rückfällig werden oder die Art und Weise, wie Unternehmen Bewerber zulassen. Diese Algorithmen nennt man richtende Algorithmen, da sie menschliches Verhalten voraussagen und Entscheidung über die Zukunft treffen. In diesem Fall stellen sie eine Gefahr für das gesellschaftliche Leben dar. Weiterhin gibt es noch die Kategorie der dichtenden Algorithmen, dessen Aufgabe darin besteht, menschliches Verhalten zu imitieren und zu optimieren. Ein Beispiel dafür sind Übersetzungsalgorithmen, die mit ihrer Leistung bald Übersetzer und Dolmetscher ersetzen könnten. Bevor wir als Leser aber mitentscheiden können, wie man Algorithmen kontrollieren oder regulieren kann, müssen wir verstehen, welchen Zweck Algorithmen haben und wie sie funktionieren.
Hierbei gibt es zwei Kategorien von Algorithmen, unter denen man grundsätzlich unterscheiden muss. Es gibt klassische und selbstlernende Algorithmen.
Klassische Algorithmen sind aus Vorgaben der Programmierer aufgebaut und erfüllen den Zweck, klassische mathematische Probleme zu lösen. Unter diese Kategorie fallen jene Algorithmen, die in Navigationssystemen oder beim Onlineshopping angewendet werden. Bei klassischen Algorithmen greifen zwei grundlegende Prinzipien.
Das Modellierungsprinzip besagt, dass Programmierer spezifische mathematische Probleme so weit versimpeln, bis der Computer diese versteht und lösen kann.
Außerdem gibt es das Operationalisierungsprinzip, welches unmathematische Bereiche wie etwa Entfernungen zwischen Orten mathematisch messbar macht.
Aus diesen beiden Prinzipien entsteht das OMA-Prinzip. Dieses bedeutet, dass Daten und Ergebnisse nur im spezifischen Kontext sinnvoll interpretiert werden können, so wie der kürzeste Weg zwischen Orten im Navigationssystem keine Wartezeiten berücksichtigt, wenn man beispielsweise mit der Bahn fährt. Aus der Erklärung von klassischen Algorithmen lässt sich schon der grundlegende Unterschied zu selbstlernenden Algorithmen erkennen: klassische Algorithmen sind nicht von großen Datenmengen abhängig wie selbstlernende.
Die Vorhersage menschlichen Handelns ist erst durch selbstlernende Algorithmen möglich.
Großes Beispiel ist hierfür der allbekannte Empfehlungsalgorithmus. Dabei probieren auch diese oft nur herum, um Ergebnisse zu finden, die uns gefallen könnten. Man spricht bei diesem Prozess von Heuristik. Als Heuristik bezeichnet man die Strategie, mit der man für ein Problem eine möglichst gangbare Lösung findet. Dies geschieht oftmals durch die Suche nach Mustern in Datensätzen. Durch das darauffolgende Feedback des Nutzers oder des Programmierers, lernt der Algorithmus, mit weiteren Paketen von Datensätzen umzugehen. Auf Grund der Ähnlichkeit zum Lernverhalten von Kindern nennt man selbstlernende Algorithmen auch:
Künstliche Intelligenz (KI).
Unter Umständen kann es aber auch passieren, dass KI´s nur sinnlose Muster finden und entsprechend unpräzise Ergebnisse liefern können. Das blendet aber nicht die Tatsache aus, dass selbstlernende Algorithmen extrem gut darin sind, Dinge zu kategorisieren. So kann ein selbstfahrendes Auto Menschen erkennen, die sich am Straßenrand befinden und voraussagen, in welche Richtung sich diese womöglich bewegen werden. Des Weiteren können Bilderkennungssoftwares mit hoher Präzision bestimmte Krankheiten wie etwa Hautkrebs erkennen und weisen dabei eine niedrigere Fehlerquote auf, als ausgebildete Dermatologen.
Selbstverständlich existieren aber auch, abgesehen von den Vorteilen, signifikante Probleme.
Selbstlernende Algorithmen sind häufig diskriminierend, da sie bei der objektiven Analyse von menschenbezogenen Daten häufig falsche Korrelationen finden, welche zu Diskriminierung führen. Spracherkennungssysteme können beispielsweise Menschen mit starkem Akzent häufig nicht verstehen, weil es nicht genug Daten über solche spezifischen Eigenschaften gibt, oder bestimmte Muster in der Kategorisierung von Daten missachtet werden.
Die KI-Software COMPAS läuft zu dem Zweck, Voraussagen darüber treffen zu können, mit welcher Wahrscheinlichkeit ehemalige Straftäter rückfällig werden. Hierbei wird die Rückfall-Wahrscheinlichkeit bei schwerwiegenderen Straftaten als tendenziell höher bewertet. Da stellt sich die Frage, wer die Schwere einer Straftat für das Training des Algorithmus bestimmt.
Keine KI ist dazu in der Lage, absolut gültige Regeln für das Leben und Verhalten von individuellen Menschen zu finden. Die Heuristik, die durch die Suche nach Datenkorrelationen Menschen und Dinge in Gruppen einordnet, kann nur Wahrscheinlichkeiten aufsetzen und keine individuellen Handlungen interpretieren. Die Ergebnisse dieser Datensätze werden wiederum von Menschen interpretiert, die wiederum ebenfalls nicht unfehlbar in ihren Entscheidungen sind.
Maschinen haben zwar keine Vorurteile, Menschen jedoch schon.
Die Entscheidung über das Leben und die Zukunft von menschlichen Individuen ist eine reine Moralfrage und Moral kann man nicht programmieren. Katharina Zweig kommt zu dem Ergebnis, dass Algorithmen anhand ihres Gefahren- und Einflusspotenzials kategorisiert werden sollten, so dass man im Nachhinein darüber entscheiden kann, inwieweit man diese regulieren sollte. Selbstlernende Algorithmen müssen staatlich reguliert werden, wenn sie das Potenzial haben, den Zugang zu gesellschaftlichen und ökologischen Ressourcen zu manipulieren.
Über die Autorin
Prof. Dr. Katharina Zweig ist Informatikprofessorin an der TU Kaiserslautern, wo sie das Algorithm Accountability Lab leitet und den deutschlandweit einmaligen Studiengang „Sozioinformatik“ ins Leben gerufen hat. Sie wurde unter anderem mit dem „Ars Legendi-Fakultäten-Preis in den Ingenieurswissenschaften und der Informatik“ und dem „Communicator-Preis der DFG und des Stifterverbands“ ausgezeichnet und ist Gründerin eines KI-Beratungs-Startup, der Trusted AI GmbH. Sie ist als Expertin für verschiedene Bundesministerien tätig, Mitglied der Enquete-Kommission des Bundestages zum Thema „Künstliche Intelligenz“ und gefragte öffentliche Rednerin mit großer Medienpräsenz.