Wegweiser
Katharina Zweig
Algorithmen sind eigentlich nur viele Zeilen Programmcode im Computer. Sie ergeben allerdings Muster, die in unser aller Leben eingreifen. Algorithmen bestimmen, ob die Bank uns einen Kredit gibt. Oder wen die Dating-App uns präsentiert. Algorithmen entscheiden, welche Ergebnisse uns die Suche im Internet zeigt. Und welche Werbung sie begleitet. Und morgen könnten Algorithmen entscheiden, ob das selbstfahrende Auto bremst oder nicht – ob das über die Straße laufende Kind überfahren wird oder beim Ausweichen das Ehepaar auf dem Bürgersteig. Darf ein Computer solche Entscheidungen überhaupt treffen, darf Programmcode künftig Moral ersetzen?
Genau um solche Fragen kümmert sich Katharina Zweig. Die 42-Jährige leitet des Algorithm Accountability Lab an der Universität Kaiserslautern und koordiniert dort den deutschlandweit einzigartigen Studiengang Sozioinformatik, eine Mischung aus Informatik, Soziologie, Wirtschaftswissenschaften und Psychologie. Seit sechs Jahren erforscht die gebürtige Hamburgerin die massenhafte Auswertung von Daten – und mögliche Fehler, die dabei passieren. Beispiel Uber. Der Fahrdienst ermittelt Preise dynamisch per Algorithmus: je mehr Nachfrage, desto teurer. Das soll die privaten Fahrer ermuntern, vom Sofa aufzustehen und Fahrgäste zu befördern. Womit der Algorithmus nicht umgehen konnte: mit einer Geiselnahme im australischen Sydney. Ungewöhnlich viele Menschen buchten Uber-Fahrten, um zu entkommen – und bekamen unbezahlbare Mondpreise angezeigt.
Katharina Zweig will ihren Studentinnen und Studenten einen „systemischen Blick“ auf Computeralgorithmen beibringen. Sie sollen so etwas wie Programmierer mit einem Händchen für gesellschaftliche Fragen werden. Noch seien wir als Gesellschaft blind dafür, kritisiert Zweig, dass uns die Algorithmen bereits überall begegnen.
Sie fordert einen gesellschaftlichen Diskurs darüber, was die Muster aus dem Computer für uns leisten sollen. „Darüber, ob uns ein Algorithmus dienlich sein kann, entscheiden die Fragen, die wir ihm stellen“, sagt Zweig. Sie untersucht dafür Algorithmen, die in den USA das Rückfallrisiko von Kriminellen bewerten. Zweig fiel auf, dass der Programmcode fragwürdige Kriterien einbezieht, etwa die Gefängnisstrafen von Familienmitgliedern. So kann ein mit Vorurteilen gespeister Algorithmus den Ausschlag geben, für wen wie viel Mühe für Resozialisierung aufgebracht wird. Algorithmen dürfen niemals dazu missbraucht werden, mahnt Zweig daher, menschliche Verantwortung abzugeben.