Das Amtsgericht hat sie als Treffpunkt vorgeschlagen, jetzt sitzt Katharina Zweig vor dem holzvertäfelten Richterpult. Gerade ist sie wieder einmal von einer Konferenz am anderen Ende Deutschlands hierher nach Kaiserslautern zurückgekommen. „Mir geht es in meiner Forschung um die Frage, ob und wann wir anstelle von Menschen eine Maschine entscheiden lassen sollen“, sagt sie. Das Amtsgericht ist für die Professorin ein Symbol für die Algorithmen, die sie untersucht: „Die Algorithmen treffen Entscheidungen über Menschen, und ich bin davon überzeugt, dass wir über die Systeme dahinter reden müssen.“
Wissenschaftskommunikation
„Wir müssen uns mehr auf die positiven Aspekte von KI und Software konzentrieren“

„Die Algorithmen treffen Entscheidungen über Menschen, und ich bin davon überzeugt, dass wir über die Systeme dahinter reden müssen.“

Was Algorithmen können – und was nicht
Was Sie in Ihrer Forschung machen, geht ja weit über Ihr Fachgebiet hinaus. Sehen Sie sich eigentlich noch als Informatikerin – oder schon als Soziologin, Psychologin oder Politologin?
Die vielen Bereiche, die bei diesen Fragestellungen betroffen sind, kann kein Mensch allein mehr abdecken. Meine Forschung ist deshalb interdisziplinär: Ich hole mir das Wissen, das ich brauche, von einem großen Netzwerk an Personen – natürlich auch aus den Disziplinen, die Sie genannt haben, aber ebenfalls von Rechtswissenschaftlern oder Ökonomen. Und die holen sich wiederum von mir die technischen Grundlagen, um in ihrem jeweiligen Feld weiter voranschreiten zu können.
An welcher Stelle sehen Sie bei den Algorithmen eigentlich das Problem?
Wenn wir einen Algorithmus entwickeln, benennen wir eine Fragestellung: Hier ist eine Straßenkarte, wie komme ich jetzt am schnellsten von A nach B? Diese Fragestellung in eine mathematische Aufgabe zu überführen, ist komplex. Und es ist nicht so objektiv, wie man sich das vorstellt. Denn es gibt Fragestellungen, die beinhalten – anders als das Beispiel mit dem kürzesten Weg – den Faktor Mensch. Die Art und Weise, das in ein mathematisches Problem zu überführen, ist tatsächlich eine Kunst. Über diese Kunst gibt es nicht viel grundlegende Forschung. Das ist die Stelle, an der ich ansetze.
Das klingt abstrakt. Geht das konkreter?
Es gibt zwei Stufen, wenn ein Algorithmus entsteht. In der ersten Stufe wird eine Aufgabe aus der realen Welt in eine mathematische Fragestellung übersetzt. Ein Beispiel dafür ist die Frage, was eigentlich Fairness oder Gerechtigkeit ist. Denn oft sollen unsere Algorithmen Lösungen finden, die genau diese Eigenschaft haben. Aber wie fasst man das mathematisch? Tatsächlich gibt es über 20 Formeln dafür, die aber alle jeweils eine Sichtweise auf Fairness vertreten. Stellen wir uns vor, dass ein Algorithmus über ein in der Coronakrise zusätzlich verteiltes Kindergeld entscheiden sollte: Sollte er allen Eltern gleich viel pro Kind geben oder denjenigen mehr geben, die weniger haben? Wenn Letzteres, dann nach welchen Kriterien? Das sind keine objektiven Entscheidungen – das sind weltanschauliche Fragen, die von Menschen vor der Entwicklung des Systems geklärt werden müssen. Und in der zweiten Stufe wird für das mathematische Problem ein Algorithmus entwickelt. Dieser zweite Schritt ist sehr clean und ganz objektiv. Das Problem liegt im ersten Schritt: Nicht alle Fragestellungen aus der realen Welt lassen sich mathematisch modellieren.
Der Faktor Mensch
Hätten Sie nicht manchmal Lust, auf die andere Seite zu wechseln: einmal nicht vor den Gefahren zu warnen, sondern das technisch Machbare auszureizen?
Ja klar! Ich glaube, alle Wissenschaftler in diesem Bereich würden gerne mal mit den Daten arbeiten, die die großen Plattformen zur Verfügung haben. Da kann man sehr viel lernen über das menschliche Verhalten. Mein Aha-Moment war aber schon wesentlich früher, und zwar im Jahr 2003. Damals habe ich über Datensammlungen geforscht und mich deshalb mit Zentralitätsmaßen beschäftigt …
Womit?
Mit Zentralitätsmaßen. Da geht es um die Frage, welche Punkte in einem Netzwerk neuralgisch sind, welche also die wichtigste Rolle spielen. Zum Beispiel könnte man sich bei einem Verkehrssystem fragen: Welches ist die Kreuzung, bei der eine langfristige Baustelle den Verkehr zusammenbrechen lässt? Oder man kann sich in einem sozialen Netzwerk fragen, über welche Person als Influencer man möglichst viele Leute erreicht. Ich habe mich damals gewundert, warum es mehr als 60 solcher Zentralitätsmaße gibt. Eigentlich würde man doch davon ausgehen, dass es für Wichtigkeit ein zentrales Maß gibt. Ein Kollege antwortete mir: Diese Zentralitätsmaße kann man nicht verstehen ohne das Wissen darüber, wofür das Netzwerk genutzt wird. Wer sich das nur durch die Brille des Mathematikers oder Informatikers anschaut, auf den wirkt das völlig willkürlich – einfach, weil die Zentralitätsmaße an einen sozialen Prozess gebunden sind.
„Nicht jede neue Software verändert die Welt. Aber ich glaube, dass wir im Moment sehr viele unbeabsichtigte Nebenwirkungen sehen von Software, die die Welt gestaltet – zum Beispiel solche, die Fake News verbreiten helfen oder Filterblasen entstehen lassen.“

Das Potenzial von KI für die Gesellschaft
Sie haben einmal gesagt: Wer Software entwickelt, verändert die Gesellschaft. Sollte uns das Angst machen, weil es Funktionierendes auf den Kopf stellt, oder ist es eine Chance, weil es Überkommenes durchbrechen kann?
Erst einmal muss ich einschränken: Nicht jede neue Software verändert die Welt. Aber es gibt die Software, die unsere Interaktion beeinflusst; die plötzlich Personen mächtig macht, die es vorher nicht waren. Ich glaube, dass wir im Moment sehr viele unbeabsichtigte Nebenwirkungen sehen von Software, die die Welt gestaltet – zum Beispiel solche, die Fake News verbreiten helfen oder Filterblasen entstehen lassen.
Warum sind diese Nebenwirkungen so stark – manchmal stärker als die eigentlich beabsichtigen Wirkungen?
Das liegt unter anderem am sogenannten Collingridge-Dilemma. Es beschreibt, dass zu Beginn einer neuen Technologie noch nicht absehbar ist, welche unbeabsichtigten Nebenwirkungen sie haben wird. Und weil sehr schnell sehr viele Menschen diese Technologie nutzen, ist es schwierig, sie später wieder geradezurücken. Das sehen wir im Moment bei den Suchmaschinen, den sozialen Netzwerken und so weiter. Bei dieser Art von Software braucht man Sozioinformatikerinnen und -informatiker, die gleichzeitig Mensch und Maschine im Blick haben. Daher bilden wir Studierende in unserem neuen Studiengang Sozioinformatik dafür aus.
Warum sind Sie trotz aller Nebenwirkungen so positiv eingestellt gegenüber der KI?
Ich würde mir wünschen, dass wir uns mehr auf die positiven Aspekte konzentrieren, denn mit Software könnte man eine großartige Gesellschaft organisieren. Ich wünsche mir zum Beispiel, dass wir mehr darüber nachdenken, was wir mit der KI anstellen könnten, die risikoarm ist. Wie viel könnten kleine Mittelständler von guten Übersetzungsprogrammen profitieren, um neue Märkte zu erschließen. Wir alle werden bald unsere Geräte direkt per Stimme ansteuern können – und das kann man übrigens auch so programmieren, dass dabei die Daten nicht weitergegeben werden. Und im Gespräch mit einem spastisch Gelähmten haben wir uns gefragt, warum es noch keine autonomen Rollstühle gibt, die einen heimfahren, wenn man sagt: „Ich bin müde – fahr mich heim!“ Nach diesen Ideen sollten wir suchen, und wir alle würden davon profitieren, wenn wir sie gezielt verfolgten.
Über diese Serie
20 Jahre Communicator-Preis - Grund genug für MERTON, die bisherigen 20 Preisträger in einer besonderen Bild- und Artikelserie zu würdigen. Nicht nur der Fotograf Christian Bohnenkamp setzt die Protagonisten in stimmungsvolles Licht, auch der Autor Kilian Kirchgeßner bringt sie in seinen Texten zum Leuchten. Wer die ausdrucksstarke Bilder einmal aus der Nähe sehen will: Das Wissenschaftszentrum Bonn präsentiert die Werke voraussichtich im Sommer 2021 in einer kleinen Retrospektive.
