Wissenschaftskommunikation

„Wir müssen uns mehr auf die positiven Aspekte von KI und Software konzentrieren“

Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
©

Das Amtsgericht hat sie als Treffpunkt vorgeschlagen, jetzt sitzt Katharina Zweig vor dem holzvertäfelten Richterpult. Gerade ist sie wieder einmal von einer Konferenz am anderen Ende Deutschlands hierher nach Kaiserslautern zurückgekommen. „Mir geht es in meiner Forschung um die Frage, ob und wann wir anstelle von Menschen eine Maschine entscheiden lassen sollen“, sagt sie. Das Amtsgericht ist für die Professorin ein Symbol für die Algorithmen, die sie untersucht: „Die Algorithmen treffen Entscheidungen über Menschen, und ich bin davon überzeugt, dass wir über die Systeme dahinter reden müssen.“

Zwei Dinge sagt diese kurze Szene über Katharina Zweig aus: Erstens ist die 44-Jährige ständig unterwegs, von der Technischen Universität Kaiserslautern aus nimmt sie im ganzen Land an Diskussionen teil, in denen es um KI geht – und davon gibt es jede Menge, bei Industrieforen ebenso wie auf Kongressen von Informatikern und auch Sozialwissenschaftlern. Und zweitens mag sie Symbole, mit denen sie den Inhalt ihrer Forschung verdeutlichen kann.

Anders als vor Gericht entscheiden Algorithmen ohne transparente und erprobte Abläufe über jeden einzelnen Menschen: Wenn ein Algorithmus beim Onlineshopping entscheidet, welche weiteren Produkte dem Kunden empfohlen werden oder wie viel Geld er dafür bezahlen soll; wenn eine künstliche Intelligenz darüber entscheidet, ob ein Häuslebauer den gewünschten Kredit bekommt oder nicht – dann, erläutert Katharina Zweig, stecke dahinter ein algorithmisches Entscheidungssystem, das mit vielen Gigabyte an Daten trainiert worden sei. Nur: Welche Daten die Programmierer verwendet haben und warum das System einen Kreditantrag abgelehnt hat, das sei nicht so nachvollziehbar wie die Abläufe vor Gericht in einem Rechtsstaat.

An dieser Stelle setzt die Arbeit von Katharina Zweig ein – man könnte auch sagen, ihre Mission: Sie will auf die Gefahren hinweisen, die dadurch entstehen. Und sie will dazu beitragen, dass die Algorithmen transparenter werden und bessere Entscheidungen treffen.

image
Illustration: Lisa Syniawa
©

Diese Forscher sind Stars. Denn sie arbeiten nicht nur in Labors, sitzen nicht nur in Bibliotheken. Stattdessen stehen sie als Medienprofis sehr oft auf den großen Bühnen des Landes. Sie können meisterhaft über Forschung reden, sie begeistern für das, was vielen Bürgern sonst nicht zugänglich wäre. Solche begnadeten Wissenschaftskommunikatoren als Vorbilder zu adeln und ihr außergewöhnliches Engagement zu belohnen, war im Jahr 2000 die Idee des Stifterverbandes und der Deutschen Forschungsgemeinschaft (DFG). Seitdem vergeben sie gemeinsam jährlich den „Communicator-Preis – Wissenschaftspreis des Stifterverbandes“. Der Stifterverband steuert das Preisgeld bei (50.000 Euro), die DFG sucht die Preisträger aus. Katharina Zweig erhielt den Communicator-Preis im Jahr 2019.

„Die Algorithmen treffen Entscheidungen über Menschen, und ich bin davon überzeugt, dass wir über die Systeme dahinter reden müssen.“

Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
©
Katharina Zweig
Professorin für Informatik an der TU Kaiserslautern

Was Algorithmen können – und was nicht

Was Sie in Ihrer Forschung machen, geht ja weit über Ihr Fachgebiet hinaus. Sehen Sie sich eigentlich noch als Informatikerin – oder schon als Soziologin, Psychologin oder Politologin?
Die vielen Bereiche, die bei diesen Fragestellungen betroffen sind, kann kein Mensch allein mehr abdecken. Meine Forschung ist deshalb interdisziplinär: Ich hole mir das Wissen, das ich brauche, von einem großen Netzwerk an Personen – natürlich auch aus den Disziplinen, die Sie genannt haben, aber ebenfalls von Rechtswissenschaftlern oder Ökonomen. Und die holen sich wiederum von mir die technischen Grundlagen, um in ihrem jeweiligen Feld weiter voranschreiten zu können.

An welcher Stelle sehen Sie bei den Algorithmen eigentlich das Problem?
Wenn wir einen Algorithmus entwickeln, benennen wir eine Fragestellung: Hier ist eine Straßenkarte, wie komme ich jetzt am schnellsten von A nach B? Diese Fragestellung in eine mathematische Aufgabe zu überführen, ist komplex. Und es ist nicht so objektiv, wie man sich das vorstellt. Denn es gibt Fragestellungen, die beinhalten – anders als das Beispiel mit dem kürzesten Weg – den Faktor Mensch. Die Art und Weise, das in ein mathematisches Problem zu überführen, ist tatsächlich eine Kunst. Über diese Kunst gibt es nicht viel grundlegende Forschung. Das ist die Stelle, an der ich ansetze.

Das klingt abstrakt. Geht das konkreter?
Es gibt zwei Stufen, wenn ein Algorithmus entsteht. In der ersten Stufe wird eine Aufgabe aus der realen Welt in eine mathematische Fragestellung übersetzt. Ein Beispiel dafür ist die Frage, was eigentlich Fairness oder Gerechtigkeit ist. Denn oft sollen unsere Algorithmen Lösungen finden, die genau diese Eigenschaft haben. Aber wie fasst man das mathematisch? Tatsächlich gibt es über 20 Formeln dafür, die aber alle jeweils eine Sichtweise auf Fairness vertreten. Stellen wir uns vor, dass ein Algorithmus über ein in der Coronakrise zusätzlich verteiltes Kindergeld entscheiden sollte: Sollte er allen Eltern gleich viel pro Kind geben oder denjenigen mehr geben, die weniger haben? Wenn Letzteres, dann nach welchen Kriterien? Das sind keine objektiven Entscheidungen – das sind weltanschauliche Fragen, die von Menschen vor der Entwicklung des Systems geklärt werden müssen. Und in der zweiten Stufe wird für das mathematische Problem ein Algorithmus entwickelt. Dieser zweite Schritt ist sehr clean und ganz objektiv. Das Problem liegt im ersten Schritt: Nicht alle Fragestellungen aus der realen Welt lassen sich mathematisch modellieren.

Katharina Zweig erinnert sich daran, wie ihr zum ersten Mal bewusst geworden sei, dass eine Maschine über sie geurteilt habe: Zu Beginn ihrer Karriere hatte sie oft E-Mails mit Werbung bekommen, die dezidiert an Männer gerichtet war – im Nachhinein vermutet sie, dass Algorithmen sie wegen ihrer technischen Affinität in eine Schublade gesteckt hätten, in die sie nicht gehöre.

Das mit der Werbung, fügt sie an, sei ein harmloses Beispiel; aber eines, das zeige, was alles schiefgehen könne bei der automatisierten Entscheidungsfindung. Und jetzt bringt sie wieder die Parallele zum Gerichtssaal ins Spiel: Es müsse bei den Algorithmen aber sichergestellt sein, dass jeder seine eigenen Daten überprüfen könne, dass man einer gefällten Entscheidung widersprechen könne und nicht einfach schutzlos einer automatisierten Maschinerie ausgeliefert sei. 

Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
©
Die Informatikprofessorin Katharina Zweig erhielt 2019 den Communicator-Preis.

Der Faktor Mensch

Hätten Sie nicht manchmal Lust, auf die andere Seite zu wechseln: einmal nicht vor den Gefahren zu warnen, sondern das technisch Machbare auszureizen?
Ja klar! Ich glaube, alle Wissenschaftler in diesem Bereich würden gerne mal mit den Daten arbeiten, die die großen Plattformen zur Verfügung haben. Da kann man sehr viel lernen über das menschliche Verhalten. Mein Aha-Moment war aber schon wesentlich früher, und zwar im Jahr 2003. Damals habe ich über Datensammlungen geforscht und mich deshalb mit Zentralitätsmaßen beschäftigt …

Womit?
Mit Zentralitätsmaßen. Da geht es um die Frage, welche Punkte in einem Netzwerk neuralgisch sind, welche also die wichtigste Rolle spielen. Zum Beispiel könnte man sich bei einem Verkehrssystem fragen: Welches ist die Kreuzung, bei der eine langfristige Baustelle den Verkehr zusammenbrechen lässt? Oder man kann sich in einem sozialen Netzwerk fragen, über welche Person als Influencer man möglichst viele Leute erreicht. Ich habe mich damals gewundert, warum es mehr als 60 solcher Zentralitätsmaße gibt. Eigentlich würde man doch davon ausgehen, dass es für Wichtigkeit ein zentrales Maß gibt. Ein Kollege antwortete mir: Diese Zentralitätsmaße kann man nicht verstehen ohne das Wissen darüber, wofür das Netzwerk genutzt wird. Wer sich das nur durch die Brille des Mathematikers oder Informatikers anschaut, auf den wirkt das völlig willkürlich – einfach, weil die Zentralitätsmaße an einen sozialen Prozess gebunden sind. 

Katharina Zweig hat in Kaiserslautern das Algorithm Accountability Lab gegründet, sie war Mitinitiatorin der Initiative AlgorithmWatch, sie sitzt als Sachverständige in der Enquete-Kommission des Bundestags zur künstlichen Intelligenz. Ständig ist sie unterwegs, und das unter erschwerten Bedingungen: Ein Flugzeug, sagt sie, habe sie seit fünf Jahren nicht mehr genutzt. Der Klimaschutz ist ihr wichtig, und so absolviert sie ihr Pensum strikt per Bahn.

Drei bis fünf Anfragen für Keynotes würden pro Tag auf ihren Schreibtisch flattern, erzählt sie, und viele der Einladungen nehme sie an – es sei Teil der Mission, die sie sich selbst ausgewählt hat. Als sie sich nach ihrem ersten Studium der Biochemie auf die Informatik konzentriert habe, habe sie den gewaltigen Informationsbedarf in der Gesellschaft erkannt. Und sie sehe, dass die Arbeit etwas bewirke. Beispiel Bundestag: Jede Fraktion habe inzwischen mehrere Experten zum Thema künstliche Intelligenz – und im Plenarsaal tauche das Thema, das noch vor wenigen Jahren keinerlei Rolle in der Debatte gespielt habe, inzwischen sehr regelmäßig auf.

Die Preistrophähe von Katharina Zweig (Foto: Christian Bohnenkamp)
Die Preistrophähe von Katharina Zweig (Foto: Christian Bohnenkamp)
©

Katharina Zweig und die Wissenschaftskommunikation

2019 erhielt die Informatikprofessorin Katharina Zweig den Communicator-Preis. Hier spricht sie darüber, welche Bedeutung Wissenschafts­kommunikation für die Gesellschaft hat.

„Nicht jede neue Software verändert die Welt. Aber ich glaube, dass wir im Moment sehr viele unbeabsichtigte Nebenwirkungen sehen von Software, die die Welt gestaltet – zum Beispiel solche, die Fake News verbreiten helfen oder Filterblasen entstehen lassen.“

Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
Communicator-Preisträgerin Katharina Zweig (Foto: Christian Bohnenkamp)
©
Katharina Zweig

Das Potenzial von KI für die Gesellschaft

Sie haben einmal gesagt: Wer Software entwickelt, verändert die Gesellschaft. Sollte uns das Angst machen, weil es Funktionierendes auf den Kopf stellt, oder ist es eine Chance, weil es Überkommenes durchbrechen kann?
Erst einmal muss ich einschränken: Nicht jede neue Software verändert die Welt. Aber es gibt die Software, die unsere Interaktion beeinflusst; die plötzlich Personen mächtig macht, die es vorher nicht waren. Ich glaube, dass wir im Moment sehr viele unbeabsichtigte Nebenwirkungen sehen von Software, die die Welt gestaltet – zum Beispiel solche, die Fake News verbreiten helfen oder Filterblasen entstehen lassen.

Warum sind diese Nebenwirkungen so stark – manchmal stärker als die eigentlich beabsichtigen Wirkungen?
Das liegt unter anderem am sogenannten Collingridge-Dilemma. Es beschreibt, dass zu Beginn einer neuen Technologie noch nicht absehbar ist, welche unbeabsichtigten Nebenwirkungen sie haben wird. Und weil sehr schnell sehr viele Menschen diese Technologie nutzen, ist es schwierig, sie später wieder geradezurücken. Das sehen wir im Moment bei den Suchmaschinen, den sozialen Netzwerken und so weiter. Bei dieser Art von Software braucht man Sozioinformatikerinnen und -informatiker, die gleichzeitig Mensch und Maschine im Blick haben. Daher bilden wir Studierende in unserem neuen Studiengang Sozioinformatik dafür aus.

Warum sind Sie trotz aller Nebenwirkungen so positiv eingestellt gegenüber der KI?
Ich würde mir wünschen, dass wir uns mehr auf die positiven Aspekte konzentrieren, denn mit Software könnte man eine großartige Gesellschaft organisieren. Ich wünsche mir zum Beispiel, dass wir mehr darüber nachdenken, was wir mit der KI anstellen könnten, die risikoarm ist. Wie viel könnten kleine Mittelständler von guten Übersetzungsprogrammen profitieren, um neue Märkte zu erschließen. Wir alle werden bald unsere Geräte direkt per Stimme ansteuern können – und das kann man übrigens auch so programmieren, dass dabei die Daten nicht weitergegeben werden. Und im Gespräch mit einem spastisch Gelähmten haben wir uns gefragt, warum es noch keine autonomen Rollstühle gibt, die einen heimfahren, wenn man sagt: „Ich bin müde – fahr mich heim!“ Nach diesen Ideen sollten wir suchen, und wir alle würden davon profitieren, wenn wir sie gezielt verfolgten.

Über diese Serie

20 Jahre Communicator-Preis - Grund genug für MERTON, die bisherigen 20 Preisträger in einer besonderen Bild- und Artikelserie zu würdigen. Nicht nur der Fotograf Christian Bohnenkamp setzt die Protagonisten in stimmungsvolles Licht, auch der Autor Kilian Kirchgeßner bringt sie in seinen Texten zum Leuchten. Wer die ausdrucksstarke Bilder einmal aus der Nähe sehen will: Das Wissenschaftszentrum Bonn präsentiert die Werke voraussichtich im Sommer 2021 in einer kleinen Retrospektive. 

Alle Folgen dieser Serie 

Tauchen Sie tiefer in unsere Insights-Themen ein.
Zu den Insights