Veröffentlicht inDigital Life

„Menschen lassen sich leicht verleiten“ – warum Algorithmen eine Moral brauchen

Algorithmen verstehen uns Menschen häufig falsch. Das zeigt auch die Google-Suche. Dennoch geben wir immer mehr Entscheidungen an sie ab. Ist das moralisch vertretbar? Eine Informatikerin forscht daran.

Illustration: Junge ist verwirrt von wildem Chaos um ihn herum.
Algorithmen sorgen zunehmend für Verwirrung

Vor einiger Zeit stand Katharina Zweig vor einem dieser Rätsel, die sie an ihrem Beruf so liebt. Die Informatik-Professorin der TU Kaiserslautern gab bei Google den Namen der Kanzlerin ein, um deren Alter herauszufinden.

Zweig tippte erst Angela, dann Merkel ein. Schon schlug ihr die Suchmaschine einen weiteren Begriff vor. „Angela Merkel schwanger“, las die Wissenschaftlerin und war elektrisiert. Zweig klickte auf den Vorschlag.

Tatsächlich fand sie Dutzende Webseiten, die sich mit dem Thema mehr oder weniger ernsthaft beschäftigen. Und weil offenbar schon vor ihr viele Nutzer nach „Angela Merkel schwanger“ gesucht hatten, war Google auch bei Zweigs Eingabe behilflich.

Merkel schwanger?

Sie weiß inzwischen warum: Satiriker Jan Böhmermann hatte gerade seinen Song „Wer war mit Mutti im Bett“ veröffentlicht, darin die Zeile „Angela schwanger, Joachim sauer“. Das dazugehörige Video zeigte ein Merkel-Double mit Babybauch. So abwegig war der Google-Vorschlag nicht.

An dieser Stelle befindet sich ein externer Inhalt von YouTube, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.

Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden.

Und doch ist er der Beweis, dass Intelligenz aus dem Rechner Grenzen hat: Ein Algorithmus hatte die Wissenschaftlerin überzeugt, sich für etwas (völlig Absurdes) zu interessieren. Er hatte sie von ihrer eigentlichen Suche abgelenkt – und sie gesteuert. „Menschen lassen sich leicht verleiten“, sagt Zweig. Es ist ihr großes Thema.

Sozioinformatik wie nirgends sonst

Die Informatikerin beschäftigt sich jeden Tag mit Algorithmen, die sie als „Handlungsanweisungen an den Computer“ umschreibt. Zweig will wissen, wie diese Handlungsanweisungen den Menschen dienen können – und wann sie ihnen gefährlich werden.

In Kaiserslautern leitet die 41-Jährige den Studiengang Sozioinformatik, den es in der Form nirgendwo sonst in Deutschland gibt. Ihre Absolventen sollen „richtig gute Software“ herstellen, sagt sie. „Richtig gut“ heißt: ethisch vertretbar.

„Software hat Auswirkungen: Auf Individuen, Organisationen, Gesellschaft“, erklärt sie. „Aber wir denken zu wenig an die Folgen von Software für jeden Einzelnen.“ Und die Google-Suche nach Angela Merkel ist für Zweig der Beleg, dass der dort angewandte Algorithmus den Menschen falsch versteht.

Menschen und Algorithmen näher zusammen

In ihrem Büro in Kaiserslautern hängen zwei große Whiteboards, darauf kryptische Formeln und Rechenschritte. Für Laien wirres Zeug. In der Welt der Informatiker ist Katharina Zweig aber eine Ausnahmeerscheinung. Sie versucht, hinter den Formeln eine anschauliche Sprache zu finden.

Sie will den Menschen Einfluss und Nutzen von Algorithmen näherbringen. Ohne die Mathematik in Rechnern und Software-Systemen könnte die Gesellschaft kaum mehr auskommen. Zweig erforscht, ob Algorithmen klüger sind als Menschen, ob sie verlässlicher sind.

Algorithmen sind nicht zu stoppen

Wann soll der Mensch entscheiden, wann soll es der Rechner tun? Algorithmen stellen auf kürzestem Wege alle verfügbaren Informationen bereit, nach denen man sucht. Sie arbeiten schneller und genauer als das Hirn. Aber sind sie genial? Sind sie, wenn man so will, der bessere oder gerechtere Mensch?

China: Punktesystem mit Algorithmus

Jedenfalls sind sie nicht zu stoppen. Sie helfen in Dating-Apps, den Traumpartner zu finden. Sie filtern Nachrichten. Und manchmal entwickeln sie eine unheimliche Macht. In China wird derzeit ein Punktesystem zur Bewertung von Bürgern erprobt.

„Menschen lassen sich leicht verleiten“ – warum Algorithmen eine Moral brauchen

„Menschen lassen sich leicht verleiten“ – warum Algorithmen eine Moral brauchen

Algorithmen verstehen uns Menschen häufig falsch. Das zeigt auch die Google-Suche. Dennoch geben wir immer mehr Entscheidungen an sie ab. Ist das moralisch vertretbar? Eine Informatikerin forscht daran.

Wer nicht auffällig wird, im Verkehr und politisch zurückhaltend ist, hat bessere Chancen auf einen Bankkredit. Die Daten entscheiden. Ab 2020 soll diese Orwellsche Sozialkontrolle in ganz China eingeführt werden. Dann beurteilt die Maschine, welcher Mensch gut, welcher böse ist.

USA: Algorithmen statt Richter

Undenkbar in einer Demokratie? Mitnichten. In den USA benutzen immer mehr Richter ein Computerprogramm, das errechnet, ob ein Straftäter rückfällig werden kann. Die Täter müssen mehr als 100 Fragen beantworten, dazu kommen Daten aus Strafakten. Das System spuckt dann eine Prognose über die Wiederholungsgefahr aus.

So soll die Verbrechensbekämpfung effizienter werden – und die Urteile objektiver. Und das in einem Land, das schon heute wie kein anderes auf der Welt Menschen einsperrt. Auf 100.000 Einwohner kommen in den USA 670 Inhaftierte, vor allem Schwarze und Latinos.

Wie trainiert man einen Algorithmus?

Zweig befasst sich derzeit intensiv mit den Algorithmen im US-Justizsystem. Gerade weil es in Deutschland nicht vorstellbar wäre, einer Software mehr zu vertrauen als einem Richter. „Bei uns wird ein Täter als Individuum wahrgenommen und so behandelt. Zu sagen, Täter XY sei genauso wie viele andere vor ihm, käme einer Art Sippenhaft gleich“, kritisiert sie.

Als Informatikerin fragt sie sich, wie ein solcher Algorithmus wie in den USA „trainiert“ wird. Schließlich soll er aus den Daten klare Regeln ableiten und beurteilen, welcher Verbrecher am ehesten resozialisierbar ist und welcher lange ins Gefängnis sollte.

Mehr zum Thema:

  • Rassistische Algorithmen: Forscherin warnt vor blinder Technik-Euphorie
  • Chelsea Manning: „Entwickler brauchen einen ethischen Code“
  • „Der Algorithmus bewertet viel objektiver“: Ein Gründer zur Zukunft des Recruitings

Software mit Moral

Wie die Software zu den Ergebnissen kommt, ist oft intransparent. Auch ist nicht klar, wie sehr sie Urteile schon beeinflusst hat. „Der dortige Algorithmus packt Menschen in drei Klassen: Hohes Risiko einer Rückfälligkeit, mittleres Risiko, niedriges Risiko“, so Zweig. Doch Nachforschungen hätten ergeben: „Tatsächlich werden in der Hochrisikoklasse nur 60 Prozent rückfällig, nur 20 Prozent begehen wieder schwere Gewalttaten.“

Eigentlich soll der Algorithmus Willkür von Richtern verhindern, doch agiert die Maschine vielleicht willkürlicher? „Man kann viele Fehler machen, wenn man ein algorithmisches Entscheidungssystem baut“, erklärt Zweig. Auch deswegen bildet sie „Sozioinformatiker“ aus, die im besten Fall Software mit Moral verknüpfen.

Werbung für Penisverlängerungen

„Lasst uns Daten sammeln. Lasst uns mit einem Algorithmus Besonderheiten feststellen. Aber jeder Algorithmus muss getestet werden“, sagt Zweig. „Wie kommt ein Ergebnis zustande: durch eine zufällige Verknüpfung oder eine echte Kausalität?“ So eine Überprüfung finde bisher kaum statt. Das weiß sie aus Erfahrung.

Zweig erhielt vor einiger Zeit eine Werbe-Mail für Penisverlängerungen. „Warum krieg’ ich die? Vermutlich, weil ein Algorithmus mich als Mann kategorisiert hat“, erklärt sie. „Ich bin in einem Berufsfeld tätig, in dem eher Männer anzutreffen sind. Ich surfe auf Technikseiten herum, die fast ausschließlich von Männern aufgesucht werden. Ich werde also in vielen Datenbanken für einen Mann gehalten, und entsprechend muss da mal meine E-Mail-Adresse an Werbetreibende verkauft worden sein.“

Hoffnung in der Medizin

Dass Algorithmen mehr schaden als nützen, will Zweig nicht glauben. Sie hofft, die Daten könnten der Menschheit vielmehr zu bahnbrechenden Erkenntnissen verhelfen, etwa bei der Heilung von „seltenen Krankheiten“.

In der EU gilt eine Erkrankung als selten, wenn nicht mehr als fünf von 10.000 Menschen betroffen sind. Ein Arzt allein kann kaum etwas über sie lernen, weil er zu wenige Fälle hat. „Betrachtet man nun die ganze Welt, dann sind da auf einmal Zehntausende Menschen mit derselben seltenen Krankheit. Sie bieten eine Datenmenge, die kausale Zusammenhänge erkennen lassen.“ Ohne Algorithmen käme die medizinische Forschung demnach kaum weiter.

Der eigene Algorithmus

Katharina Zweig selbst auch nicht. Sie hat sich für die Benotung ihrer Studenten eine Art Algorithmus ausgedacht, der Fehlentscheidungen ausschließen soll.

Für die Bewertung einer mündlichen Prüfung vertraut Zweig nicht nur ihrer Wahrnehmung, sondern zwei unterschiedlichen, von ihr entworfenen Kriterienkatalogen: „Es kommt vor, dass ich zuerst eher eine Drei geben würde, aber meine beiden Bewertungskataloge am Ende jeweils eine Zwei ergeben. Dann gebe ich natürlich eine Zwei.“

Seht hier Katharina Zweig im Video

Du willst mehr von uns lesen? Folge uns auf Google News.