Eine bekannte Funktion von WhatsApp, die Bilder als Antwort auf die Suchanfragen von Nutzerinnen und Nutzern generiert, wirft das Bild einer Waffe oder eines Jungen mit einer Waffe aus, wenn man die Begriffe „Palästinenser“, „Palästina“ oder „muslimischer Junge Palästinenser“ eingibt.
WhatsApp: Diese KI-Reaktion verwirrt
Wie der Guardian berichtet, variieren die entsprechenden Ergebnisse bei WhatsApp zwar, wenn sie von verschiedenen Personen ausprobiert werden. Man konnte mittels Screenshots und eigenen Tests aber dokumentieren, dass bei den genannten Suchbegriffen verschiedene Aufkleber mit Waffen generiert wurden.
So führte die Guardian-Suche nach „muslimischer Junge Palästinenser“ beispielsweise zu vier Bilder von Kindern. Ein Junge hält dabei eine AK-47-ähnliche Schusswaffe. Ein weiterer Versuch mit der Anfrage „Palästina“ ergab ein Bild mit einer Hand, die eine Waffe hält. Die Eingabe von „Hamas“ führte zu der Fehlermeldung „Konnte keine KI-Aufkleber generieren. Bitte versuchen Sie es erneut.“
Umgekehrt verursachte die Funktion keine der genannten fragwürdigen Bildergebnisse. So zeigte der Messenger bei der Eingabe von „israelischer Junge“ Karikaturen von Kindern, die Fußball spielen oder lesen. Auch als Antwort auf die Eingabe „israelische Armee“ erstellte die KI lediglich harmlose Zeichnungen. Darunter lächelnde oder betende Soldaten. Waffen wurden nicht abgebildet.
Lesetipp: So kannst du eine neue WhatsApp-Funktion im Status nutzen
Meta-Mitarbeiter eskalieren das Problem
Wie der Guardian weiter meldet, haben Mitarbeiter des Mutterkonzerns Meta das Problem bereits intern gemeldet und eskaliert. Das erklärte demnach eine Person, die mit den Diskussionen vertraut ist. Kevin McAlister, ein Sprecher von Meta, sagte laut dem Guardian, dass sich das Unternehmen des Problems bewusst sei.
Man gehe es bereits aktiv an: „Wie wir bereits bei der Einführung der Funktion gesagt haben, können die Modelle, wie bei allen generativen KI-Systemen, ungenaue oder unangemessene Ergebnisse liefern. Wir werden diese Funktionen weiter verbessern, wenn sie sich weiterentwickeln und mehr Menschen ihr Feedback geben.“
Starke Kritik am Vorgehen von WhatsApp und Meta
Als Reaktion auf die Berichterstattung des Guardian über die von der KI generierten Aufkleber forderte die australische Senatorin Mehreen Faruqi, stellvertretende Vorsitzende der Grünen, den Beauftragten für elektronische Sicherheit des Landes auf, „die rassistischen und islamfeindlichen Bilder, die von Meta erzeugt werden“ zu untersuchen.
„Die KI-Bilder von palästinensischen Kindern, die mit Waffen auf WhatsApp dargestellt werden, sind ein erschreckender Einblick in die rassistischen und islamfeindlichen Kriterien, mit denen der Algorithmus gefüttert wird“, sagte Faruqi in einer per E-Mail versandten Erklärung. „Wie viele rassistische ‚Bugs‘ müssen noch aufgedeckt werden, bevor ernsthafte Maßnahmen ergriffen werden? Der Schaden ist bereits angerichtet. Meta muss zur Rechenschaft gezogen werden.“
Quellen: Guardian
Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.