Alles fing mit einem Tweet einer Twitter-Nutzerin namens „Ell“ an: „Achtung, Mädels! Geht auf Fotos und gebt dort BH ein. Warum speichert Apple diese Fotos und macht einen eigenen Ordner damit?“ Der Tweet verbreitete sich weltweit – mehr als 28.000 Nutzerinnen und Nutzer sahen ihn.
Codewort „Brasserie“ oder „BH“
Ein kurzer Gegencheck am eigenen iPhone ergab: Apple zeigt bei den Fotos BH-Fotos an, wenn man nach diesen sucht. Wenn das Gerät in deutscher Sprache betrieben wird, kommt unter dem englischsprachigen Suchergebnis „Brasserie“ nichts. Allerdings gibt es in deutscher Sprache am iPhone die Kategorie „BH“. In dieser wurden mir, die als Frau auch ab und zu Bikinifotos macht, aber nie veröffentlicht, insgesamt 36 Fotos angezeigt.
BHs, Zucchinis und Straßenschilder – das iPhone erkennt sie alle
Doch was steckt nun dahinter? Laut einem Guardian-Journalisten gibt es dieses Feature bei Apple bereits seit einem Jahr. Seit der Veröffentlichung von iOS 10 können iPhones mehr als 4000 Objekte, Gesichtsausdrücke und Szenen klassifizieren und erkennen – das gilt neben BHs auch für Zuchinis oder Straßenschilder. Für englischsprachige Kategorien gibt es etwa hier eine Liste, was Apple alles erkennt.
Künstliche Intelligenz im iPhone
Dahinter steckt eine künstliche Intelligenz, die mit hunderten und tausenden Bildern darauf trainiert wurde, diese Objekte zu erkennen. Der Vorgang der Klassifizierung findet dabei ausschließlich am iPhone selbst statt – die Bilder werden, zumindest nicht zu diesem Zweck, an Apple-Server geschickt sondern bleiben am Gerät.
Google, so der Guardian-Journalist, mache das etwa ganz anders. Bei Google müssen die Fotos an Google Photos geschickt werden, um diese zu klassifizieren und etwa einen BH zu erkennen. Während Google das Feature groß angekündigt hatte, habe Apple diese Informationen eher weniger verbreitet – und stattdessen einfach darauf gesetzt, „dass es funktioniere“. „Manchmal führt das zu magischen Momenten“, so der Guardian-Journalist.