Die Kombination von Überwachungskameras und Künstlicher Intelligenz würde zusammen wirken wie Augen und Gehirn. Je besser die KI in der Lage ist, Videomaterial auch gemäß seines Kontextes zu interpretieren, desto mehr könnte sie helfen, Täter zu fassen, oder sogar Kriminalfälle zu verhindern.
KI-Systeme bringen neue Fragen mit sich
Diese Entwicklungen bringen jedoch auch neue Fragen mit sich: Was wird passieren, wenn Regierungen auch größere Mengen an Menschen auf einmal per Kameras verfolgen können. Oder wenn die KI automatisch die Polizei ruft, weil sie eine bestimme Gruppe von Menschen als auffällig bewertet? Obwohl solche KI-Überwachungssysteme derzeit noch nicht Realität sind, entwickelt sich diese Technologie dennoch rasant.
System Ella zum Durchsuchen von Video-Material
Die Firma IC Realtime etwa hat im Dezember 2017 eine Plattform namens Ella auf den Markt gebracht, die per Google Cloud funktioniert und mittels Künstlicher Intelligenz analysiert, was auf einem Video passiert. So kann der Nutzer mit Ella Filmmaterial nach bestimmten Such-Parametern hin durchsuchen, wie etwa einem bestimmten Tier oder nach Personen, die Kleidung in einer bestimmten Farbe tragen.
Es wird somit nicht mehr nötig sein, stundenweise Videomaterial zu sichten, um ein bestimmtes Auto auf dem Video zu finden. Per Like- oder Dislike-Button können Nutzer zudem angeben, ob sie zufrieden mit Ellas Ergebnissen sind. So helfen sie, das System zu verbessern. Ein monatliches Abo für das Programm kostet derzeit sieben US-Dollar. Durch die KI, so der IC Realtime CEO Matt Sailor, sei Ella wesentlich differenzierter und könne dazulernen, anders als manche Smart Home-Programme von beispielsweise Amazon oder Logitech.
Google, IBM und Co. ziehen nach
Die Firma Boulder AI baut ein solches Programm direkt in die Kameras ein, die es verkauft. Somit kann man dieselben Funktionen nutzen, auch ohne Internetverbindung. Die Firma verkauft ihre Hardware derzeit bereits an Firmen aus allen möglichen Branchen wie Energie oder auch Gastronomie. Ein Restaurant etwa, überprüft mit einer Kamera von Boulder AI, ob seine Pizzas alle denselben Durchmesser haben. Die Entwicklung dieser beiden Firmen, IC Realtime und Boulder AI, ist vermutlich nur die Spitze des Eisbergs. In Zukunft könnten Kameras mit KI nicht mehr nur Objekte in Videos identifizieren, sondern auch verdächtiges Verhalten enttarnen. Firmen wie Google, IBM oder das Massachusetts Institute of Technology MIT arbeiten an ihren eigenen KI-Kamera-Programmen.
KI enttarnt verdächtiges Verhalten
Boulder AI beispielsweise speist gerade Informationen in ihr Programm ein, die es ermöglichen sollen, dass das Programm auffälliges Verhalten entdecken kann. Dies könnte etwa in Banken angewendet werden. Das Programm würde dann bestimmte Gesichtsausdrücke oder Bewegungen, wie vermehrte Blicke über die Schulter, als verdächtig identifizieren und einen Mitarbeiter alarmieren. In Schulen könnte ein solches Programm einen aufkommenden Streit frühzeitig erkennen, wenn etwa viele Schüler plötzlich an einer Stelle zusammenkommen.
KI-Interpretationen hapern noch
Die neuen Entwicklungen in den Kameraüberwachungssystemen sind nicht frei von Kritik. Technische und auch ethische Probleme werden von Kritikern aufgezählt. Maschinen könnten die Welt nicht so gut verstehen wie Menschen, aber wenn wir sie diese interpretieren lassen, gehen ethische Probleme damit einher. Die Auflösung des Videos spielt eine erhebliche Rolle. Je nach Qualität des Videos können die KI-Kameras die Situation genauer einordnen. Gerade bei öffentlichen Überwachungskameras ist die Auflösung jedoch häufig nicht sehr hoch. Zudem wäre noch nicht der Punkt erreicht, so Professor Alex Hauptmann von der Carnegie Mellon University, an dem die Programme interpretieren könnten, was sie sehen. Rennt beispielsweise jemand, weil er einen Bus erreichen will, oder weil er gerade etwas gestohlen hat?
Gesichtserkennung per KI
Gesichtserkennung an öffentlichen Orten sowie das Erkennen von Autokennzeichen sind bereits Realität. Ebenso kann eine Person mittels mehrerer Kameras verfolgt werden. Diese Entwicklungen können natürlich auch missbraucht werden. In der chinesischen Provinz Xinjiang lebt eine ethnische Minderheit namens Uighur, die gegen die Regierung rebelliert. Die Überwachungskameras dort wurden daher auf die typischen Gesichtsmerkmale dieser ethnischen Minderheit hin sensibilisiert. Auch Moskau überwacht bereits 90 Prozent des Stadtgebiets mit solchen Kameras, und setzt die KI zur Erkennung bestimmter Gesichter ein. Durch dieses Ansammeln von Daten lernen die Programme rasant dazu.
Missinterpretationen und Voreingenommenheit der KI
Problematisch hierbei ist, dass die KI erwiesenermaßen Stereotype der Menschen übernehmen. So haben bestimmte Programme in der Kriminologie bereits hauptsächlich schwarze Menschen angezeigt, wenn es darum ging, welche Personen am ehesten handgreiflich werden. Jay Stanley von der American Civil Liberties Union sieht die Gefahr, dass Menschen sich zukünftig permanent beobachtet fühlen. Zudem könnten Missinterpretationen von KI-Systemen zu mehr gefährlichen Situationen zwischen Polizei und Zivilisten führen.
In Texas wurde bereits ein Mann in seinem Hotelzimmer erschossen, nachdem eine KI-Kamera fälschlicherweise meinte, er hätte eine Waffe dort. Meredith Whittaker von der NYU sieht es zudem als problematisch, dass diese Programme auch in der Öffentlichkeit einfach implementiert werden, ohne einen demokratischen Prozess, während dessen man sie zunächst diskutieren könnte. Die Tech-Firmen, die die KI-Kameras herstellen, meinen hingegen, es käme darauf an wer und wie die Kameras und Programme erstelle, wenn es darum geht, wie voreingenommen diese sind.