Angreifer, die mithilfe künstlicher Intelligenz Sicherheitslücken finden, mit Gesichtserkennungstechnologie ausgestattete Drohnen, die Leute attackieren, gefälschte Videos, mit denen Meinungen manipuliert werden. Der am Dienstag veröffentlichte The Malicious Use of Artificial Intelligence Report (zum Bericht) warnt vor dem Missbrauch künstlicher Intelligenz und fordert Maßnahmen der Politik, um die missbräuchliche Verwendung der Technik zu verhindern. In der Studie habe man sich auf Anwendungen konzentriert, die bereits heute oder in naher Zukunft möglich seien, sagte Shahar Avin vom Centre for the Study of Existential Risk der Cambridge University der BBC. „Es geht nicht um die ferne Zukunft“
Vertreter aus Wissenschaft, Industrie und Gesellschaft sind sich einig
Künstliche Intelligenz sei reif für die Ausbeutung durch Schurkenstaaten, Kriminelle und Terroristen. Die Gefahren seien real, warnen die Verfasser der Studie, an der 26 Experten aus Wissenschaft, Zivilgesellschaft und Industrie mitgearbeitet haben.
Die Studie fordert Entwickler von Systemen künstlicher Intelligenz und Regierungen auf, Vorkehrungen zu treffen, um Möglichkeiten des Missbrauchs einzudämmen. Künstliche Intelligenz bringe zahlreiche positive Effekte mit sich, der Missbrauch werde aber kaum thematisiert, heißt es in dem 100-seitigen Papier. Er stelle eine Bedrohung für die digitale, physische und politische Sicherheit dar.
Manipulation von Meinungen durch KI möglich
Die Experten führen eine Reihe von Beispielen an, die zeigen, wie die Technik missbraucht werden kann. Dazu zählen manipulierte Videos und Audioaufnahmen, mit denen Meinungen manipuliert oder Sicherheitssysteme ausgehebelt werden können, ebenso wie der Einsatz von künstlicher Intelligenz durch Cyberangreifer. Gewarnt wird auch vor dem Missbrauch der Technik durch autoritäre Regime.
Die Missbrauchsmöglichkeiten müssten bereites bei der Entwicklung der Systeme mitbedacht werden, fordern die Experten. Auch eine stärkere Regulierung der Technik durch staatliche Stellen sei zu diskutieren. An der Studie haben unter anderem die Universitäten Cambridge und Oxford, die digitale Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) und das Non-Profit-Forschungsinstitut OpenAI mitgearbeitet.