Fake News, die nächste Generation
Erinnern Sie sich an das berühmt-berüchtigte "Grab ’em by the pussy"-Video, in dem Donald Trump prahlte, Frauen ungestraft an die Genitalien greifen zu können?
Es war einer der Aufreger im US-Präsidentschaftswahlkampf 2016 (und kostete Trump bekanntlich nicht den Sieg). Etwa ein Jahr nach gewonnener Wahl sprach der nunmehrige Präsident das Video in absurder Eigeninitiative wieder an: Obwohl er sich ursprünglich wiederholt dafür entschuldigt hatte, nannte Trump es nachträglich einen "Fake". Die Stimme, die man im Video höre, sei gar nicht die seine, meinte er plötzlich. Der Witz dabei: Wenngleich ihm den patscherten Spin nicht einmal wahre Fanboys so richtig abnehmen konnten, stieß er damit etwas Richtiges an. Fake News, die bis dato fast ausschließlich als manipulative Falschnachrichten in Textform diskutiert wurden, werden mit großer Sicherheit bald auch als gefakte Tonaufzeichnungen und Videos daherkommen.
Möglich wird das durch künstliche Intelligenz. Google zum Beispiel hat erst kürzlich einen KI-Assistenten vorgestellt, der mit überzeugend menschengleicher Stimme telefonisch einen Tisch im Restaurant reserviert. Es wird nicht lange dauern, bis jemand die Technologie zur Nachahmung realer Menschen nutzt. Auch prototypische Software zur Manipulation gefilmter Personen existiert bereits. Unter futureoffakenews.com findet sich ein Videostatement Barack Obamas, das es so nie gegeben hat. Die Worte, die er spricht, wurden ihm nachträglich in den Mund gelegt und eine KI hat die passenden Mundbewegungen dazu berechnet. In der Amateurversion stehen ähnliche Programme heute schon für jedermann in App-Stores bereit. Die Resultate sind freilich noch nicht perfekt, und wenn User damit etwa ihr eigenes Gesicht auf Sharon Stones Körper in "Basic Instinct" montieren, kommen dabei auch kaum gefährliche Fake News heraus. Trotzdem lässt sich leicht erahnen, was in Zukunft möglich sein wird. Ein realistischer Fake Kim Jong-uns, der einen Raketenanschlag per Video ankündigt, wäre weit weniger lustig.
Wie können wir uns also vorbereiten auf eine digitale Welt, in der es immer noch schwieriger wird, echt von unecht zu unterscheiden? Es braucht dafür eine Transparenzpflicht für manipulierte Inhalte. Es braucht auch smarte Algorithmen, die Bild-, Ton- und Video-Fakes mit deren eigenen Waffen als solche aufdecken. Und es braucht, wahrscheinlich am allermeisten, eine gezielte Stärkung der Informationskompetenz junger Menschen, die in solch eine Zukunft der Fake News hineinwachsen. Sie müssen wissen, welchen Quellen sie vertrauen können. Schön wäre es, wenn professionellen Medien diese Vertrauensrolle wieder stärker zugeschrieben würde.
Martina Mara ist Professorin für Roboterpsychologie an der JKU. Twitter: @MartinaMara. E-Mail: mara@nachrichten.at
Ja... aber grade diese "Qualitätsmedien" erzählen doch völligen Unsinn.
Sei es zu diversen Kriegen oder auch nur bei Kleinigkeiten.
Gratulation Frau Mara zu Ihren Kommentaren. Eine tolle Bereicherung der OÖN zu diesen speziellen Themenbereichen, deren Auswirken bzw. besser Auswüchsen wir uns noch nicht bewusst sind, die aber derzeit schon zum Alltag gehören. Wenn KI bald neben Videos auch noch wirklich witzige Karikaturen erstellen wird, dann wird die Peinlichkeit eines Herrn Haderer - wie in der letzten OÖN-Wochenendausgabe „Beamte aufgepasst ... „ - hoffentlich bald der Vergangenheit angehören. In diesem Sinne freue ich mich schon auf Ihre weiteren Beiträge.
gezielte Falschmeldungen in Politik und in der Finanzwelt gabs gibts doch täglich, lügen gehört da zum Geschäft
Die digitale Technik, dabei stehen wie erst am Anfang und ich bedaure daß ich schon so alt bin (heul) und nicht mehr erleben werde wie die Massen der Menschheit an dem System im Glücksfall nur manipuliert werden.
Spannend. Falschmeldungen gab's zwar immer schon, aber wenn die dann auch noch technisch "perfektioniert" werden, dann wird's umso dringender, sich mit dem realen Leben auseinander zu setzen, seine eigenen Sinne zu schärfen und der eigenen Intuition zu vertrauen.