Wie ehrlich sind Roboter? Die Zukunft des Vertrauens
Robotern mit kindlicher Statur und großen Augen geben wir bereitwillig alle Informationen ohne zu hinterfragen, was damit passiert. Im Internet betreiben wir einen "Seelenstriptease", doch wie sieht es mit der Ehrlichkeit aus, die uns die Maschinen entgegenbringen?
Ständig treten wir in Kontakt mit Computerprogrammen. Mit Handy-Apps und Navigationssystemen. Mit Instagram und Facebook. Mit Siri und Alexa. Mit Algorithmen, die uns Produkte, Filme und politische Meinungen empfehlen. Mit dem Boardcomputer im Auto. Bald auch vermehrt mit Robotern.
Konzepte, die wir aus der Mensch-Mensch-Beziehung kennen, werden damit auch für die Mensch-Maschine-Beziehung relevant. Zum Beispiel: Vertrauen. Wer vertraut, verlässt sich der Definition nach darauf, dass aus den Aktionen des Gegenübers kein Schaden für die eigene Person entsteht. Wer vertraut, gibt damit immer auch Kontrolle ab. Doch wie viel Vertrauen sollten wir Maschinen entgegenbringen, vor allem wenn sie Daten über uns sammeln und Entscheidungen für uns treffen? Was macht eine vertrauenswürdige Technologie der Zukunft aus?
Hochgefährliche Kontrollabgabe
Vertrauen in Maschinen ist in der Forschung ein absolutes Trendthema. Auch die EU-Politik beschäftigt sich mit Richtlinien für vertrauenswürdige KI made in Europe. Einig ist man sich über Folgendes: Es darf nicht mehr um das ökonomisch getriebene Ziel gehen, Vertrauen von Nutzerinnen und Nutzern mit allen Mitteln zu steigern, sondern vielmehr um die Frage, wie adäquate Levels an Vertrauen in Technologie "kalibriert" werden können.
Heute läuft die Vertrauensfrage in der Mensch-Maschine-Beziehung noch häufig auf Extreme hinaus. Die einen zeigen absolutes Misstrauen, wollen mit Technologie nichts zu tun haben, fürchten die Digitalisierung. Das ist problematisch, weil sich eine rigorose Vermeidungshaltung kaum mehr mit der Realität unseres vernetzten, digitalen Alltags in Einklang bringen lässt. Es entstehen persönliche Nachteile und Zukunftsängste. Auf der anderen Seite gibt es das Phänomen des Übervertrauens. Auf YouTube tauchen beispielsweise immer wieder Videos von Tesla-Besitzern auf, die während der Fahrt auf der Rückbank herumturnen oder sogar schlafen. Das ist blindes Vertrauen par excellence und eine hochgefährliche Kontrollabgabe, denn Teslas Autopilot ist bisher ausschließlich als Unterstützung für einen Menschen hinterm Steuer gedacht.
Etwas abstrakter, aber ähnlich ist die Sachlage bei körperloseren KIs. Denken wir an algorithmische Entscheidungsunterstützungssysteme, die heute schon in vielen Bereichen eingesetzt werden, unter anderem zur Prognose darüber, wie aussichtsreich eine Job-Anwärterin für eine bestimmte Stelle ist oder mit welcher Wahrscheinlichkeit ein Angeklagter künftig wieder straffällig wird. Auf Basis der Falschannahme, dass Maschinen in solchen Aufgabenstellungen stets fehlerfrei und objektiv agieren, werden die ausgespuckten Ergebnisse kaum infrage gestellt. Da solche KI-Systeme aber aus Daten und Entscheidungen lernen, die wir Menschen in der Vergangenheit gemacht haben, können sie immer nur so fehlerlos und fair sein, wie wir selbst es sind. Hat ein Unternehmen in der Vergangenheit fast nur Männer für IT-Posten eingestellt, übernimmt der Recruiting-Algorithmus womöglich das tradierte Muster und siebt weibliche Bewerberinnen systematisch aus.
Besonders große Vertrauensbereitschaft zeigen wir, wenn eine Maschine nicht nur über das Label "intelligent" verfügt, sondern auch noch besonders freundlich – man könnte sagen: vertraut – wirkt. In Experimenten in Belgien haben Personen gegenüber einem Roboter mit kindlicher Statur und großen Augen bereitwillig sensible Daten herausgerückt, ohne Gedanken daran, wer im Hintergrund die Fernbedienung drückte. Das selbstfahrende Google Car war nicht ohne Grund als süße Knutschkugel designt, der man intuitiv keinerlei Gefahrenpotenzial zuschreibt. Und vielleicht denken wir uns manchmal sogar im Internet, wie nett das doch alles ist. Weil uns im Prinzip niemand so gut versteht wie Facebook und Google, die uns mittels Microtargeting immer exakt zum richtigen Zeitpunkt mit der richtigen Werbeeinschaltung versorgen. Wer liest uns sonst schon so gut unsere Wünsche von den Fingerspitzen ab?
Ehrliche Maschinen
Vertrauen entsteht der psychologischen Theorie zufolge über eine von zwei Routen. Zu affektivem Vertrauen kommt es, wenn wir unser Gegenüber als wohlgesonnen, freundlich und integer wahrnehmen. Dieser Eindruck ist mit sympathischen Gesichtern und Gimmicks relativ leicht herstellbar, bei manipulativem Einsatz aber ethisch höchst fragwürdig.
Kognitionsbasiertes Vertrauen hingegen baut darauf auf, wie kompetent und berechenbar unser Gegenüber ist, wie gut wir es verstehen. Und genau hier müssen wir ansetzen. Hätten Nutzerinnen und Nutzer nämlich mehr Informationen über die Funktionsweisen und Fähigkeiten eines maschinellen Systems, über die Daten, die es sammelt und die Fehler, die ihm unterlaufen, könnten sie flexibel entscheiden, welches Maß an – informiertem – Vertrauen sie dem System entgegenbringen möchten.
Wollen wir Maschinen auf solch eine mündige Art und Weise bewerten, bräuchten wir aber eine wesentlich breitere Bildung und Aufklärung darüber, wie Künstliche Intelligenz und andere relevante Alltagstechnologien eigentlich funktionieren. Außerdem müssten Computerprogramme so gestaltet sein, dass sie sich in den genannten Punkten selbst erklären, in ihren Zielen und Prozessen möglichst durchschaubar werden. Mit den Black-Box-Systemen von heute ist das noch kaum der Fall.
Zu Google sind wir ganz ehrlich
Wir User hingegen betreiben unseren Devices gegenüber schon lange größtmöglichen Seelenstriptease. Die digitale Sphäre kennt uns völlig unbeschönigt, samt unserer Ängste und Absichten, unserer Stärken und Schwächen. Vor ein paar Jahren sagte die deutsche Informatikerin Constanze Kurz einmal: Zu niemandem ist man ehrlicher als zum Suchfeld von Google. Und sie hat Recht. Um angemessenes Vertrauen in Maschinen herzustellen, werden Maschinen diese Ehrlichkeit in Zukunft erwidern müssen. Zumindest ein bisschen.
Zur Autorin: Martina Mara ist OÖN-Kolumnistin und Professorin für Roboterpsychologie an der JKU in Linz
auch hier gilt!
wer zahlt schafft an,
Ehrlichkeit ist relativ😎