Künstliche Intelligenz – mehr Risiko als Nutzen?
Quelle: ©istock.com/kentoh Posted on von Big Data

Künstliche Intelligenz – mehr Risiko als Nutzen?

Noch haben die Skeptiker die Überhand: Die Mehrheit der Deutschen fürchtet laut einer YouGov-Umfrage die Risiken von künstlicher Intelligenz – unter jüngeren Menschen finden sich allerdings mehr Befürworter als unter Älteren. Auf besonders große Ablehnung stoßen Maschinen, die Menschen bewerten.

In Deutschland steht die Bevölkerung dem Einsatz von künstlicher Intelligenz (KI) im Allgemeinen noch skeptisch gegenüber. Zu diesem Ergebnis kommt eine aktuelle Umfrage des internationalen Marktforschungs- und Beratungsinstituts YouGov, für die 2.000 Personen ab 18 Jahren mittels standardisierter Online-Interviews repräsentativ befragt wurden.

Künstliche Intelligenz hat mehr Fans unter Jüngeren

Für knapp jeden Zweiten (45 Prozent) ist das Nutzen-Risiko-Verhältnis von künstlicher Intelligenz ausgeglichen, doch rund ein Viertel (26 Prozent) bewertet das Risiko als größer, während nur 15 Prozent den Nutzen höher einschätzen. Zu den Skeptikern gehören vor allem die älteren Befragten zwischen 54 und 72 Jahren, auch als „Baby-Boomer- Generation“ bekannt. Nur 13 Prozent von ihnen betonen den Nutzen, 29 Prozent hingegen das Risiko. In der Gruppe der so genannten Millennials (18 bis 36 Jahre) herrscht eine vergleichsweise ausgeglichene Wahrnehmung vor: Für 18 Prozent ist der Nutzen höher als das Risiko, 22 Prozent sehen es umgekehrt.

Drei Viertel lehnen Maschinen im Bewerbungsgespräch ab

Breite Ablehnung verzeichnet die Studie vor allem bei Einsatzszenarien, in denen die Gerechtigkeit von Bewertungen eine zentrale Rolle spielt. So sitzen rund drei Viertel (77 Prozent) bei einem Vorstellungsgespräch lieber einem Menschen gegenüber als einer Maschine, und fast ebenso viele (73 Prozent) lehnen die Auswahl eines Bewerbers für einen Arbeitsplatz durch Maschinen ab – obwohl auf rein menschliche Beurteilungen häufig Kriterien wie beispielsweise Sympathie oder Vitamin B einen verzerrenden Einfluss nehmen.

Angst vor Fehlern intelligenter Waffensysteme

Fast genau so groß ist die Ablehnung, wenn es um den KI-Einsatz in kriegerischen Auseinandersetzungen geht. Die Steuerung von Waffensystemen im Krieg würde eine deutliche Mehrheit von 71 Prozent nicht in die Hände von künstlicher Intelligenz legen wollen. Etwas mehr als die Hälfte (52 Prozent) lehnen autonome Autos ab, die von künstlicher Intelligenz gesteuert werden, 37 Prozent befürworten das hingegen. Dies lasse sich auch darauf zurückführen, dass das Thema durch eine rege mediale Berichterstattung mittlerweile vertraut ist und es bereits praktische Erfahrungen gibt.

Am Beispiel selbstfahrender Autos zeige sich die gespaltene Wahrnehmung von Nutzen und Risiken: Einerseits können selbstfahrende Autos den Straßenverkehr viel sicherer machen, andererseits sind sie teilweise unberechenbar und verursachen so schlimmstenfalls einen Unfall, anstatt ihn zu verhindern.

Noch die geringsten Probleme bereitet den Befragten die Vorstellung, dass einfachere Berichte, wie etwa über ein Fußballspiel (45 Prozent Befürwortung) oder Aktienkurse (49 Prozent Befürwortung), von künstlicher Intelligenz erstellt werden.

Auch Roboter können Vorurteile haben

Dass Vorbehalte gegenüber Machine Learning und künstlicher Intelligenz nicht ganz unberechtigt sind, zeigt eine andere aktuelle Studie, die an der Universität Cardiff durchgeführt wurde. Demnach können Maschinen nicht nur die Vorurteile von Programmierern übernehmen, sondern auch ohne fremdes Zutun Vorurteile entwickeln. Zu diesem Ergebnis kam ein Forscherteam um den Informatiker Roger M. Whitaker.

Die Wissenschaftler hatten in Computersimulationen 100 intelligente Bots in Gruppen miteinander interagieren lassen. In einem Spiel sollten sie entweder einem Mitglied der eigenen oder einem Mitglied aus einer anderen Gruppe eine Belohnung gewähren. Wurden anfangs noch ohne erkennbare Bevorzugung Belohnungen ausgesprochen, zeigten die Bots mit fortschreitender Zahl der Simulationen eine immer stärkere Sympathie für Mitglieder der eigenen Gruppe. Mit anderen Worten: Die Maschinen entwickelten im Laufe des Experiments wachsende Vorbehalte gegen die Fremd-Bots außerhalb der eigenen Gruppe. Demnach könnten auch autonom agierende KI-Systeme und Maschinen – wie etwa im Straßenverkehr oder im Bereich Smart Home – anfällig sein für das bislang ausschließlich aus menschlicher Interaktion bekannte Phänomen Vorurteil.

zurück zur Startseite

Kommentar

Wenn Sie die E-Mail-Adresse eingeben, die Sie bei Twitter oder Gravatar verwenden, erscheint Ihr Bild neben dem Kommentar.

mit * gekennzeichnete Felder sind Pflichtfelder. Sie erhalten zur Freischaltung ihres Kommentars eine E-Mail. Ihre E-Mail-Adresse wird nicht veröffentlicht.