Künstliche Intelligenz: Nachdenken im Hamsterrad
@istock.com/cherezoff Posted on von Analysten | Hot Topic | Management

Künstliche Intelligenz: Nachdenken im Hamsterrad

Die aktuellen Diskussionen um das Thema Artificial Intelligence zeigen, wie schmal der Grad zwischen Himmel und Hölle beim digitalen Wandel ist. Die technische Entwicklung lässt sich nicht aufhalten. Fraglich ist, ob und wie sie sich kontrollieren lässt.

AI im Aufwind, und doch noch in den Kinderschuhen

Science Fiction-Bücher oder -Filme wähle ich regelmäßig ab, weil mir die Vorstellung, dass der Mensch mit all seinen Eigenheiten zukünftig in den Hintergrund tritt, Unbehagen bereitet. Und doch wirken wir alle an der Entwicklung eben solcher Szenarien mit. So auch beim Hype-Thema „Artifical Intelligence“ (AI), zu dem PAC gerade einen neuen Market Insight-Report veröffentlichte.

Demnach liefern die Fortschritte bei Big Data, Computation und Brain Power (Deep Learning etc.) die Zutaten für den perfekten Sturm, der in den nächsten Jahren über Unternehmen und Technologieanbieter hinwegfegen dürfte.  Freilich befindet sich Artificial Intelligence noch in den Kinderschuhen. Die heute viel diskutierten Bots, Agents ebenso wie Lösungen für Robotic Process Automation oder autonome Systeme bezeichnet PAC als Elemente einer „Weak AI“. Sie können in einzelnen, klar abgegrenzten Aufgabenbereichen menschliches Verhalten imitieren und immer häufiger auch übertreffen.

Dagegen ist eine „Strong AI“ , in der Bots ähnlich wie Menschen multiple Aufgaben erledigen, derzeit eher noch Utopie. Der Autor des Reports, mein Kollege Victor Grete schreibt hierzu:

„According to scientists and AI experts, we are not even close to seeing strong AI machines on the market. We don’t have the technology, algorithms, or machine power to create such AI.“

Künstliche Intelligenz liefert Fortschritte bei Big Data, Computation und Brain Power (Deep Learning etc.)

Risiken der AI-Entwicklung entstehen bereits in der Frühphase der Entwicklung

Aufatmen also? Tesla-Gründer Elon Musk zumindest ist anderer Meinung. Der visionäre Technologieunternehmer warnt regelmäßig vor Artificial Intelligence als größter Bedrohung der Menschheit, was aktuell zu der vielkommentierten Kontroverse mit Mark Zuckerberg führte. Mag sein, dass in den Aussagen von Musk auch Eigeninteressen eine Rolle spielen. Dennoch sollte man die Warnungen eines Vorreiters in diesem Feld nicht gänzlich in den Wind schlagen. In diesem Punkt bin ich ganz bei Stefan Ried, der diese Kontroverse für den Blog Digitales Wirtschaftswunder kommentierte.

Tatsächlich stellt uns bereits eine „Weak AI“ vor immense Herausforderungen, wie Spiegel Online -Kolumnist Christian Stöcker in  seinen Kommentar  „Wir sind zu dumm für künstliche Intelligenz“ herausstellte. Blindes Vertrauen in autonome Entscheidungssysteme kann demnach zu beträchtlichen Kollateralschäden in der Gesellschaft führen. Schließlich werden diese Systeme von Menschen entwickelt und antrainiert – und übernehmen dabei auch alle unsere Fehler.

Trotz Warnungen: An AI führt kein Weg vorbei

Viele der Beispiele, die C. Stöcker zum Beleg seiner These anführt– ob Filterblasen und Polarisierung in den Netzwerken, Rassismus bei Auswahlsystemen oder furiose Entwicklungen in den Finanzmärkten – sind uns geläufig. Dennoch und all dieser Warnungen zum Trotz, neigen wir dazu, solchen Systemen zu vertrauen – einfach weil sie versprechen, effizient und einfach Probleme zu lösen. Was sie im Einzelfall und für den Moment ja auch tun.

Die Menschen handeln also nicht irrational – ebenso wenig wie Unternehmen, die AI einsetzen, um Wettbewerbsvorteile zu generieren. Im Gegenteil: Als Analyst kann ich Unternehmen nur empfehlen, sich mit diesem Thema auseinanderzusetzen und den Einsatz von AI ernsthaft zu erwägen, da andernfalls ein Rückfall im Wettbewerb droht. Kurzum: Wir befinden uns im Hamsterrad bzw. dem aus der Spieltheorie bekannten Gefangenendilemma, in dem individuelle Rationalität in kollektive Irrationalität zu münden droht.

Homo Sapiens schafft sich freiwillig ab! –  Kein Horror, wenn Negativfolgen minimiert werden

Aber war das nicht schon immer so? Und wenn ja, was lernen wir aus der Geschichte? Vor diesem Hintergrund lohnt es sich, einen Universalhistoriker wie Yuval Noah Harari zu Rate zu ziehen. In seinem ersten Bestseller „Ein kurze Geschichte der Menschheit“ skizziert er die Erfolgsgeschichte der Homo Sapiens. Aus seiner Sicht konnten sich die Menschen die Welt vor allem deshalb gefügig machen, weil sie in der Lage sind, in großer Anzahl flexibel zusammenzuarbeiten. Die Basis dafür sei unser gemeinsamer Glaube an (erfundene) Geschichten – die  laut Harari von der Religion, über die Nation oder Unternehmen mit deren Vision bis hin zur Idee des Humanismus reichen. Einen sehr unterhaltsamen und eingängigen Vortrag dazu finden sie hier:

In seinem aktuellen, derzeit viel diskutierten Buch „Homo Deus“ denkt Harari diese Geschichte nun fort und kommt dabei zu dem Schluss, dass sich der Homo Sapiens selbst abzuschaffen droht. Wir verschmelzen immer mehr mit den von uns geschaffenen Technologien – einfach, weil wir gar nicht anders können als den Verheißungen der Technologieentwicklung zu folgen. Diese Entwicklung – die auch in einem aktuellen Interview in der Zeit Online diskutiert wird – scheint nicht aus der Luft gegriffen, sie stellt aber auch nicht zwingend ein Horrorszenario dar. Viele von uns verschmelzen ja bereits heute mit Smartphone und Navigationssystem – und tun dies offensichtlich gern.

Die Frage ist vielmehr,  an welchen Geschichten wir Menschen zukünftig unsere Gesellschaft ausrichten. Wählen wir die die Algorithmen à la Facebook oder Amazon als unsere neuen Götter und übertragen so die Macht an wenige Plattformen? Oder werden die Menschen es schaffen, eine globale Vision und ein geeignetes Politiksystem zu entwickeln, um die potenziellen Negativfolgen zu vermeiden oder abzufedern? Wie gehen wir mit den vielen Menschen um, die im Zuge dieser Entwicklung für die Wirtschaft bedeutungslos werden? Werden diese noch eine Stimme haben und woraus schöpfen sie ihren Lebenssinn? Eine interessante Diskussion dazu finden Sie hier: Yuval Noah Harari on the Rise of Homo Deus

Droht der Mensch sich bald selbst abzuschaffen?

Credo: Tragfähige Vision gesucht – auf globaler Basis!

Was bleibt also von all diesem Nachdenken im und über das Hamsterrad? Klar scheint: Wir können uns den technischen Entwicklungen rund um AI nicht verschließen. Jammern hilft nicht, als einzelne Individuen oder Unternehmen müssen wir die bestehenden Rahmenbedingungen nehmen wie sie sind und das Beste daraus machen.  Aber wir sollten auch nicht den Kopf in den Sand stecken, Scheuklappen aufsetzen und Risiken, die mit der Technologieentwicklung einhergehen, verklären.

Besser sollten wir Hararis Mahnungen zum Anlass nehmen, zur Entwicklung tragfähiger Geschichten für das nachhaltige Funktionieren unserer Gesellschaft beizutragen. Dazu muss man kein Historiker, Soziologe oder Philosoph sein. Auch ohne entsprechendes Studium liegt es beispielsweise auf der Hand, dass sich globale Probleme nur mit globalen Lösungen beheben lassen. Eine Rückbesinnung auf die Nation als tragende Vision in einer globalen Ökonomie kann nicht funktionieren.

Solch rückwärtsgewandten Bestrebungen entgegenzutreten, wäre ein erster Ansatzpunkt. Lassen Sie uns besser heute als morgen damit beginnen.

Der Autor

Andreas StiehlerAndreas Stiehler betreut in seiner Rolle als Principal Analyst Digital Enterprise Forschungsaktivitäten zu dem Thema „Digitale Transformation“, mit Fokus auf den Digital Workplace und verwandte Themen. Er ist verantwortlich für das Erstellen und Ausführen dedizierter Forschungs- und Beratungsprojekte in diesem Bereich. Zu seinen weiteren Aufgaben zählt die Weiterentwicklung der Content Marketing Services von PAC.

 

zurück zur Startseite

Kommentar

Wenn Sie die E-Mail-Adresse eingeben, die Sie bei Twitter oder Gravatar verwenden, erscheint Ihr Bild neben dem Kommentar.

mit * gekennzeichnete Felder sind Pflichtfelder. Sie erhalten zur Freischaltung ihres Kommentars eine E-Mail. Ihre E-Mail-Adresse wird nicht veröffentlicht.