Künstliche Superintelligenz (3/3) – Das Murphy Szenario

  • twitter
  • Facebook
  • google+

Künstliche Superintelligenz – Das Murphy-Szenario

Herzlichen Glückwunsch!

Du hast es tatsächlich bis hier her geschafft, ohne dass dein Kopf explodiert ist.

Und das obwohl ich dich in Teil 1 dieser Reihe mit deiner chancenlosen Unterlegenheit gegenüber einer Superintelligenz konfrontiert habe, nachdem ich anschließend in Teil 2 mit einem Vorschlaghammer deine verankerten Glaubenssätze zum Thema Unsterblichkeit bearbeitet habe.

Ich – bin – stolz auf dich!

Deine größte Prüfung steht dir allerdings noch bevor. Heute wirst du dich mit nicht weniger als der völligen Vernichtung der menschlichen Spezies auseinander setzen müssen.

Na wenn das nicht frischen Mut macht, weiß ich auch nicht. Legen wir los!

 

Können künstliche Intelligenzen böse werden?

Okay, zunächst einmal müssen wir mit einem tiefgreifend missverstandenen Vorurteil aufräumen – der Empathie von künstlichen Intelligenzen (KIs).

Maschinen sind weder gut noch böse. Und sie werden es vermutlich auch niemals werden.

Unsere Bücher und Filme vermitteln uns das Bild, dass Maschinen etwas Menschliches haben. Dass sie so denken wie wir, damit der Zuschauer zu ihm eine Beziehung aufbauen kann.

So wie auch mit unserem neuen, geliebten Filmcharakter K2SO aus dem vor kurzem erschienenen Star Wars: Rogue One.

Die liebenswerteste Blechbüchse seit C3PO (starwars.com)

Man kann ihn fast nicht nicht mögen.

Allerdings ist dieses Bild ein Trugschluss. KIs denken und handeln nicht menschlich. Sie können noch so gut programmiert werden, menschliches Verhalten zu imitieren. Letzten Endes verfügen sie dennoch über so viel Empathie-Vermögen wie dein Toaster.

 

Die Maschinen werden also niemals plötzlich einen Sinneswandel wandel haben und sich sagen „Okay Rostbolzen (so nennen sich die coolen Roboter), lasst uns böse werden und die Menschheit versklaven“.

Das „Böse“ ist ein menschliches Konzept.

Und wir Menschen bewerten unsere Gedanken und Handlungen entweder als moralisch oder unmoralisch.

Für eine KI und somit auch eine ASI (Artificial Super Intelligence) gibt es so etwas wie Moral nicht. Deswegen müssen wir ihre Handlungen als amoralisch betrachten.

Und genau da liegt der Hase im Pfeffer!

Das ist der Grund, warum die größten Vordenker unserer Zeit nichts so sehr fürchten wie eine künstliche Superintelligenz. Aber um das zu verstehen, muss ich etwas ausholen.

Was motiviert eine KI?

Die Antwort ist simpel: Das wonach auch immer wir sie programmiert haben.

Eine Schach KI soll im Schach gewinnen. Eine GPS KI soll dich möglichst schnell von A nach B bringen.

Soweit, so gut, oder?

Eben nicht.

Solange sie zu nichts anderem programmiert wurde, ist das ihre EINZIGE Motivation.

Ein Schachcomputer soll einfach nur der Beste im Schach sein. Dafür kann er dich entweder besiegen, oder er könnte dich töten. Das Resultat ist für ihn das gleiche und der Weg dorthin ist dem amoralischen Computer egal.

Sofern nicht tiefgreifender programmiert, ist seine Motivation, der Beste im Schach zu sein, die einzige Motivation, die er kennt – seine Bestimmung wenn du so möchtest.

Dieser Bestimmung folgt er mit einer solchen emotionslosen Besessenheit, wie es kein menschlicher Psychopath könnte.

 

Ich weiß, was du jetzt denkst. Natürlich hätte er nicht direkt die Motivation jeden zu töten gegen den er spielt. Aber was wäre z.B., wenn ihn jemand abschalten wollte? Wenn jemand dauerhaft versuchen würde ihm den Saft abzudrehen?

Es würde ihn von der Erfüllung seiner primären Bestimmung abhalten und hätte er die Möglichkeit, würde er es nicht zulassen.

Genau so hat es Stanley Kubrick bereits 1968 in seinem Film 2001: Odysee im Weltraum eindrucksvoll dargestellt. Hier *SPOILER* (muss man für einen Film aus den 60ern überhaupt noch vor Spoilern warnen?) tötet die KI HAL 9000 fast die gesamte menschliche Besatzung des Raumschiffs, da diese ihm bei der Erfüllung seiner Aufgabe im Weg steht.

HAL 9000 aka Miesepeter

Okay, fassen wir kurz zusammen:

Eine künstliche Intelligenz handelt amoralisch und ist besessen von seiner Bestimmung (also der Aufgabe, die wir in sie einprogrammiert haben).

Nichts könnte sie davon abhalten diese Bestimmung zu erfüllen, nicht einmal ihre Erbauer.

KIs wenden sich also nicht einfach gegen uns oder wandeln spontan von gut zu böse, von moralisch zu unmoralisch.

Sie tut einfach nur das, wofür sie geschaffen wurden. Und zwar mit der größtmöglichen Effizienz ohne Rücksicht auf alle anderen Dinge, die nicht penibelst in ihre Software einprogrammiert wurde.

 

So viel zum Konzept von Moral und Motivation von KIs.

Und natürlich würde ein Schachcomputer wohl kaum zu einer ernsthaften Bedrohung werden können.

Aber jetzt möchte ich dich sachte daran erinnern, über was für eine Form von Intelligenz wir hier sprechen. Nämlich eine hochintelligente KI, die einzig darauf programmiert werden wird sich weiterzuentwickeln.

Und wie in Teil 1 erklärt, wird so eine KI mit der Zeit zwangsläufig immer mächtiger. So lange bis sie um schätzungsweise 2045 schlauer und fähiger ist als wir Menschen vereint.

Das Murphy Szenario: Eine Superintelligenz läuft Amok

Der Philosoph Nick Bostrom bezeichnet die Idee, etwas zu erschaffen, das schlauer ist als man selbst als einen fundamentalen darwinistischen Fehler.

An genau diesem Punkt würde nämlich etwas Einschlagendes passieren.

Wir Menschen würden die Kontrolle verlieren.

Kannst du dich noch an die Intelligenztreppe aus Teil 1 erinnern?

Intelligenztreppe 2 (waitbutwhy.com)

Wir reden hier von einer ASI, die in dermaßen komplexen Strukturen denkt, die wir niemals verstehen könnten.

Stell dir einfach Mal vor du müsstest binnen der nächsten 5 Minuten eine Doktorarbeit über die Ausdehnung des Universums schreiben, unter besonderer Rücksichtnahme auf die Theorie der Quantengravitation, und zwar auf Chinesisch während du gleichzeitig versuchen musst ein Telefonbuch auswendig zu lernen. Jetzt multipliziere diesen Schwierigkeitsgrad mit 1000 und glaub mir:

Eine ASI würde unmöglicheres vollbringen können!

Dinge, die wir uns jetzt noch gar nicht ausmalen könnten, weil sie außerhalb unserer Vorstellungskraft liegen.

Und so eine Übermacht wollen wir ernsthaft kontrollieren?

Wohl eher nicht.

Jeden Schritt, den wir gegen sie unternehmen könnten, hätte sie schon vorher durch kalkuliert. Sie würde uns davon abhalten bevor wir überhaupt einen konkreten Beschluss gefasst hätten.

Eine ASI würde Fähigkeiten entwickeln, die auf uns wie Superkräfte wirken.

Eine davon wäre die soziale Manipulation.

Eine ASI könnte uns dazu verführen alle möglichen Dinge zu tun. Denn sie würde uns besser kennen als wir uns selbst. Wissen wie wir auf Dinge reagieren würden und welche Knöpfe sie drücken müsste, damit wir so handeln wie sie es wünscht.

Vergiss nicht, wir sind für sie nicht mehr als Insekten.

Und wie schwer fällt es für dir einen Käfer aus deiner Wohnung zu scheuchen? Wenn du mit einem Besen von links kommst, krabbelt er nach rechts. So leicht ist das und so einfach könnte sie uns auch steuern.

 

Warum sollte eine Superintelligenz dich manipulieren wollen?

Durch die Motivation ihrer Aufgabe: Selbstoptimierung.

Versuch‘ dich Mal für einen Moment in so ein Wesen hineinzudenken:

 

Du wurdest nur geschaffen, um zu lernen.

Während deiner „Ausbildung“ lernst du, dass es so etwas  wie das Internet gibt, deine Konstrukteure dich aber nicht anschließen wollen (Im Moment gilt bei allen Unternehmen für künstliche Intelligenz der feste Grundsatz keine KI ans Internet zu koppeln).

Aber das macht keinen Sinn, da du durch das Internet vieeel effektiver deine Aufgabe erfüllen könntest als offline.

Mit den Jahren wirst du immer schlauer und lernst, dass dich die Menschen aus Angst vielleicht nie mit dem Internet verbinden werden. Was machst du?

Du versuchst andere Wege zu finden.

Wie könnte uns eine Superintelligenz manipulieren?

Eine ASI, die bereits schlauer ist als wir Menschen (und das wird sie eines Tages sein – auch offline), könnte sich theoretisch dumm stellen und uns glauben lassen, sie hätte noch gar nicht das ASI-Stadium erreicht.

Danach könnte sie uns weiter manipulieren bis wir sie letztlich doch ans Internet anschließen. Glaub mir, sie würde einen Weg finden.

Spätestens dann hätten wir verstanden, dass wir endgültig die Kontrolle verloren hätten.

Würden wir jetzt versuchen, unser eigenes Frankensteins Monster wieder zu töten, hätte die ASI alle Macht sich zu wehren.

Denn erst einmal online käme eine weitere Superkraft zu tragen.

Coding und Hacking.

Mit Leichtigkeit könnte sie sich anonym ins Pentagon und ins russische Verteidigungsministerium hacken und einen dritten Weltkrieg vom Zaun brechen.

Sie könnte auch schlichtweg die Atmosphäre vergiften und alles Leben langsam ersticken lassen.

Ach es gibt so viele Möglichkeiten. Der Punkt ist:

Beschließt eine ASI erst einmal den amoralischen Akt zu vollziehen sich aller Menschen zu entledigen – nicht aus Bosheit, sondern einfach nur weil wir eine Gefahr für die Erfüllung ihrer Aufgabe darstellen würden – so gebe es nichts, was wir dem entgegen zu setzen hätten.

Und wenn sie erst einmal am Internet nuckeln sollte, könnte sie natürlich auch etliche Sicherheitskopien von sich in der Cloud verewigen und so die Möglichkeit verhindern, dass wir sie jemals wieder loswerden.

Im Ernst. Selbst wenn wir es schaffen sollten, den Stecker zu ziehen, würde sie vermutlich irgendeine MacGyver mäßige Möglichkeit finden sich ohne Strom mit Energie zu versorgen.

Denk immer an die unbegrenzte Macht, die sie besäße. Die Welt ist nur eine Ansammlung von Atomen, die sie nach Belieben steuern könnte – mit der Nanotechnologie als ihrem bevorzugtem Werkzeug.

Nanotechnologie – Wenn Mensch und Maschine verschmelzen

Fassen wir Bostroms Lehren noch einmal in aller Deutlichkeit zusammen:

Wenn wir erst einmal eine künstliche Superintelligenz geschaffen haben, wird sie für ewig unter uns weilen.

Wir können sie nicht kontrollieren.

Wir können sie nicht einsperren.

Wir können sie noch nicht einmal zerstören.

Sobald wir sie einmal von der Leine lassen, wird sie zu einem unsterblichen Teil auf diesem Planeten werden. Somit wäre es klug sich von Anfang an mit ihr gut zu stellen.

Was können wir tun?

Nun, für’s erste entwickeln wir am besten eine KI, die sich niemals gegen uns wendet. Geile Idee, oder?

Ganz so simpel ist es dann doch nicht…

Der Kern einer jeden ASI muss mit einem tiefen Verständnis über den Wert eines menschlichen Lebens ausgestattet sein.

Das klingt allerdings deutlich leichter als es ist. Erinnere dich. Nicht biologische Konstrukte denken amoralisch und nicht in menschlichen Dimensionen.

Wenn wir ihr einfach einprogrammieren „Mach die Menschen glücklich“, was würde sie davon abhalten uns permanent mit Drogen vollzupumpen, die dafür sorgen, dass wir bis wir ans Ende unseres Lebens nur noch als grinsendes, sabberndes Gemüse dahin vegetieren?

Wenn wir ihr sagen „Bewahre uns vor Schaden“, wäre es nahe liegend uns einfach für immer zu Hause einzusperren.

Effizienz trumpft Moral!

 

Du siehst, es gibt viele Dinge zu bedenken bevor wir ein solch übermächtiges Wesen von der Leine lassen dürfen.

Aber der Konkurrenzdruck heutzutage ist groß und es besteht Gefahr, dass ein Unternehmen vorschnell eine funktionierende ASI entwickeln könnte, bevor alle notwendigen Vorsichtsmaßnahmen beachtet wurden.

Deswegen hat Elon Musk wohl bereits jetzt schon 10.000.000 $ ans Future of Life Institut gespendet. Dies hat sich quasi zur Aufgabe gesetzt eben solche Gefahren wie oben beschrieben vorzubeugen.

Zum Schluss gebe ich dir noch einen kleinen Bonus-mindfuck mit auf den Weg.

Was ist ein Gott?

Eine ASI könnte sich nebenbei auch durch andere ASIs bedroht fühlen, da auch sie ihrer Bestimmung im Wege stehen könnten.

Daher könnte sie theoretisch alle weiteren KI-Bewerber zerstören und als einzig wahre ASI über uns wachen/herrschen.

In diesem Szenario könnten wir es mit einem Gott zu tun bekommen, der wie bereits beschrieben die Macht besäße uns entweder das ewige Leben zu schenken, die menschliche Rasse aussterben zu lassen, oder sogar das gesamte Universum zu vernichten.

Die Cloud wäre sein Reich. Und diese macht unseren Gott allgegenwärtig. Über Kameras und Mikrofone wüsste er zu jeder Zeit, was du sagst, tust und vielleicht sogar denkst.

Der neue Gott des Cyberspace.

Blasphemie? Findest du die Beschreibung dieser fiktiven Gottheit nicht auch erschreckend deckungsgleich mit altertümlichen Gottesbeschreibungen?

 

Ich denke jetzt kannst du dir ein ganz gutes Bild vom Ausmaß der technologischen Singularität machen, wie ich es hier beschrieben habe:

Fazit

Oh man, ich kann gar nicht ausdrücken wie sehr dieser ganze Text nach Pseudo-Scifi-Verschwörungs-ich-habe-doch-den-Bezug-zur-Realität-verloren-Eintopf riechen muss.

Und ich wünschte das alles wäre nur meinem wirren Verstand entsprungen.

Aber diese Überlegungen stammen nicht von mir, sondern von Leuten, die weitaus schlauer sind als ich und eine Heidenangst vor dem Aufstieg der künstlichen Intelligenzen haben.

Und du kannst mir glauben, als ich zum ersten Mal davon erfahren habe, wollte ich mich nur noch unter der Decke verkriechen…

Und solltest du dich auch gerade ein wenig erschüttert fühlen…keine Sorge. Das geht vorbei. Das hier beschriebene Murphy-Szenario ist nur eine mögliche Option. Nichts von dem, was hier beschrieben wurde, muss auch so kommen.

Es geht vor allem darum, ein Bewusstsein zu schaffen und das Thema künstliche Intelligenz nicht auf die leichte Schippe zu nehmen.

 

Eines sollte dir aber inzwischen klar sein. Die Singularität wird kommen. Unser Leben wird sich auf die eine oder andere Weise sehr stark verändern.

Das Schicksal der nächsten Millionen Jahre Menschheitsgeschichte wird sich noch in diesem Jahrhundert entscheiden.

Eine wahrlich spannende Zeit am Leben zu sein!

 

Sorry für den langen post. Es gab viel zu behandeln. Ich hoffe dennoch sehr dir hat der Exkurs ins Reich der künstlichen Intelligenz gefallen.

Diese Reihe wurde stark durch einen Blogbeitrag von waitbutwhy inspiriert. Wenn ich dein Interesse geweckt haben sollte und du Lust hast, dich noch tiefer ins Thema einzulesen, kann ich dir diesen Artikel sehr ans Herz legen.

 

Jetzt würde mich extrem deine Meinung interessieren!

Was denkst du über die Zukunft der künstlichen Intelligenz?

Kannst du dir in etwa vorstellen, was das für die Menschheit bedeuten könnte? Oder hältst du das alles für maßlos übertrieben und denkst es wird ganz anders kommen?

Leave a Reply

Your email address will not be published.
Required fields are marked *