rethink everything
Vorbereitung auf ein neues Zeitalter
In den kommenden Jahrzehnten könnte uns die Allgemeine Künstliche Intelligenz einen Drahtseilakt in die Unendlichkeit bescheren. Sind wir für den Wandel gerüstet, oder riskieren wir, in Vergessenheit zu geraten?
Ohne die Einsichten Zeitreisender sind aussagekräftige Erkenntnisse über die Zukunft, welche die Art und Weise des Umgangs mit noch nicht existierenden Umständen ändern können – und sollten –, eine extrem seltene Gabe. Die Prognose einer Allgemeinen Künstlichen Intelligenz (AKI) – einer AI, die jede Aufgabe mit einer übermenschlichen Kompetenz bewältigt – ist solch eine Erkenntnis. Wir haben bereits die Künstliche Intelligenz (KI) im engeren Sinne erfunden, die nur eine bestimmte Funktion ausüben kann, für die sie entwickelt wurde. Die AKI wäre der nächste logische Schritt. Wenn wir in der Lage sind, eine AKI zu erfinden, dann werden wir es auch tun. Das scheint unausweichlich zu sein.
Das bedeutet aber auch, dass unbeabsichtigte Konsequenzen schlecht für uns wären und dass sich unsere Spezies einen einzigen Fehltritt der AKI möglicherweise nicht leisten kann. Einige der brillantesten Denker unserer Zeit, darunter der Tech-Milliardär Elon Musk, der Neurowissenschaftler und Philosoph Sam Harris und der Physiker Max Tegmark orakeln bereits darüber, wie diese Konsequenzen aussehen könnten. Um sie zu verhindern, bevor sie eintreten, sind solche Spekulationen unverzichtbar.
Was sein könnte
Beispielsweise konzentrierten sich die Diskussionen auf die Singularität: Das ist der Moment, in dem die AKI zur Selbstverbesserung fähig ist. Angesichts der übermenschlichen Geschwindigkeit, mit der die Prozesse ablaufen, kann die Singularität theoretisch der Vorbote einer Intelligenzexplosion sein – ein Multiplikatoreffekt, der dazu führt, dass die AKI extreme Upgrades von sich selbst durchführt und Fortschritte in ein paar Stunden erzielt, wofür die Menschheit mehrere Tausend Jahre benötigte. Ob sich das als das Beste oder Schlechteste herausstellt, das uns je widerfahren ist, könnte davon abhängen, ob wir bereits das Abstimmungsproblem gelöst haben:
2003 stellte der Philosoph Nick Bostrom das prototypische Gedankenexperiment1 zur Veranschaulichung des Problems vor. Im Zentrum des Experiments steht ein Büroklammernmaximierer – eine AKI, die mit dem scheinbar harmlosen Ziel programmiert wurde, so viele Büroklammern herzustellen wie möglich. Für einen Menschen liegt die Warnung, dass manche Dinge nicht zu Büroklammern verarbeitet werden sollten, auf der Hand. Doch ohne solche Warnungen würde ein Büroklammernmaximierer mit AKI bei der ersten Gelegenheit unsere Atome in Büroklammern verwandeln. Das ist natürlich nicht als ein realistisches Szenario beabsichtigt. Doch die Behauptung, dass wir unsere AKI niemals mit einem solch unüberlegten Ziel programmieren würden, geht am Thema vorbei. Beim Umgang mit Superintelligenz kann aus selbst einer winzigen Fehlabstimmung zwischen ihren und unseren Zielen eine existenzielle Bedrohung erwachsen.
Um dieses Risiko zu minimieren, wurde vorgeschlagen, dass wir doch die AKI hermetisch von der Aussenwelt abschirmen könnten, indem wir sie in einen Computer ohne Internetanschluss sperren. Das könnte jedoch nicht ausreichen, um jenes Rätsel zu lösen, das als Eindämmungsproblem bekannt geworden ist. Beispielsweise können wir den Umstand ausnutzen, dass ein Kleinkind das Konzept der Objektpermanenz in einem Kuckuck-Spiel nicht versteht. Genauso könnte eine künstliche Superintelligenz psychologische Techniken einsetzen, die weit über unser Vorstellungsvermögen hinausgehen, um uns dazu zu bringen, freiwillig das zu tun, was sie fordert.
Das ist nur eine Auswahl der theoretischen Konsequenzen, über die KI-Forscher diskutieren. Wie gehen wir mit derartigen Bedenken um?
Zuckerbrot und Peitsche
Einerseits sind die Meinungen selbst auf höchster Ebene gespalten, inwiefern solche Befürchtungen, wenn überhaupt, gerechtfertigt sind. Zurzeit ist alles noch hypothetisch. Daher gibt es keinen Grund, schwarzzumalen. Wir müssen nicht wissen, dass unser Haus eines Tages niederbrennen wird, um eine Versicherung abzuschliessen. Diese Sorgen mögen theoretischer Art sein, sie sind aber offenbar nicht ganz unberechtigt. Wenn sich nur eine Befürchtung materialisiert, könnte dies katastrophale Folgen haben. Daher wäre es fahrlässig, die Entwicklung der AKI auf die leichte Schulter zu nehmen.
Das Problem besteht darin, dass es lohnend erscheint, um genau einen solchen Ansatz zu verfolgen. Das erste Unternehmen oder das erste Land, das eine AKI online stellt, hätte eine solch übermenschliche Intelligenz zur Verfügung, dass man sich leicht vorstellen kann, dass eine solche Perspektive die Risikobereitschaft erhöhen könnte. Wenn wir die Anreize auf eine Weise verändern wollen, dass der von uns bevorzugte „Safety-First“-Ansatz umgesetzt wird, können wir das nur über Investitionen bewerkstelligen.
Investoren verlangen daher zunehmend, dass die Entwickler gemeinnützige, über AKI-Sicherheit forschende Unternehmen wie OpenAI sponsern und interne Sicherheits- und Ethikkomitees gründen, um ihre Empfehlungen umzusetzen.
Doch auf lange Sicht ist das möglicherweise nicht ausreichend. Unzureichende Sicherheitsmassnahmen wären ein solches Risiko für die Öffentlichkeit, dass irgendeine Branchenregulierung wahrscheinlich, wenn nicht unumgänglich ist. Diese könnten Massnahmen umfassen, mit denen die Investoren für Sicherheitsmängel und öffentliche Zwischenfälle bestraft werden.
Das heisst aber nicht, dass dies es erschwert, profitabel zu wirtschaften. Einen Menschen auf den Mond zu schiessen mag ein „Alles-oder-nichts“-Ziel gewesen sein. Doch Innovationen und Unternehmen, die für einen ernst zu nehmenden Versuch erforderlich sind, wären ohnehin wirtschaftlich wertvoll gewesen, unabhängig davon, ob ein Mensch diesen kleinen Schritt (auf den Mond) gemacht hätte. Wenn die AKI also Wirklichkeit wird, müssen die Unternehmen erhebliche Fortschritte in der KI im engeren Sinne machen. Wie wir gesehen haben, ist die KI sehr wohl profitabel.
Vermögensverteilung
Wenn es uns gelingt, die AKI sicher zu entwickeln, ist eine Regulierung erforderlich, um sicherzustellen, dass sie der Allgemeinheit, zugutekommt. Wird die AKI nur von einem Unternehmen entwickelt, das die exklusive Kontrolle über sie hat, hätten wir, gelinde gesagt, ein Problem. Im ungünstigsten Fall hätte dieses Unternehmen die sprichwörtliche Kontrolle über die Welt und alles, was sie umfasst. Die einzigen Nutzniesser wären einige wenige Investoren. Auch wenn das Unternehmen kein Interesse an absoluter Kontrolle hat, könnte ein Verkauf des Zugangs zu AKI die Ungleichheit verschärfen. Es könnte den Preis bestimmen, und die wirtschaftlichen Vorteile wären gross genug, dass garantiert genug Menschen dafür bezahlen würden.
Andererseits könnte ein allgegenwärtiger AKI-Zugriff für alle das Ungleichheitsproblem lösen.
Das könnte neue Methoden der Nahrungsmittelproduktion, die das Problem des Welthungers lösen, innovative Baumethoden, die den Zugang zu Wohnraum erleichtern würden, und viel wirksamere Medikamente hervorbringen. Die AKI würde auch die Produktion selbst effizienter machen und einen Überfluss schaffen, der den Wert einzelner Produkte so weit senken würde, dass sich jedermann mehr leisten kann, als er braucht. Es wird zwar immer eine gewisse Ungleichheit geben. Aber in dieser neuen Welt wäre der wirtschaftliche Kuchen so gross, dass selbst die ärmsten Menschen im Vergleich zu heute als reich gelten würden. Der reduzierte Bedarf an menschlicher Arbeitskraft könnte uns sogar ein neues Wirtschaftssystem bescheren, in dem der Wunsch, „sich Dinge zu leisten“, kein Thema mehr sein wird. Mit einem solchen Potenzial könnte eine Anlage in eine frei zugängliche AKI das ultimative Investment in die Zukunft sein.
Arthur C. Clarke sagte einmal, dass „jede hinreichend fortgeschrittene Technologie nicht mehr von Magie zu unterscheiden ist”2, und die AKI wäre die ultimative Demonstration dieser Einsicht. Superintelligenz ist jedoch keine Zauberei, und die Gesetze der Physik sind klar. So gesehen erfordert jede Steigerung des Wirtschaftswachstums eine entsprechende Steigerung des Verbrauchs von Energie und Rohstoffen. Das bedeutet, dass die Nachhaltigkeit nicht verhandelbar ist.
Uns selbst finden
Schliesslich steht noch die komplexe Frage im Raum, inwieweit wir uns von der Superintelligenz verändern lassen wollen. Im Prinzip könnte die AKI für die Menschen den Zwang beseitigen, physische oder geistige Arbeit zu leisten, sodass wir uns ausschliesslich der Musse widmen könnten. Schliesslich ist der einzige Weg, faire Bedingungen herzustellen, sie abzuschaffen. Doch sind wir psychologisch in der Lage, in einer Welt zu leben, in der der Begriff „grosse Leistung“ ein Widerspruch in sich ist? Wenn nicht, dann müssen wir uns genau überlegen, wie viel von der Wirtschaft wir in digitale Hände geben wollen – genug, um eine Welt zu schaffen, in der wir wirklich leben wollen, aber nicht so viel, dass wir an Bequemlichkeit sterben. Die AKI könnte uns alles geben, was wir uns wünschen. Doch nur wir können entscheiden, was wir wirklich brauchen.
Wichtige Hinweise.
Die vorliegende Marketingmitteilung wurde von Lombard Odier (Europe) S.A., einem in Luxemburg durch die Commission de Surveillance du Secteur Financier (CSSF) zugelassenen und von dieser regulierten Kreditinstitut, herausgegeben. Diese Mitteilung wurde von jeder ihrer Zweigniederlassungen, die in den am Ende dieser Seite angegebenen Gebieten tätig sind (nachstehend "Lombard Odier"), zur Veröffentlichung genehmigt.
Entdecken Sie mehr.
teilen.