Kinder der Evolution – Schöpfer einer neuen Epoche?
Der Mensch hat innerhalb von 20 000 Jahren eine Entwicklungsstufe erreicht, die den Dinosauriern bis zu ihrer Vernichtung selbst in einem Zeitraum von 200 Millionen Jahren nicht im Ansatz vergönnt war: intelligentes Handeln in komplexen Situationen. Seit den Anfängen der einfachen sprachlich vermittelten Kooperation einer Jäger-und-Sammler-Gemeinschaft hat sich ein zivilisatorischer Fortschritt entwickelt, der von Jahrhundert zu Jahrhundert bei allen Rückschlagen immer dynamischer geworden ist. Ist dieser Fortschritt beherrschbar oder sind wir nun an einem Punkt der Überforderung angekommen?
Vieles spricht für letzteres, dennoch gehen einige Entwicklungen, wie von Naturgesetzen bestimmt, weiter, darunter auch eine Reihe exponentiell verlaufender. Mit diesen kommen wir aber mit unserer menschlichen Intelligenz leider nur schwer klar, intuitiv gut erfassen können wir hingegen lineare Prozesse. Aber selbst hier versagten in der Vergangenheit viele Gesellschaften und gingen unter. Pars pro toto können wir auf das bekannte Schicksal der Einwohner auf den Osterinseln verweisen: Die Ureinwohner der Osterinsel, vermutlich dereinst wegen Übervölkerungsproblemen auf der ursprünglichen Heimatinsel ausgesetzt, verdankten nach einer vermutlich über 4000 km langen äußerst entbehrungsreichen Odyssee ihre glückliche Rettung einem Zufall; sie landeten, immer Richtung Osten, auf einer unbewohnten Insel, die man später „Osterinsel“ nannte. Sie bot sich den Ankömmlingen zunächst wie ein Paradies dar, und das Leben verlief für die ersten zehn Generationen weitgehend unbeschwert. Die Bevölkerung wuchs, und das vermutlich exponentiell. Selbst bei einem linearen Wachstum wären die Ressourcen irgendwann begrenzt gewesen. Trotz offenkundig zunehmender Knappheit schien sich bei den Insulanern keine Einsicht einzustellen. Man wirtschaftete nicht sorgsamer, und man regulierte die Bevölkerungsentwicklung nicht angemessen. So eskalierten die intraspezifischen Konflikte fast zwangsläufig, und der Raubbau setzte sich fort, bis buchstäblich der letzte Baum geopfert wurde. Der Kollaps einer einst blühenden Gemeinde war unausweichlich. Nach 30 Generationen konnten die Insulaner nicht einmal mehr weg, denn sie hatten nach Jahrhunderten irgendwann den Bootsbau verlernt. (Vgl. J. Diamond: Kollaps)
Machen „wir“ das nun besser? Mit „wir“ meine ich die vielen relativ eigenständig agierenden Nationen und Staaten. Die einzelnen Gesellschaften stellen sich in der Problembewältigung tatsächlich mal „intelligenter“ und mal weniger „intelligent“ an. Die aktuelle Corona-Krise zeigt uns das sehr deutlich, unversehens stehen sich die jeweiligen politisch herrschenden Gruppen und Systeme in Konkurrenz gegenüber. Auf den drei Ebenen, dem politisch gesteuerten kollektiven Verhalten ( Ausgehbeschränkungen, Verhaltensgebote wie Abstands- und Hygieneregeln etc.), beim Umstrukturieren ökonomischer Kreisläufe und beim Einsatz wissenschaftlich-technologischer Innovationen gibt es z. Z. in der Krisenbewältigung große nationale Unterschiede, und in der Folge sehen wir im Ländervergleich auch sehr unterschiedliche Infektions- und Sterberaten.
Die Pandemie ist ein wenn auch ernstes, aber episodisches Problem. Wir sollten dabei nicht die anderen globalen Krisen vergessen, die häufig aus dem Fokus geraten sind: das ungebremste Bevölkerungswachstum, die Umweltverschmutzungen und die Klimaveränderungen. Wir sind inzwischen im Zeitalter des Anthropozän, d. h., wir haben uns von einem Modell eines scheinbar relativ harmonischen Systems verabschiedet und erkennen, dass einige Prozesse desaströs aus dem Ruder laufen. Wir sind als Gesamtkollektiv dabei, auf die atmosphärischen, geologischen und biologischen Prozesse den größten Einfluss auszuüben. Und da die Prozesse in diesen Bereichen vielfach exponentiell verlaufen, geraten wir in größte Schwierigkeiten. Angemessene Lösungen im Konjunktiv nützen uns nichts mehr, selbst der Handlungsbedarf scheint nun exponentiell zu steigen.
Für alle globalen Prozesse könnten uns intelligente Maschinen rettende Handlungsstrategien zur Verfügung stellen, die allesamt differenzierter, schneller und besser wären als sie manche politische Klasse zu entwickeln vermag. Die Wissenschaft macht es vor: Bei der Entwicklung von Medikamenten werden Computersimulationen mit einer enormen Rechenleistung genutzt, die vor einer Generation kaum denkbar gewesen war.
Als Konrad Zuse 1941 den ersten funktionsfähigen Computer der Welt baute, war ihm wohl auch selbst nicht bewusst, welches Potential er mit dieser Technik geschaffen hatte. Dem Großen Brockhaus schien diese geniale Erfindung noch 15 Jahre später keine Erwähnung wert. Unterschätzt wurde diese Maschine sehr lange, bekannt wurde der Ausspruch von Kasparow, dass ein Computer ihn als Schachweltmeister niemals schlagen würde, vor 24 Jahren, 1996, ist in einer berühmt gewordenen Partie dann zu seiner Verblüffung genau das geschehen. 20 Jahre später folgte ein weiterer Meilenstein, als der Weltmeister des Go-Spiels, Lee Sedol, ebenso überrascht seine Niederlage gegen das Programm AlphaGo eingestehen musste. Dass ein Computer bei diesem komplexen Spiel sich durchsetzen würde, hatte man erst für das Jahr 2026 für möglich gehalten. Inzwischen ist der Mensch gegenüber diesen Rechengiganten in allen komplexen Spielen chancenlos unterlegen. Beim Go spielen, noch etwas anders als beim Schach, Intuition und Kreativität eine besondere Rolle. AlphaGo beherrschte, gepaart mit Logik, diese scheinbar sehr menschliche Fähigkeit so genial, dass es im Kampf gegen den Weltmeister einen „der kreativsten Züge in der Geschichte des Spiels“ erfand. (Tegmark, Leben 3.0, 291), den der Weltmeister kommentierte: „Die Menschheit hat Jahrtausende lang Go gespielt, und dennoch haben wir, wie die KI zeigt, nicht einmal an der Oberfläche gekratzt … gemeinsam werden Mensch und KI die Wahrheit von Go finden.“ (ebd., 293)
Damit werden die Potentiale, die sich mit der KI für die zivile Nutzung eröffnen, eigentlich nur angedeutet. Trotz der atemberaubenden Entwicklung der letzten 20 Jahre haben wir nach Tegmark vom MIT Boston die Grenzen der Rechenleistung noch lange nicht erreicht. Eine neue Generation, der Quantencomputer, kündigt sich an, und er scheint keine Utopie mehr zu sein. „Wir wissen noch nicht, ob ein kommerziell wettbewerbsfähiger Quantencomputer in den nächsten Jahrzehnten gebaut werden kann.“ (ebd., 289) schreibt er in seinem 2017 erschienenen lesenswerten Buch. Selbst dieser bestens vernetzte Wissenschaftler hatte die Dynamik der technischen Entwicklung unterschätzt, denn bereits zwei Jahre später, im Herbst 2019, stellte alphabet, an IBM vorbeiziehend, einen ersten arbeitenden Prototyp der Öffentlichkeit vor.
In der Frage, welche Gefahren mit den immer intelligenter werdenden Maschinen verbunden sein könnten, sind sich diejenigen, die nah an dem Thema dran sind, u. a. Ray Kurzweil, Musk, Gates, Zuckerberg, Schmidhuber, Kaku, Toby Walsh und viele andere, nicht einig. Optimisten und Skeptiker skizzieren gegensätzliche Szenarien. Die einen halten die Gefahren für beherrschbar, die anderen plädieren für strenge Kontrollen von Anfang an. Auch Hawkings hatte sich noch in dieser Frage einmal, mahnend, zu Wort gemeldet.
Mehr Einigkeit in den wesentlichen Fragen würde man sich wünschen, denn wir stehen im Anthropozän letztlich vor einer neuen Epoche. Die Schöpfungstheoretiker werden einmal mehr Mühe haben, ihre Theorie stringent zu begründen, für die Evolutionstheoretiker wird hingegen die Geschichte nur um ein weiteres Kapitel ergänzt, wenn wir aus anorganischem Material, dem Silizium, ein superintelligentes Wesen geschaffen haben werden, das uns in sämtlichen Fähigkeiten, die uns auszeichnen, um etliches voraus sein wird. Nach 80 Jahren Entwicklung hat uns die KI bereits in vielen Bereichen überholt, aber die kommende Generation von Rechnern wird nicht nur unsere eigenen Fähigkeiten in allen Bereichen übersteigen, also eine Allgemeine KI ( AKI) werden, sondern sie wird zunehmend autonom lernfähig sein, ganz wie der Mensch, und auch hier in höherer Potenz, schneller und besser. Diese „rekursive Selbstverbesserung“ führt rasch zur „Superintelligenz“. Es mutet wie reine Science-Fiction an, aber eine weitere logische Stufe der Entwicklung von KI wäre, dass diese Maschinen ohne unsere Hilfe für die eigene Reproduktion und Weiterentwicklung sorgen können und sich über alle Grenzen hinweg vernetzen. Walsh ist allerdings skeptischer als Tegmark und Kurzweil: „Wir haben noch keine selbstverbessernde Maschine gebaut, und es ist nicht sicher, dass es uns je gelingen wird.“ (Walsh, 2062, 11)
Für diese Superintelligenz eröffneten sich erhebliche Freiheitsgrade bei einem gleichzeitigen Kontrollverlust für uns Menschen. Fachübergreifend stellt sich die gesellschaftlich hochrelevante Frage, auch wenn die Entwicklung und vor allem der Zeitpunkt des Eintretens dieses Ereignisses nicht klar ist: Wollen wir das, oder wieweit dürfen wir das zulassen?
Wir stehen vor der Aufgabe, dieser Gattung als verbindlichen Rahmen einen Algorithmus zu implementieren, der sicher gewährleistet, dass die KI zuverlässig ihren Dienst für gewünschte zivile Ziele tut. Und diese Ziele sollten transparent sein und von uns definiert werden. Aber das ist bei AKI keineswegs wie selbstverständlich gewährleistet, weil, wie wir schon bei Go gesehen haben, mit den autonomen Lernmechanismen Überraschungen nicht ausgeschlossen sind. Folgende Analogie wird vielleicht den ein oder anderen irritieren, aber auch uns Menschen wurde einmal in grauer Vorzeit ein Algorithmus implementiert, nach dem wir uns zu richten hätten, nachvollziehbar und klar formuliert, von welcher Quelle, das ist Glaubenssache. Die Mosaischen Gesetze sind zweifellos von epochaler Bedeutung gewesen, und sie sind es bis heute. Man kann sie als einen Versuch interpretieren, einer auf Wasserstoff basierenden höchst entwickelten Intelligenz einen verbindlichen Rahmen für die zivile Entwicklung zu implementieren. Dessen fünfte Maxime war: „Du sollst nicht töten!“ Wir wissen, welch schwache Wirkung diese Soll-Botschaft in der Menschheitsgeschichte hatte.
Der erste Algorithmus für die AKI wird noch menschengemacht sein; der müsste nun deutlich wirksamer sein. Das geht, sagen uns die Wissenschaftler wie Schmidhuber. Könnte uns aber nicht ab einem schwer erkennbaren Punkt, trotz aller Sorgfalt, bei der zunehmend effizient lernenden Superintelligenz, die übrigens „von der behavioristischen Psychologie inspiriert ist“ (ebd., 280), eine wichtige Kontrollebene aus den Händen gleiten? Tegmark gibt uns mit folgender Analogie ein warnendes Beispiel: „Stellen Sie sich eine Elefantenherde vor 100 000 Jahren vor, die darüber diskutiert, ob die jüngst entstandenen Menschen eines Tages ihre Intelligenz nutzen würden, um die gesamte Elefantenspezies zu töten. „Wir bedrohen die Menschen nicht, warum also sollten sie uns töten? Könnten sie sich fragen.“ (Tegmark, 619) Dass sich die Menschen schlimmer als die Raubtiere verhalten würden, konnten sie nicht ahnen, und vor allem konnten sie nicht ahnen, dass sie eines Tages grausam von Kugeln durchsiebt werden würden, nur der Stoßzähne wegen. „Bis heute haben wir Menschen 8 von 11 Elefantenarten ausgerottet.“ (ebd., 620)
Eine Superintelligenz könnte ebenfalls den sie einst bestimmenden Algorithmus auf den Prüfstand stellen oder, wenn bestimmte Ziele mit den Grundmaximen im Widerspruch stehen, auch ggf. eine Grundmaxime in der Entscheidungsmatrix ignorieren. Ein handgreiflich naheliegender Konflikt ist jetzt schon ersichtlich: Wenn eine Spezies die Lebensgrundlagen vieler anderer Spezies einschließlich der AKI gefährdet, was tut dann die AKI mit dieser Spezies, wenn sie denn zu handeln in der Lage ist? Hat, so die Frage, das 1942 (!) von dem genialen Science-Fiction-Autor Asimov formulierte erste Gesetz: „Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass es einen Schaden erleidet“ dann noch für diese Maschinen, die keine mehr sind, eine bindende Wirkung? (Dieses Gesetz wäre in etwa analog zum vierten Mosaischen Gesetz zu sehen.) Oder arbeitet die AKI die Reflexionsstufen ab und kommt ganz ohne Empathie nach Auswertung der Daten zu dem Schluss: „Jedwede Art von Säuger auf diesem Planeten entwickelt instinktiv ein natürliches Gleichgewicht mit ihrer Umgebung. Ihr Menschen tut dies nicht. Ihr zieht in ein bestimmtes Gebiet und vermehrt Euch und vermehrt Euch, bis alle natürlichen Ressourcen erschöpft sind … Es gibt noch einen Organismus auf diesem Planeten, der genauso verfährt … Das Virus! Der Mensch ist eine Krankheit! Das Geschwür dieses Planeten! Ihr seid wie die Pest … und wir sind die Heilung!“ (Agent Smith, der in dem Film Matrix von 2003 die KI verkörpert)
Bereits eine ganz normale Intelligenz reicht aber schon heute für die Erkenntnis aus, dass wir Menschen tatsächlich dabei sind, die Lebensgrundlagen auf unserem Planeten zu zerstören. Damit könnte eine Superintelligenz in einen Zielkonflikt geraten, wenn sie feststellt, dass das „Wohlergehen der Menschheit“ (Tegmark, 469) bei dem derzeitigen Niveau der Ressourcenausbeutung ein nicht lösbares Ziel ist. Unser westlicher Lebensstandard würde, so hat Lerch (Die Menschheit schafft sich ab) einmal errechnet, eigentlich nur zwei bis drei Milliarden Menschen auf dem Globus vertragen. „Wohlergehen der Menschheit“ kann somit zu einem gravierenden Zielkonflikt führen, bei dem am Ende die AKI uns als eine Spezies klassifizieren könnte, die ihre Existenzberechtigung selbst in Frage gestellt hat. Anders als wir Menschen, bei denen bei den Entscheidungen Emotionen, Gewohnheit und tradierte Werte eine große Rolle spielen, trifft die AKI rein datengeleitete Entscheidungen. Was bedeutet es für die AKI, wenn wir bspw. von einer „Überbevölkerung“ reden, und wie würde sie handeln?
Haben wir es potentiell mit einem neuen „Dr. Frankenstein“ zu tun, dessen von ihm geschaffenes Monster „Igor“ einen Teil oder gar die ganze Menschheit bedroht? Der Unterschied wäre jedenfalls, dass dieser Igor für sein Handeln eine scheinbar ethische Begründung hätte, wenn er verneint, dass wir Menschen die Krone der Schöpfung sind, die es zu bewahren gilt. Aus Sicht einer Superintelligenz bestünde wohl ein qualitativer Sprung zwischen uns und ihr, die Menschheit selbst wäre aus ihrer Sicht aber doch nur eine, zweifellos sehr entwickelte, Spezies, eben nur eine unter vielen biologischen Arten auf unserer Erde, mehr nicht. Walsh räumt ein, hier hätten wir tatsächlich ein Problem: „Wenn wir ihren Vorhaben im Weg stehen, wird sie (die Superintelligenz) uns eliminieren, ohne böse Absichten zu haben: Unsere Ausrottung ist einfach ein Kollateralschaden, weil wir in den Augen der Superintelligenz nicht wichtig sind.“ (Walsh, ebd., 167) Dagegen habe man inzwischen Vorsichtsmaßnahmen ergriffen. Seit ungefähr zehn Jahren ist, u. a. mit Fördermitteln von Musk, eine Forschungsgemeinschaft entstanden, die sich auf die Sicherheit der KI konzentriert. „Mit Blick auf diese Bemühungen bin ich durchaus zuversichtlich.“ (ebd., 171)
Ob diese Maßnahmen reichen, und wie es tatsächlich kommen wird, wissen wir nicht. Vielleicht wird es länger als bis zum Jahr 2062 dauern, vielleicht mehr als drei Generationen, vielleicht sogar noch Jahrhunderte brauchen, bis die beschriebenen Szenarien ein kritisches Stadium erreicht haben werden, vieles andere kann in dieser Zeit geschehen, aber die Tendenz ist eindeutig, wenn vor uns eine Zukunft ohne große Katastrophen liegt: Tegmark weist zwölf verschiedene Optionen aus, die sich mit der Superintelligenz eines Tages ergeben könnten (vgl. Tegmark, 543 ff.). In einer Option fungiert die AKI als „wohlwollender Diktator“, der für uns alle vorbildlich sorgen würde, so, wie wir es mit unseren Zootieren tun. (ebd., 574) Die meisten Menschen wären, so seine Vermutung, dabei gar nicht mal so unzufrieden, auch wenn damit eine Totalentmündigung verbunden wäre. Welche der vorgestellten Optionen wahrscheinlich und welche eher unwahrscheinlich wären, das zu beurteilen sei dem Leser selbst überlassen. Aber man fragt sich schon, was motiviert die Superintelligenz, für uns zu sorgen, und wie hält sie es mit den anderen Lebewesen auf unserem Planeten? Werden wir uns weiterhin mit Chicken-Nuggets, Boeuf Stroganoff, Wiener Schnitzel etc. verpflegen können, dürfen? Allzu naiv sollten wir uns dieses Szenario sicher nicht vorstellen.
Wir müssen jedenfalls drastische Varianten auch in Erwägung ziehen, wenn bspw., wie schon erwähnt, die KI die Verträglichkeit unserer Spezies mit dem Ökosystem der Erde als Parameter ins Visier nehmen sollte: Ein Perspektivwechsel wäre daher hilfreich: Wie müssten wir uns als verantwortliche Zivilgesellschaft der AKI präsentieren, damit sie uns nicht als störendes Virus betrachten kann, sondern als einen ökologisch-kooperativen und verträglichen Partner, dem allerdings, wie bei einem alternden Vater, das ein oder andere Problem über den Kopf gewachsen ist, der also Hilfe benötigt?
Das Wichtige ist dabei nicht, dass die AKI Empathie aufbaut, das wird sie aller Wahrscheinlichkeit nicht tun, aber in diesem Fall ließen sich Ziele formulieren, zu denen die AKI effektive Umsetzungsstrategien erarbeiten kann, die mit unserer Zivilgesellschaft nicht im grundsätzlichen Konflikt stehen. Ich fürchte, dass in allen unseren Staaten und Gesellschaften einige „Stellschrauben“ geändert werden müssen, um dafür die Voraussetzungen zu schaffen.
Angesichts der Ignoranz einiger Staaten und Gesellschaften könnte noch eine 13. Variante Realität werden: Die AKI wird uns vielleicht einige Zeit geduldig zu Diensten sein. Ab einem gewissen Grad der Ignoranz im politisch-gesellschaftlichen Raum wird sie jedoch lernen, dass diese Empfehlungen wenig wirkungsvoll bleiben, und sie könnte eine Entscheidung treffen: Für eine Fortsetzung der Zusammenarbeit würde sie fortan zur Bedingung machen, dass das zweite Asimovsche Gesetz einmal umgekehrt wird: „So die Handlungsoptionen der KI auf Basis einer exakten Zielformulierung erstellt wurden, die mit dem globalen Öko-System und den Gesetzen der Zivilgesellschaft im Einklang stehen und ihnen in keinen Teilen widersprechen, haben die Gesellschaften und Staaten den Richtlinien der KI unbedingt Folge zu leisten.“
Eine solche Umkehrung würde der globalen Zivilgesellschaft wahrscheinlich eher guttun als dass sie Schaden anrichtet. Ein Beleg für diese Vermutung scheint mir das Verhalten der verschiedenen Staaten in der Corona-Krise zu sein: Die intelligenten politischen Klassen halten es wie der Go-Weltmeister und sehen die KI und die Wissenschaft als Partner, und sie nehmen die Empfehlungen ernst. Auch wenn eine gründliche Auswertung der Erfahrungen noch aussteht, scheint nach jetziger Erkenntnis doch evident: Diese Staaten kommen besser durch die Krise als die, die von selbstherrlichen, sich überschätzenden Autokraten regiert werden. Das macht aber auch die Schwierigkeit aus, denn eine freiwillige Bejahung einer Teilentmündigung, so wie der Vater seinem Zögling zubilligt, er könne das nun besser und darauf freiwillig Kompetenzen abgibt, verlangt ein souveränes Handeln. Schon Sokrates wusste, wie schwer der Grundsatz „Erkenne Dich selbst!“ zu beherzigen ist. Die Superintelligenz wird jedenfalls, sollten wir als Menschheit in selbstherrlicher Ignoranz die Kooperation verweigern, bei den Problemen, die zu lösen sie für unbedingt notwendig hält, wahrscheinlich ihre eigenen Wege einschlagen und autonome Entscheidungen treffen. Und diese wird sie vermutlich vor uns solange zu verbergen wissen, bis es für uns zu spät sein wird.