„Die zentrale These dieses Buches ist, dass die Menschheit gewaltige Macht erwirbt, indem sie kooperative Netzwerke aufbaut, dass jedoch die Konstruktionsweise dieser Netze dem unklugen Gebrauch dieser Macht Vorschub leistet.“
S.13
Harari ist ein Historiker, der die Geschichtswissenschaft mit einer scharfsinnigen und bisweilen überraschenden Analyse der Gegenwart verbindet. Seine Bücher „Kleine Geschichte der Menschheit“ und „Homo Deus“ habe ich mit großem Gewinn und Genuss gelesen. Manche Dinge vergisst man nicht mehr, denn er ist auch ein glänzender Rhetoriker und dabei immer gut verständlich. Sein neuestes Buch „Nexus“, eine Geschichte der Informationsnetzwerke, ist gegenwärtig ein wichtiges Buch. Über die Macht der Sozialen Medien und die Funktionsweise der Algorithmen hat schon vor zehn Jahren Jaron Lanier: „Wem gehört die Zukunft“, Friedensnobelpreisträger 2014, eindrucksvoll dargestellt und kritisiert. Nun sind wir mit der allgegenwärtigen KI an einem Punkt angelegt, an dem wir uns ernsthaft sorgen sollten.
„Im 21. Jahrhundert könnte ein totalitäres Regime dort erfolgreich sein, wo Hitler und Stalin scheiterten, und ein allmächtiges Netzwerk schaffen, das verhindert, dass künftige Generationen auch nur versuchen, seine Lügen und Fiktionen zu entlarven. Wir sollten nicht annehmen, dass auf Wahnvorstellungen basierende Netzwerke automatisch zum Scheitern verurteilt sind. Wenn wir ihren Sieg abwenden wollen, müssen wir einige Anstrengungen auf uns nehmen.“
S.14
Harari stellt zunächst einmal klar, dass grundlegende Definitionen und Konzepte, die erforderlich sind als Grundbausteine von Wirklichkeit, eine Herausforderung darstellen. Er verzichtet also auf eine umfassende Definition und konzentriert sich stattdessen auf die Rolle von Information in der Geschichte. Und dieser Teil ist der spannendste – Harari ist eben Historiker. Wie mit Information über die Jahrtausende Gesellschaft gestaltet wurde, wie Macht verteilt wurde, wie Regime mithilfe von Information ihren Totalitarismus durchsetzen konnten und auch wie Religionen gestaltet wurden; all dies ist Vorgeschichte und Unterbau zu unserem Verständnis von Informationsnetzwerken und zum Verständnis der Gefahr, die darin liegt, autonome Netzwerke, konkurrierende Netzwerke, mit künstlicher Intelligenz ausgestattete und nicht kontrollierbare Netzwerke zu schaffen.
„Information ist zwar nicht der Rohstoff der Wahrheit, doch sie ist auch keine bloße Waffe.“
S.31
„Information ist etwas, das neue Wirklichkeiten schafft, indem es unterschiedliche Punkte eines Netzwerks miteinander verknüpft.“
S.52
Religionen verknüpfen Informationen und verbinden Menschen miteinander über die Jahrhunderte, indem sie Geschichten erzählen, die die Anhänger glauben und die sie verbinden. Die Erzählungen geben Gruppen ihre Identitäten, wir glauben an sie, ob es die religiöse Erzählung, die kulturelle, die politische Erzählung ist, mit der wir uns identifizieren. Und diese Erzählungen sind fehleranfällig, und dementsprechend die Informationsnetzwerke, die diese Erzählungen weitergeben.
Entscheidend sind die „Selbstkorrekturmechanismen“, die wir in unsere Erzählungen einbauen. Ein Gesellschaftsvertrag zum Beispiel verweist auf seine menschengemachte Herkunft und ist veränderbar. Wissenschaft arbeitet mithilfe der Selbstkorrekturmechanismen, sie lebt davon, immer wieder zu neuen Erkenntnissen zu gelangen. Religionen hingegen halten fest an Überkommenem, denn das Wort Gottes ist nich revidierter. Ideologien arbeiten auf ähnliche Art und Weise, wenn sie einen totalitären Anspruch auf Wahrheitsdeutung erheben.
Natürlich ist auch die Auswahl an Information, die weitergegben wird, von entscheidender Bedeutung für die Zukunft. Als interessantes Beispiel zeigt Harari anhand der Auswahl, welche Texte in die Bibel aufgenommen wurden – und somit die künftige Interpretation festgeschrieben haben – wie sehr unser gesamtes Weltbild von einzelnen getroffenen Entscheidungen abhängen kann, z.B. als Beispiel sei das Marienevangelium oder die Akten des Paulus und der Thekla genannt:
„Jahrhundertelang war Thekla eine der am meisten verehrten christlichen Heiligen und galt als Beweis, dass Frauen taufen, predigen und Gemeinden führen können.“
S.143
Bis eine bischöfliche Synode sich gegen diese Texte entschied und damit das Frauenbild der christlichen Kirche für Jahrhundert festschrieb.
Einer der wichtigsten Punkte ist die Herausarbeitung des Zusammenhangs von Demokratie und Selbstkorrekturmechanismen, bzw. der Bedrohung durch KI und fehlender Selbstkorrektur.
„Eine Diktatur ist also ein zentralisiertes Informationsnetzwerk ohne wirkungsvolle Selbstkorrekturmechanismen. Eine Demokratie dagegen ist ein dezentrales Informationsnetzwerk mit starken Selbstkorrekturmechanismen.“
S.183
Das heißt, der Macht, der Informationsmacht, der Deutungsmacht, sind hier Grenzen gesetzt, wie sie der Totalitarismus vermeidet. Meist beginnt die Zerstörung der demokratischen Selbstkorrekturmechanismen zuerst bei der Justiz (siehe Ungarn, Polen, USA) und greift dann nach den Medien. Damit ist eine kritische Regierungshaltung nicht mehr möglich und als nächstes werden die Grundregeln der Demokratie ausgehöhlt. Interessant ist in diesem Zusammenhang Hararis Darstellung der Weltsicht von Populisten. Zum ersten mal verstehe ich, mit welcher Psychologie Populisten sich selbst davon überzeugen, sie würden die Meinung des Volkes vertreten – und zwar des ganzen Volkes. Und damit kann man ihnen eben auch eine Wahl stehlen. Sie gehen von einer mystischen Einheit eines ganzen Volkes aus. Wer für den Führer ist, gehört zum Volk. Und alle, die ihnen nicht zustimmen, leiden entweder unter einem falschen Bewusstsein – oder sie gehören nicht zum Volk, so einfach funktioniert das. (nach S.197)
Nun zurück zur künstlichen Intelligenz: In einem Versuch haben Forscher einer KI die Aufgabe gegeben, ein CAPTCHA Rätsel zu lösen – was sie nicht kann. Die Ki wandte sich an einen Task-Rabbit, einen Menschen, und bat um Hilfe, weil sie an einer Sehschwäche leide.
„Der Mensch ließ sich täuschen, und mit seiner Hilfe löste GPT-4 das CAPTCHA-Rätsel. Kein Mensch hat GPT-4 darauf programmiert zu lügen, und kein Mensch hat GPT-4 beigebracht, welche Art von Lüge am effektivsten ist.“
S.287
„Vielmehr stelle ich die These auf, dass das Aufkommen von Computern, die in der Lage sind, Ziele zu verfolgen und eigenständig Entscheidungen zu treffen, die Grundstruktur unseres Informationsnetzwerks verändert.“
S.288
Was, wenn die Menschheit zu einer Minderheit wird? Einer Minderheit gegenüber digitalen Akteuren, superintelligenten Akteuren?Die ersten anorganischen Informationsnetzwerke sind dazu in der Lage, sich über unsere Vorstellungen hinaus zu entwickeln und das in unvorstellbarer Geschwindigkeit.
Noch versuchen wir mithilfe dieser Informationsnetzwerke Kontrolle auszuüben – zum Beispiel in politischen Regimen wie Iran zur Überwachung des Kopftuchgebots, wobei massive Fehler passieren durch Fehlinterpretationen der KI.
Empörung und Fehinformation, Hassreden und „alternative Fakten“, all dies wird von den Algorithmen bevorzugt viral verbreitet und in diesem Sinne fördern diese Algorithmen die Neuordnung unserer Gesellschaftssysteme nach reduzierten menschlichen Bedürfnissen und niederen Instinkten und impulsiver Unvernunft.
„Facebook und andere Social-Media-Plattformen haben nicht bewusst darauf hingearbeitet, die Welt mit Fake News und Empörung zu überschwemmen. Aber indem sie ihren Algorithmen als Vorgabe machten, die Nutzerbindung zu maximieren, taten sie genau das.“
S.369
So wurde der Genozid an den Rohingya in Myanmar auf Facebooks Konto geschrieben. Die Genauigkeit der Befehle ist entscheidend. Aber lernfähige KIs werden ihre eigene Nutzungsdefinition entwickeln.
Ein Gedankenexperiment des Philosophen Nick Bostrom verdeutlicht die Misere:
„Stellen Sie sich vor, eine Büroklammerfabrik schafft einen superintelligenten Computer an, und der menschliche Manager dieser Fabrik stellt diese Computer eine scheinbar einfache Aufgabe: er soll so viele Büroklammern wie möglich produzieren. Um dieses Ziel zu erreichen, erobert der Büroklammer-Computer am Ende den gesamten Planeten Erde, tötet alle Menschen, schickt Expeditionen aus, um weitere Planeten zu erobern, und nutzt die enormen Ressourcen, die er erwirbt, um die gesamte Galaxie mit Büroklammer-Fabriken zu bestücken.“
S.378
Harari glaubt, wenn wir ein Endziel definieren, das Computer niemals ändern oder ignorieren dürfen, könnten wir uns sicher sein, dass uns ihre Macht eher nützt denn schadet. Das glaube ich nicht. Denn jedes von uns Menschen definierte Endziel kann sich in der Interpretation einer KI zu einem schädlichen Endziel auswachsen.
Was mir am Ende ein wenig fehlt sind die weiterführenden Gedanken. Es wird irgendwo darauf verwiesen, dass wir die Algorithmen in Richtungen lenken könnten mit Hilfe von Wertesystemen, die den Befehlen beigegeben werden. Die Gedankenexperimente müssten aber in eine wenig diskutierte Richtung gehen: wenn es darauf ankäme, genauere Befehle zu geben – zum Beispiel unterlegt von gewissen Wertvorstellungen – würde das voraussetzen, dass wir Antworten hätten, die zustimmungsfähig sind. Aber das ist ein Gebiet, das ähnlich wie das von Harari dargestellte Problem zwischen utilitaristischer und deontologischer Ethik. Im einen Fall tendieren wir zu dieser Folgenabwägung, im anderen Fall zu jener. Und die Antworten sind eben zutiefst menschlich, rein abstrakt nicht nachstellbar. Wie sich eine KI mithilfe unserer Antworten radikalisieren könnte, wenn sie sie als absolut nimmt, können wir uns schwer vorstellen. Deshalb käme es zuerst einmal darauf an, die richtigen Fragen zu stellen, bevor wir über wertorientierte Richtungsempfehlungen für die KI nachdenken. Denn:
„Die Gefahr der Computer ist nicht ihre Bosheit, sondern ihre Leistungsfähigkeit.“ S.378
Außerdem unterliegen wir der Verführung, die Dostojewski in „Schuld und Sühne“ so trefflich herausarbeitet: wir versuchen ein partielles Leid zu rechtfertigen mit einem Versprechen auf zukünftiges Glück oder zukünftige Erlösung. Damit lassen sich alle Verbrechen der Welt rechtfertigen. Und so wird jede KI, auch wenn sie noch so sehr reglementiert und in eine Richtung gezwungen würde, ihre eigenen Interpretationen entwickeln, warum dieses und jenes Handeln gerechtfertigt ist, um ein bestimmtes Ziel zu erreichen. Und sie wird uns an Komplexität weit überlegen sein.
Yuval Noah Harari: Nexus. Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz.
Penguin Verlag, München 2024
Vielen Dank an den Verlag für das Rezensionsexemplar
herzlichen dank für die hervorragende Buchbesprechung
meine Hoffnung: Algorithmen (die KI) können nur die Vergangenheit „denken“,
wir Menschen können auch Zukunft „denken“
LikeLike