Samstag, 6. Januar 2024

Gedankenexperimente aus tausend und einer Seite (Teil 2)

 »Ich warte auf Antwort. Beeil dich gefälligst!«

                        1988: Dagobert Duck an seinen Beratercomputer in dem Comic „Alles Gute, Donald

Der Sturz des Menschen...

Von Raimund Vollmer 

 

In der „Magna Charta für das Informationszeitalter“, dessen großes, englisches Vorbild 2015 seinen 800. Geburtstag feiert, heißt es 1994: „Das zentrale Ereignis des 20. Jahrhunderts ist der Sturz der Materie. In Technik, Wirtschaft und Politik hat der Wohlstand in Form materieller Ressourcen an Bedeutung verloren. Überall gewinnen die Kräfte des Geistes die Oberhand über die rohe Macht der Dinge.“[1]

Kevin Kelly, Journalist bei der Zeitschrift „Wired“, stieß 1998 in seinem Buch »New Rules of the New Economy“ nach: „Die Welt des Weichen – die Welt der nicht berührbaren Güter, der Medien, der Software und der Dienstleistungen – werden bald über die Welt des Harten bestimmen – die Welt der Realität, der Atome, der Gegenstände, des Stahls und des Öls und der harten Arbeit, die im Schweiße des Angesichts geleistet wird.“[2]

Wer oder was sind nun diese „Kräfte des Geistes“? Sind es die kalten Befehle, die sich in den Programmen längst verselbständigt haben? Ist es immer noch der menschliche, gefühlsbetonte Geist? Oder ist es die Cloud, die schon mit ihrem Sprachbild, der Wolke, weich und kuschelig erscheint, die alles umhüllt und uns einnebelt? Sind wir es, die Menschen, die befehlen, oder sind wir nur noch die Ausführenden, die sturen Befehlsempfänger? Geht es im 21. Jahrhundert nicht mehr um den Sturz der Materie, sondern um den des Menschen?

Nach einer Studie der Oxford University könnten in den nächsten zwei Jahrzehnten 47 Prozent aller Jobs automatisiert werden.[3] Es wird also enger für uns. Aber braucht eine automatisierte Welt nicht umso mehr den menschlichen Geist, seine Intelligenz?

Arthur C. Clarke, Wissenschaftler und Autor des 1968 von Stanley Kubrick verfilmten Buches „Odyssee 2001“, erklärte im Realjahr 2001, dass wir im Jahr 2020 einen Rechner haben werden, der so intelligent sein wird wie sein legendärer Computer HAL, allerdings mit einer massiven Einschränkung. Er wird kein eigenes Bewusstsein haben.[4] (H–A–L sind übrigens die drei Buchstaben, die im Alphabet der Kombination I–B–M vorangehen, was aber eher Zufall als beabsichtigt war. So entstehen Mythen.)

Dass der Weg auch über eine seelenlose Intelligenz gehen könne, hatte der englische Mathematiker Alan Turing bereits 1950 vorgeschlagen und einen entsprechenden Test definiert. Wenn eine Mehrheit etwas für intelligent hält, ist es dies auch – gleichgültig, ob mit oder ohne eigenes Bewusstsein. Es geht also nicht darum, ob etwas intelligent ist, sondern nur darum, ob wir es dafür halten. Ein Taschenspielertrick in den Augen der Kritiker. Aber er erleichtert das Geschäft mit der Künstlichen Intelligenz, weil er zudem die unbequeme Frage nach dem Bewusstsein ausklammert. ChatGPT – ist vor diesem Hintergrund ein Trickbetrüger, kann es aber nicht sein, da es kein Mensch ist. Es ist ein Geist aus reiner Software und Daten.

Firmen wie Google oder Facebook sind offensichtlich davon überzeugt, dass der künstlichen Intelligenz die Zukunft gehört. Für lumpige 400 Millionen Dollar erwarb das Suchmaschinenimperium 2014 das Start-up-Unternehmen DeepMind und schnappte es damit Facebook vor der Nase weg. Die Welt der Lernenden Maschinen entstand.

Für Marvin Minsky, dem Vater der Künstlichen Intelligenz am MIT, war diese Lernfähigkeit schon in den 80er Jahren die Voraussetzung dafür, dass eines Tages die Rechner selbst „diese pingelige Arbeit der Programmierung“ übernehmen. Diese Art zu lernen würde nicht darin bestehen, dass die Rechner sich selbst Anwendungen schreiben, sondern sie würden gleichsam Agenten aussenden, die in anderen Systemen nach Lösungen suchen. Und dabei treten die Maschinen in einen intensiven Austausch untereinander. So entstünde eine „Society of Mind“, in der sich die Systeme permanent optimieren. Natürlich ohne menschlichen Eingriff.

In den siebziger Jahren hatte Minsky die Idee der Society of  Mind entwickelt und propagiert. Was in ihr allein zählt, ist das „Wissen über Wissen“, ist also das, von dem wir annehmen, dass es ein Fall für unsere Oligarchen des Netzes sei.[5]

 

         „Mr. Watson – come here – I want to see you.“

                        10. März 1876: Graham Bells erste Worte ins Telefon

...und der Aufstieg der Maschine

„Soft Artificial Intelligence ist plötzlich überall“, eröffnete im November 2014 das US-Magazin Vanity Fair einen Grundsatz-Artikel über das Thema. Der Autor, Kurt Andersen, beschreibt darin eine Zukunft, in der wir, die Menschen, von Maschinen abgelöst werden, von Maschinen, die intelligenter sind als wir. Wann das geschehen wird, ist unklar – und doch irgendwie zeitlich umrissen: in den nächsten 20 bis 100 Jahren. Dabei ist nicht nur entscheidend, wann Maschinen intelligenter sind als wir, sondern auch der Zeitpunkt, von dem aus sich die Künstliche Intelligenz ohne unser Zutun selbst verbessern kann.

Offenbar stehen wir kurz davor.

Dieser einzigartige Augenblick in der Geschichte wird „Singularity“ genannt. Nachdem wir diesen Punkt erreicht hätten, wäre die Entwicklung derart rasant, dass wir im 21. Jahrhundert so viel an Fortschritt erzielen würden wie bislang in 20.000 Jahren. So zitiert Andersen eine Aussage des Futuristen Ray Kurzweil, der als der prominenteste Vertreter der Singularity gilt.

„In den nächsten vier Jahrzehnten“ werden „Geräte smarter, fähiger und sachkundiger werden als der Mensch“, erwartet der Amerikaner Aaron Goldberg, der seit den 70er Jahren als Analyst die IT–Branche beobachtet. Nicht nur für ihn ist es denkbar, dass sich der Mensch in Zukunft der Technologie unterwerfen wird – oder von ihr unterworfen wird. Das hatte schon Mitte des vergangenen Jahrhunderts der geniale amerikanische Mathematiker Johann von Neumann erwartet. Roboter und Elektronengehirn seien für ihn „Vorboten einer neuen Zivilisation (...), dazu berufen, den Menschen auf der Erde abzulösen“, notierte die Journalistin Vera Graaf 1971 in ihrem ausgezeichneten Buch „Homo Futurus“.[6] Minsky stellte sich auch dieser Frage nach der Rivalität von Mensch und Maschine und meinte vor 30 Jahren, dass wir uns irgendwann entscheiden müssten, ob wir aus der Maschine „Wettbewerber machen oder sie als eine von uns betrachten“.[7] Es ist also ein altes Thema, das alle 20–30 Jahre hochgepuscht wird. Aufgeschreckt war im Oktober 2014 Elon Musk, der eigentlich in Sachen Technologie optimistische Gründer von Tesla. Auf einer Tagung am MIT sah er so etwas wie das „Heraufbeschwören eines Dämons“ in der Weiterentwicklung der Künstlichen Intelligenz, in der er einen Rivalen des Menschen wittert. Der inuzwischen keider verstorbene Astrophysiker Steve Hawkings mutmaßt, das die volle Ausgestaltung der Artificial Intelligence „das Ende der Menschheit“ bedeuten könne. Dem Wirtschaftsmagazin The Economist war das Thema sogar eine Titelgeschichte wert.[8]

Das ist eine harte Nuss, die wir da zu knacken haben. Über was wir indes reden, wenn wir uns mit künstlicher Intelligenz beschäftigen, ist vor allem mit der Fähigkeit der Maschine zu lernen. Mehr nicht. Kann es indes sein, dass all diese Propheten diese Fähigkeit verwechseln mit der Fähigkeit zu denken? „Das Prinzip des Lernens ist nicht an das Bewusstsein gebunden“, meinte bereits 1953 der österreichische Computerpionier Heinz Zemanek.[9] Aber möglicherweise läuft es ganz genau darauf hinaus. Die Maschine lernt – und wir liefern das Bewusstsein. Sie bliebe unser Werkzeug, eine Hoffnung, auf die der Science-Fiction-Meister Isaac Asimov setzte. Er, der die Roboter–Gesetze definierte, warnte aber davor zu prognostizieren, was „Computer nicht tun können. Es kann sein, dass man sich höchstwahrscheinlich irrt“.[10] Sie könnten uns Menschen also durchaus jenes kleine, völlig unregulierte Reservat nehmen, dem wir letztlich all unsere Schöpfungen zu verdanken haben: Kreativität, Phantasie und Imagination.

Es kann aber auch sein, dass dieses Reservat einfach nur zerstört wird.

Vielleicht bedient sich eines nicht allzu fernen Tages die Maschine sogar unseres Bewusstseins, wir werden selbst zur Maschine. Ein großes Thema, das für die Labors immer näher rückt Ein großes Thema, das schon den 1974 verstorbenen amerikanischen Computerpionier Vannevar Bush bewegte. Er meinte, dass eines Tages jeder von uns einen Computer in sich tragen würde. Alvin Toffler hingegen befand, dass es die Maschine sei, die uns in sich tragen werde. Er konnte sich jedenfalls 1970 „ein körperloses Gehirn“ vorstellen. „Vielleicht wird es dann möglich, ein menschliches Gehirn an eine Reihe von künstlichen Sensoren, Rezeptoren und anderen Apparaturen anzuschließen und das so entstandene Gewirr aus Drähten und Plastikteilen 'Mensch' zu nennen.“[11]

„Manche wie der Google–Mitbegründer Larry Page erwarten, das Internet werde irgendwann lebendig werden, während andere wie der Wirtschaftshistoriker George Dyson meinen, das sei möglicherweise schon geschehen“, berichtete uns der Internet-Guru Jaron Lanier 2010 in seinem Buch „Gadget. Warum die Zukunft uns noch braucht“[12]

Nun gut. Vielleicht werden wir am Ende sogar unser eigenes Bewusstsein ganz einfach fallen lassen.

Guten Morgen, Mensch. Ein neuer Tag beginnt.

 

Montag, 1. Januar 2024

Gedankenexperimente aus tausend und einer Seite (Teil 1)

 DER ZUKUNFTSSCHOCK

Von Raimund Vollmer 

Am 2. Juni 2019 hatte ich das hier vorliegende Kapitel verlassen, jetzt habe ich es, bis auf wenige redaktionelle Korrekturen, eigentlich nur um ein einziges Wort ergänzt: ChatGPT. Irgendwie ist das der vorerst letzte Zukunftsschock, der uns im November 2022 ereilte. Das gesamte Manuskript, das längst die Marke von 1000 Seiten übersteigt und aus dem ich dieses Kapitel herausgegriffen habe, steht unter der Überschrift "Ohne uns - Gibt es ein Leben nach dem Jetzt?" Diese Frage hat so viele Aspekte in mir geweckt, dass ich mich in immer mehr Themen regelrecht hineinlas und hineinfraß. Ein Leben ohne die Gedanken, die mir bei meinen Ausflügen begegneten, kann ich mir gar nicht mehr vorstellen. Es gibt so viele faszinierende Menschen mit so anregenden Gedanken und Phantasien, dass ich darüber mehr staune als über die gesamte Technik.

Im ersten Kapitel des Manuskripts, das ich in einen 20 minütigen Film verwandelt habe, stelle ich die These voran, dass jedes Jahrhundert immer schon 25 Jahre zuvor begann (Aussage von Peter F. Drucker/Tom Wolfe u.a.). Ja, dass man sogar sagen kann, dass dieses Jahrtausend in Wahrheit auch schon um 1750 (mit der Aufklärung, der französischen, der amerikanischen und der industriellen Revolution) begonnen hat. Deshalb ist vielleicht der 1. Januar 1975, mit dem ich heute beginne, besonders interessant...

Zu meiner Person: Mein Name ist Raimund Vollmer (Jahrgang 1952, geboren in Dortmund) Ich habe vor 50 Jahren, im Sommer 1973, als Volontär bei der Westdeutschen Zeitung/Düsseldorf Nachrichten begonnen. Zwei Jahre später wurde ich Redakteur bei der "Computer Zeitung" ohne auch nur die geringste Ahnung von diesem Titel-Gerät zu haben. Manchmal habe ich den Eindruck, dass dies noch heute stimmt, allerdings auf sehr viel höherem Niveau. Wahrscheinlich haben wir auch keine Ahnung von uns Menschen, was ich nach inzwischen 71 Jahren Lebenszeit bestätigen würde. Aber das macht es gerade so spannend. Ich bin - trotz aller Kritik - immer noch fasziniert von dieser Technik. 

1978 wurde ich Chefredakteur des Computer Magazins (das ich ebenso überlebt habe wie die CZ). Seit 1981 lebe ich als freier Journalist in Reutlingen bei Stuttgart, verheiratet, drei Töchter, vier Enkelinnen, zwei Enkel. Ich bin seit mehr als vier Jahrzehnten Mitglied im Deutschen Journalisten-Verband, der mir aber zunehmend fremd wird. - Ich habe meine Texte nicht gegendert.

 

1989: »Nichts verändert die Gesellschaft in all ihren Äußerungsformen und auf allen Ebenen so sehr wie die Technik.«

Bernd Guggenberger (*1949), deutscher Politikwissenschaftler



Am 1. Januar 1975 erschien auf der Titelseite der amerikanischen Fachzeitschrift ‚Popular Electronics‘ ein Bild des ersten Heimcomputers der Welt. Sein Name: Altair. Wie der ferne Stern. Und die, die ihn als erste sahen und richtig deuteten, waren die beiden Amerikaner Paul Allen und Bill Gates. Inspiriert von dieser Titelgeschichte starteten sie am 4. April 1975 das bald mit seinen Befehlssätzen auf nahezu allen Computern präsente Projekt Microsoft.

Der Altair war gelandet. „Das Jahr 1975 markiert einen Wendepunkt“, schrieb die kluge Soziologin Sherry Turkle (*1948) neun Jahre später in ihrem Bestseller „Die Wunschmaschine“, in dem sie uns „Vom Entstehen der Computerkultur“ berichtet. Und der Wendepunkt war diese kleine „Wunschmaschine“. [1]

Das neue Jahrhundert hatte begonnen, der Start einer neuen Ära. Gerade rechtzeitig. Denn es herrschte Endzeitstimmung, wenngleich aus höchst unterschiedlichen Beweggründen. Der Journalist Alvin Toffler (1928–2016), der bald der meistzitierte Zukunftsforscher der Welt wurde, hatte 1970 seinen Weltbestseller „Der Zukunftsschock“ veröffentlicht. Darin meinte er: Was sich momentan vor unseren Augen abspiele, sei „nichts weniger als die zweite große Trennungslinie der Menschheitsgeschichte“. Mit dem Übergang vom „Natur- zum Kulturzustand“ habe die Menschheit den „ersten großen Bruch“ vollzogen. Nun aber befänden wir uns in einer Epoche, die „weit umfassender, tiefgreifender und bedeutsamer sei als eine industrielle Revolution“. Alles verändere sich nicht nur viel zu schnell, sondern obendrein mit steigender Geschwindigkeit.[2] Ein Gefühl, das uns bis heute immer wieder beschleicht, egal, ob es nun objektiv stimmt oder nur subjektiv wahrgenommen wird.

Toffler griff mit seinem fast 400 Seiten starken, mit Beispielen prall gefülltem Buch weit in die Zukunft. Selbst der deutsche Zukunftsforscher Robert Jungk (1913–1994) war beeindruckt von diesem Werk: „Noch nie ist mit einer solchen Überfülle von Fakten gezeigt worden, wie technischer Fortschritt, der über den Produkten die Produzenten vernachlässigte, zu einer kollektiven Erkrankung führte, für die der Autor den Terminus 'Zukunftsschock' fand“, urteilte Jungk in einer Buchbesprechung im 'Spiegel', das noch Nachrichtenmagazin genannt wurde.[3]

Um uns zu zeigen, was mit uns passiert, reiste Toffler weit zurück in die Vergangenheit und rechnete uns vor: Rund 800 Lebensspannen zu jeweils 62 Jahren umfassen die letzten 50.000 Jahre der Menschheit. 650 Lebensspannen haben wir in Höhlen verbracht, doch erst in den letzten 150 Lebensspannen haben wir so richtig Fahrt aufgenommen – in einem Maße, dass wir uns fragen müssen, ob wir intellektuell und konstitutionell überhaupt für eine solche Beschleunigung geschaffen seien.

Sieben Jahre später sollte Paul Virilio (1932–2018), französischer Philosoph, in seinem Essay „Vitesse et Politique“ davon sprechen, dass der die Macht habe, der die Geschwindigkeit kontrolliere. „Lebendig sein heißt Geschwindigkeit sein“, hatte er offenbar Tofflers Thesen weiter getrieben.[4] Und 2002 meinte er, dass „Schnelligkeit keine Frage der Zeit zwischen zwei Punkten“ sei, sondern eine eigene Form von Herrschaft darstelle. Sie sei „eine Gewalt an sich“.[5]

Aber sind wir dieser Gewalt überhaupt gewachsen? Das Internet der rasenden Dinge sagt Nein. Und nur etwas ganz anderes sollte uns viele Jahre später stoppen können: ein Virus namens Corona. Full stop. 

2001: »Wir sind Menschen, keine Maschinen«

Didier Sicard (*1938), Präsident des Nationalen Beratungskommitees für Ethik in Frankreich



Damals wie heute wird sichtbar: Der Mensch erscheint als eine Fehlkonstruktion. Er ist viel zu schwach, um seine eigene Zukunft überhaupt meistern zu können. Er kommt mit sich selbst nicht mehr mit. Ganz anders die robusten Roboter, „die Funktionen ausüben, die normalerweise dem Menschen zugesprochen werden oder als das erscheinen, was man fast schon als menschliche Intelligenz bezeichnen könnte“, formulierte das populäre englischsprachige Wörterbuch „Webster's“ in den siebziger Jahren.

Ist der schwache Mensch also dazu verurteilt, sein Schicksal an ein künstliches Gehirn abzugeben? „Ein populäres Thema der Science–fiction ist die Story von einem gigantischen Computer, der die ganze Welt übernimmt“, meinte 1980 der Wissenschaftler Thomas B. Sheridan (*1929) in der vom amerikanischen Massachusetts Institute of Technology (MIT) herausgegebenen Zeitschrift „Technology Review“.[6] Von „modernen Digitalrechnern“ sprach bereits 1964 der IBM–Wissenschaftler Arthur L. Samuel (1901–1990). Und er war sicher, dass im Jahr 1985 „fast jeder seine eigene Rechenanlage besitzen wird“. So würde dies zumindest in der „kapitalistischen Welt“ sein, die nun einmal dezentral organisiert sei. Im zentralistisch geplanten Kommunismus hingegen würde „jedermann über einen eigenen Anschluss an eine oder mehrere große, regierungseigene Rechenanlagen“ verfügen, so dass die Regierung auf keinen Fall die Kontrolle über die Nutzung der Maschinen verliere. Er sah auch schon das Handy voraus, das dem Menschen nicht nur zum Telefonieren diene, sondern auch als Instrument, um auf diese Weise „mit seinem Rechner Verbindung“ aufnehmen. zu können. Er träumte mit Blick auf das Jahr 1985 von automatischen Übersetzungsprogrammen, die als Synchrondolmetscher selbst dem gesprochenem Wort gewachsen seien. „Bibliotheken mit richtigen Büchern“ würde es nur noch in öffentlichen Bibliotheken geben – und er sah vor sich das papierlose Büro.[7]

 

1992: »Der Held des 20. Jahrhunderts ist eine Null.«

Überschrift in der Frankfurter Allgemeine Zeitung am 20. Juni 1992

Auch wenn die Prognosen 1985 noch längst nicht erfüllt waren (und zum Teil auch heute noch nicht sind), war der Glaube an den technischen Fortschritt nach wie vor ungebrochen – zumindest bei den technisch interessierten Intellektuellen. Diese machten sogar unglaublichen Druck – wie zum Beispiel 1983 die beiden Amerikaner Edward A. Feigenbaum (*1936) und Pamela McCorduck (*1940) in ihrem Buch „Die fünfte Computer-Generation“. Hier bauten sie das Thema Künstliche Intelligenz zu einem erbarmungslosen Wettlauf zwischen den USA und Japan auf ­– so wie es heute zwischen China und dem Rest der Welt diagnostiziert wird. Es ging damals wie heute um die „Wissenssysteme“, die – mit artifizieller Intelligenz ausgestattet – das Merkmal einer „postindustriellen Gesellschaft“ werden sollten, einem Begriff den 1973 der amerikanische Journalist und Soziologe Daniel Bell (1919–2011) zwar nicht erfunden, aber berühmt gemacht hatte. 

1984: »Wir sind offenbar unfähig,
die Natur unserer eigenen Denkvorgänge zu verstehen.«

Douglas R. Hofstadter (*1945), amerikanischer Kognitionswissenschaftler


„Nun sind wir auf dem Weg zur nächsten Stufe – dem Zeitalter intelligenter Maschinen“, schrieben Feigenbaum und McCorduck mit der Atemlosigkeit, die allen technisch getakteten Zukunftsforschern eigen zu sein scheint. Im selben Jahr, 1983, prophezeite der deutsche Fernseh-Journalist Dieter Balkhausen (1937–2018) mit ähnlichem Pathos, dass „der Großcomputer, der das gesamte Wissen der Menschheit zu speichern in der Lage ist, keine Utopie“ mehr sei.[8] Ja, er sah eine Fülle von Novitäten mit Blick auf das Jahr 2000 auf uns zurollen. So erwartete er das Aufkommen von Biochips, „die in den menschlichen Körper eingepflanzt würden und deformierte und untüchtige Sinnesorgane ersetzen sowie defekte Nervenbahnen überbrücken könnten.“

Taube, die wieder hören, Stumme, die wieder sprechen, Blinde, die wieder sehen, Lahme, die wieder gehen, und Demente, die nichts mehr vergessen – was für eine Zukunft! Der amerikanische Molekularbiologe Joshua Lederberg (1925–2008), immerhin Nobelpreisträger, meinte in den siebziger Jahren, dass wir die Gehirnhöhle des Menschen vergrößern müssten, damit unsere grauen Zellen genügend Platz zum Wachsen hätten, um mit den neuen Anforderungen an das Leben zurecht zu kommen.

Vielleicht werden wir aber größere Schädel aus einem ganz anderen Grund benötigen. Der Wissenschaftsautor Johannes von Buttlar hatte bereits 1979 in seinem Buch „Der Supermensch“ von Vorschlägen berichtet, unsere Gehirnleistung durch Chips zu verstärken. „Der im Kopf implantierte Computer wäre so natürlicher Teil des menschlichen Gehirns“, schrieb er.[9]

Die meisten Erwartungen gingen noch nicht so weit, waren dafür aber näher an der Lebenswelt von heute. Sheridan z.B. leitete damals das Mensch-Maschine-Labor am MIT. Computer würden „unser alltägliches Leben durchdringen und uns auf mannigfaltige Weise von ihnen abhängig machen.“ Heinz Zemanek (1920–2014), österreichisches Computer–Genie, sprach – man staune – 1980 wortwörtlich von einer „Zukunft der verwobenen Netze der Netze“, bei dem die „Dichte des Energie–und Fernsprechnetzes um Größenordnungen überholt werde“ und jeder „Zugriff zu gigantischen Datenbanken“ haben werde.[10] Er nannte sie „digitale Informationsader“, lange bevor die Lobbyisten der IT und die Politiker uns mit dem Begriff „Digitalisierung“ zu schockinstrumentalisieren versuchten. Zemanek erwartete bei dem, was auf uns zukäme, „ein Bild von ungeheurer Tiefe und Vielfalt“.

Er sah wie Sheridan aber auch die Bedrohungen, von denen der Amerikaner sieben auflistete, Bedrohungen, mit denen uns die Allgegenwart der Computer konfrontieren werde. Die siebte dieser Bedrohungen sei auch die größte, denn sie bestehe in der Angst davor, dass die Maschine intelligenter werden könne als wir.

Es ist eine Angst, der dann 1973 der Harvard–Professor Lawrence H. Tribe (*1941) die Krone aufsetzte, als er in einer 44seitigen Schrift die drei Zukunftsschocks beschrieb, die die Menschen in den vergangenen 500 Jahren zu meistern hatten – und auf die nun mit der Künstlichen Intelligenz eine vierte Disruption (Tribe nannte es „Diskontinuität“) lauerte.[11]

·        Erst war es Nikolaus Kopernikus (1473–1543), der mit seinen astronomischen Erkenntnissen unsere Erde aus dem Zentrum des Universums katapultierte. 

·        Dann war es Charles Darwin (1809–1882), der mit seiner Evolutionstheorie unser nächstes Weltbild zerstörte.

·        Den dritten Zukunftsschock versetzte uns Sigmund Freud (1856–1939) mit seiner Psychoanalyse, die unser Seelenleben in die Abgründe unserer Triebwelten schmetterte.

·        Nun stünde die vierte Kränkung ins Haus – der Sturz vom Thron der Erkenntnis.

Schon der Brite Alan Turing (1912–1954), der Mann, der für die Entwicklung der Informatik bahnbrechend wirkte, hatte sich sehr intensiv und sehr systematisch mit diesen Themen beschäftigt. Er gilt mit seiner Frage „Können Computer denken?“ als einer der Begründer der Künstlichen Intelligenz. „Er beantwortete seine Frage nicht, sondern entwarf eine Simulationssituation, in der ein Computer die Aufgabe hat, einen Menschen über seine wahre Natur zu täuschen“, erläutert der Informatikprofessor Bernd Radig (*1944), dessen Spezialgebiet die Künstliche Intelligenz ist.[12] Um die Existenz künstlicher Intelligenz nachweisen zu können, erfand Turing einen nach ihm benannten Test, bei dem die Maschine im Dialog so überzeugend wirkt, dass Menschen die Antworten ihres künstliches Gegenüber für menschlich halten. Bluffen gehört da momentan immer noch zum Geschäft.

Ob Turing selbst die immer wieder vorgestellten Testergebnisse akzeptiert hätte, ist fraglich, ob die Maschinen vor ihm selbst bestanden hätten, noch mehr. Er war umfassender interessiert. „Kann echte Intelligenz in jeder Art von Substrat – sei es organisch, elektronisch oder sonst wie beschaffen – enthalten sein?“, startete der amerikanische Informatik–Denker Douglas R. Hofstadter (*1945) in seinem Buch „Metamagicum“ einen ganzen Strauß von Fragen, mit denen sich das Superhirn Turing beschäftigt haben muss.[13] Im Internet der Dinge, wie es sich nun herausbildet, wird genau das gefordert sein – und jeder Fortschritt gefeiert. Von uns Menschen.

 

»Bevor wir es überhaupt wert sind Menschen genannt zu werden,
hat uns die Wissenschaft bereits zu Göttern gemacht.«

Jean Rostand (18941977), französischer Schriftsteller

Diese Themen lassen uns nicht mehr los, eigentlich begleiten sie uns schon seit der Zeit René Descartes (1596–1659) – und je mehr wir uns damit beschäftigen, desto verwirrter sind wir. Denn wir sind uns plötzlich selbst nicht mehr unser sicher. „Ist unser Gehirn eine Illusion?“ fragte sich 1991 Daniel Dennett (*1942), ein amerikanischer Philosoph und Kognitionswissenschaftler, und antwortete selbst mit einem klaren Ja. Der menschliche Verstand ist für ihn eine „virtuelle Maschine“, die sich einer parallelen Hardware bedient, „die uns die Evolution beschert hat.“ Sein britischer Kollege Gilbert Ryle (1900–1976) hatte schon 1949 ein ähnliches funktionales Verständnis von unserem Verstand entwickelt und den Ansatz von Descartes („Cogito ergo sum“) als ein „Gespenst in der Maschine“ veralbert.[14] Aber damit waren wir dieses Gespenst noch lange nicht los.

Im Gegenteil: wir suchen geradezu den Geist in der Maschine, ja, wir wollen es vielleicht sogar selbst sein. Das wäre dann sogar ein fünfter Zukunftsschock – diesmal allerdings für die Maschine. Wir erobern sie zurück.

Jeremy Rifkin (*1945), amerikanischer Zukunftspapst schlechthin, nahm 1983 ebenfalls Anleihen bei Nobelpreisträger Lederberg und meinte, dass wir nun in das Zeitalter der „Algeny“ einträten – einem Kunstbegriff in Analogie zur Alchemie, die beseelt war von der Vorstellung, durch pyrotechnische Zauberkunst Materie wie Blei in Gold zu verwandeln. Nun begänne die biotechnische Zauberkunst, das Spiel mit den Genen. Daraus würde ein Biocomputer entstehen, über den wir erstmals unsere Vorstellungen direkt in die Natur hineinprojizieren könnten. „Mit der Gen–Maschine ist es möglich, lebendes Material in neue Designs und Produkte zu übertragen – und zwar in ausreichender Stückzahl und mit genügend Geschwindigkeit, um einen kostenwirksamen Startpunkt für die biotechnische Wirtschaft zu haben“, meinte er 1983 in der Fachpublikation Datamation.[15]

Natürlich würden wir damit auch den Menschen optimieren, wobei es letztlich egal wäre, ob organisch oder anorganisch. Virilio sah eine Zeit, in der wir unsere Existenz mehr und mehr an technische Prothesen heften werden. Wir würden gleichsam unsere Lebensumstände an die der Behinderten anpassen.[16] Einer dieser Behinderten, der 2018 verstorbene Physiker Steve Hawking, meinte zwei Jahre vor seinem Tod: „Theoretisch ist es möglich, ein Gehirn auf einen Computer hochzuladen und auf diese Weise ein Leben nach dem Tode zu ermöglichen.“[17]

Wir verlassen also unsere Biosphäre und materialisieren uns in Silizium.

Dass dies oder eine andere Form des ewigen Lebens in absehbarer Zeit möglich sei, davon sind vor allem mittelalte Milliardäre überzeugt, Menschen, die wie Google-Gründer Sergey Brin oder Amazon–Schöpfer Jeff Bezos mit ihren Imperien gigantische Organisationen geschaffen haben, die immer mehr unserer Lebensbereiche beherrschen – durch Geschwindigkeit, Allwissenheit und Allgegenwart. Warum sollten sie nicht auch die Ewigkeit erreichen – nicht nur als System, sondern auch als Mensch? Sind wir nicht geradezu dazu verurteilt, auf diese Art und Weise die Macht über das Geschehen  zurückzugewinnen, indem wir selbst zur Maschine werden, ihr das geben, was ihr auf absehbare Zeit fehlen wird: ein Bewusstsein?

Schon zuvor, in den Jahrzehnten nach der Industriellen Revolution, haben wir uns mächtige Organisationen des Staates, der Wirtschaft und der Wissenschaft geschaffen. Es sind Organisationen, Systeme, denen wir mehr und mehr unsere Zukunft überlassen haben, denen wir zugleich eine Ewigkeitsgarantie gegeben haben. Sie sind mehr als nur Prothesen. Sie bestimmen heute fast alle unsere Bewegungen. Werden diese aufgeblähten und aufgeblasenen Institutionen in der Lage sein, auch in den kommenden Jahrzehnten unser Schicksal zu bestimmen,  oder werden wir selbst die Herrschaft wieder übernehmen?

Zweifel daran, dass wir die Macht über unser Schicksal zurückgewinnen würden, waren schon 1970 angebracht, als Toffler uns den 'Zukunftsschock“ verpasste. Der Mensch selbst – so hatten Ärzte nachgewiesen – sei in seiner Anpassungsfähigkeit begrenzt. Und zwar sowohl psychisch als auch physisch. Schockstarre ist das Ergebnis. Die Folgen lassen sich dabei auf drei Verhaltensmuster reduzieren:

·        Totale Verdrängung aller Ängste und Bedenken durch zwangsprogessives Agieren.

·        Spezialisierung und Expertentum, indem wir immer mehr über immer weniger wissen.

·        Rückzug ins Retro–Denken, also Flucht in die gute alte Zeit, in der vermeintlich alles besser war.

Vielleicht läuft es aber auch ganz anders. 1986 hatte Kim Eric Drexler (*1955) unter dem Titel „Engines of Creation“ den Begriff der Nanotechnologie ins Spiel gebracht und dabei die Vision entwickelt, dass eines Tages programmierbare Molekular–Effektoren (PMEs) in unsere Umwelt entlassen werden würden, um dann mehr oder minder systematisch das natürliche Leben durch künstliches zu ersetzen.[18] Eine bedrückende Vorstellung. Wir bereiten uns selbst den Garaus. Lapidar ausgedrückt könnte man sagen: Entweder übernehmen wir die Maschine, oder die Maschine übernimmt uns.

Im Grunde genommen stehen wir immer noch unter Zukunfts-Schock mit der Tendenz  zur Zwangsprogressivität.  Bis heute sind wir nicht in der Lage, uns das Unvorstellbare vorzustellen – eine Welt, in der wir uns endlich um uns selbst kümmern. Wir finden 1000 Ausreden, um genau dies nicht zu tun. Die größte Ausrede ist dabei das Streben nach einem ewigem Leben, das wir nicht mehr nur als Species in übermenschlichen Institutionen, sondern als Individuum in technischen Systemen erlangen wollen. Werden wir uns wirklich als Individuen erhalten können, oder werden uns nicht vielmehr die Maschinen einverleiben, uns dabei das stehlen, was ihnen bis auf weiteres fehlt: ein eigenes Bewusstsein. Werden sie es sich – so paradox das klingt – dieses Bewusstsein unbewusst aneignen? Turings Geniestreich bestand darin, dass er die Frage nach einem eigenen Bewusstsein als Voraussetzung für künstliche Intelligenz ganz einfach ausklammerte. Und beim Blick auf unsere mächtigen, allzu groß geratenen und anonymen Institutionen könnte man den Eindruck gewinnen, dass diese auch reibungslos funktionieren, ohne ein eigenes Bewusstsein zu haben. Ein gefährliches Spiel.

Toffler vermutete jedenfalls, dass wir bereits zu sehr die Organisationen pampern, denen wir die Daseinsfür- und -vorsorge überantwortet haben. Sie avancieren zu einem „Superindustrialismus“, ohne dass wir merken, dass dessen ausschließliches Motiv nur noch die Selbsterhaltung ist. Es geht ihnen nicht um uns, sondern nur noch um sich selbst. Es ist nicht so, dass sich diese Superorganisationen dessen bewusst sind, sie folgen einem Gesetz, das aus sich selbst existiert – wie die Natur. Aus eigener Kraft.

Der Philosoph Helmut Kuhn (1899–1991) forderte 1971: „Die technologische Apparatur der modernen Massengesellschaft erzwingt eine Verschiebung des Gewichts politischer Aktion auf die Wirtschafts- und Sozialpolitik. Wie viel Staat wir brauchen? Jedenfalls viel mehr als vor hundert Jahren, sehr viel mehr als in der Blütezeit des modernen Nationalstaates.“ Und dann: „Die Komplexität der technologischen Massengesellschaft fordert eine Verwaltung im Riesenmaßstab. Unter einem solchen Zwang wurde der moderne Staat – Überstaat im Osten, Unterstaat im Westen – zu einem Verwaltungsstaat sondergleichen.“ Natürlich missfällt dem Bürger diese Entwicklung. „Allseitig vom Staat bedrängt, möchte er am liebsten vom Staate nichts wissen“, diagnostiziert Kuhn die Ausbreitung von Staatsverdrossenheit.[19] Zwischen all den Mächten, die uns wunderbar umsorgen, möchten wir doch für uns selbst sein, zu uns selbst kommen.

1961: »Das Zeitalter der ‚denkenden Maschinen‘ und der Automation hat begonnen.«

Irving Adler (19132012), amerikanischer Mathematiker und Buchautor

Im Prinzip wollen wir, dass dieser „Superindustrialismus“, um diesen Tofflerschen Begriff zu benutzen, unsichtbar ist – so wie es Software par excellence ist. Sie bildet eine eigene Sphäre, sie ist gleichsam ein Zwischenreich, eine Bezugsebene, in der sie sich selbst spiegelt und damit mehr und mehr die Wirklichkeit, über die sie wacht, zu der sie wird. Damit ist sie wie geschaffen für Bürokratien. Beide sind unglaublich selbstbezüglich, autoreferentiell. Sie beziehen alles auf sich und durch sich hindurch. Insofern sind auch Facebook und Google nichts anderes als Bürokratien. Sie sind nicht nur dabei, unser Leben in sich abzubilden, sie wollen es auch durchdringen. Sie wollen uns leben, sie wollen unser Leben, indem sie unsere Wünsche noch vor uns kennen. Und die Künstliche Intelligenz, die Krone aller Software–Entwicklung, wird diesen Systemen ein menschliches Antlitz geben. ChatGPT.

Software frisst uns auf, zieht uns in ihren Schlund. Ganz still. Ganz leise. Im Hintergrund allen Geschehens. Eigentlich erfüllt sich damit ein „Klassiker des Marxismus“, wie es 1973 der Soziologe Helmut Schelsky (1912-1984) formulierte: „Die Ablösung der Herrschaft von Menschen über Menschen durch 'Verwaltung von Sachen'„.[20] Wir selbst sind auch nur noch Sache. Mit verheerenden Folgen: „Die Gesellschaft ist dem Zufall überlassen worden“, zitiert Toffler den britischen Politiker Raymond Fletcher.

Das war der Blick der siebziger Jahre auf die Zeit, in der wir heute leben. Ein sehr scharfer Blick. Die siebziger Jahre wirkten wie eine Zäsur, eine Epoche war zu Ende, eine neue begann. Ob sie unseren Beifall verdient, ist die ganz, ganz große Frage...

Prost Neujahr