Samstag, 6. Januar 2024

Gedankenexperimente aus tausend und einer Seite (Teil 2)

 »Ich warte auf Antwort. Beeil dich gefälligst!«

                        1988: Dagobert Duck an seinen Beratercomputer in dem Comic „Alles Gute, Donald

Der Sturz des Menschen...

Von Raimund Vollmer 

 

In der „Magna Charta für das Informationszeitalter“, dessen großes, englisches Vorbild 2015 seinen 800. Geburtstag feiert, heißt es 1994: „Das zentrale Ereignis des 20. Jahrhunderts ist der Sturz der Materie. In Technik, Wirtschaft und Politik hat der Wohlstand in Form materieller Ressourcen an Bedeutung verloren. Überall gewinnen die Kräfte des Geistes die Oberhand über die rohe Macht der Dinge.“[1]

Kevin Kelly, Journalist bei der Zeitschrift „Wired“, stieß 1998 in seinem Buch »New Rules of the New Economy“ nach: „Die Welt des Weichen – die Welt der nicht berührbaren Güter, der Medien, der Software und der Dienstleistungen – werden bald über die Welt des Harten bestimmen – die Welt der Realität, der Atome, der Gegenstände, des Stahls und des Öls und der harten Arbeit, die im Schweiße des Angesichts geleistet wird.“[2]

Wer oder was sind nun diese „Kräfte des Geistes“? Sind es die kalten Befehle, die sich in den Programmen längst verselbständigt haben? Ist es immer noch der menschliche, gefühlsbetonte Geist? Oder ist es die Cloud, die schon mit ihrem Sprachbild, der Wolke, weich und kuschelig erscheint, die alles umhüllt und uns einnebelt? Sind wir es, die Menschen, die befehlen, oder sind wir nur noch die Ausführenden, die sturen Befehlsempfänger? Geht es im 21. Jahrhundert nicht mehr um den Sturz der Materie, sondern um den des Menschen?

Nach einer Studie der Oxford University könnten in den nächsten zwei Jahrzehnten 47 Prozent aller Jobs automatisiert werden.[3] Es wird also enger für uns. Aber braucht eine automatisierte Welt nicht umso mehr den menschlichen Geist, seine Intelligenz?

Arthur C. Clarke, Wissenschaftler und Autor des 1968 von Stanley Kubrick verfilmten Buches „Odyssee 2001“, erklärte im Realjahr 2001, dass wir im Jahr 2020 einen Rechner haben werden, der so intelligent sein wird wie sein legendärer Computer HAL, allerdings mit einer massiven Einschränkung. Er wird kein eigenes Bewusstsein haben.[4] (H–A–L sind übrigens die drei Buchstaben, die im Alphabet der Kombination I–B–M vorangehen, was aber eher Zufall als beabsichtigt war. So entstehen Mythen.)

Dass der Weg auch über eine seelenlose Intelligenz gehen könne, hatte der englische Mathematiker Alan Turing bereits 1950 vorgeschlagen und einen entsprechenden Test definiert. Wenn eine Mehrheit etwas für intelligent hält, ist es dies auch – gleichgültig, ob mit oder ohne eigenes Bewusstsein. Es geht also nicht darum, ob etwas intelligent ist, sondern nur darum, ob wir es dafür halten. Ein Taschenspielertrick in den Augen der Kritiker. Aber er erleichtert das Geschäft mit der Künstlichen Intelligenz, weil er zudem die unbequeme Frage nach dem Bewusstsein ausklammert. ChatGPT – ist vor diesem Hintergrund ein Trickbetrüger, kann es aber nicht sein, da es kein Mensch ist. Es ist ein Geist aus reiner Software und Daten.

Firmen wie Google oder Facebook sind offensichtlich davon überzeugt, dass der künstlichen Intelligenz die Zukunft gehört. Für lumpige 400 Millionen Dollar erwarb das Suchmaschinenimperium 2014 das Start-up-Unternehmen DeepMind und schnappte es damit Facebook vor der Nase weg. Die Welt der Lernenden Maschinen entstand.

Für Marvin Minsky, dem Vater der Künstlichen Intelligenz am MIT, war diese Lernfähigkeit schon in den 80er Jahren die Voraussetzung dafür, dass eines Tages die Rechner selbst „diese pingelige Arbeit der Programmierung“ übernehmen. Diese Art zu lernen würde nicht darin bestehen, dass die Rechner sich selbst Anwendungen schreiben, sondern sie würden gleichsam Agenten aussenden, die in anderen Systemen nach Lösungen suchen. Und dabei treten die Maschinen in einen intensiven Austausch untereinander. So entstünde eine „Society of Mind“, in der sich die Systeme permanent optimieren. Natürlich ohne menschlichen Eingriff.

In den siebziger Jahren hatte Minsky die Idee der Society of  Mind entwickelt und propagiert. Was in ihr allein zählt, ist das „Wissen über Wissen“, ist also das, von dem wir annehmen, dass es ein Fall für unsere Oligarchen des Netzes sei.[5]

 

         „Mr. Watson – come here – I want to see you.“

                        10. März 1876: Graham Bells erste Worte ins Telefon

...und der Aufstieg der Maschine

„Soft Artificial Intelligence ist plötzlich überall“, eröffnete im November 2014 das US-Magazin Vanity Fair einen Grundsatz-Artikel über das Thema. Der Autor, Kurt Andersen, beschreibt darin eine Zukunft, in der wir, die Menschen, von Maschinen abgelöst werden, von Maschinen, die intelligenter sind als wir. Wann das geschehen wird, ist unklar – und doch irgendwie zeitlich umrissen: in den nächsten 20 bis 100 Jahren. Dabei ist nicht nur entscheidend, wann Maschinen intelligenter sind als wir, sondern auch der Zeitpunkt, von dem aus sich die Künstliche Intelligenz ohne unser Zutun selbst verbessern kann.

Offenbar stehen wir kurz davor.

Dieser einzigartige Augenblick in der Geschichte wird „Singularity“ genannt. Nachdem wir diesen Punkt erreicht hätten, wäre die Entwicklung derart rasant, dass wir im 21. Jahrhundert so viel an Fortschritt erzielen würden wie bislang in 20.000 Jahren. So zitiert Andersen eine Aussage des Futuristen Ray Kurzweil, der als der prominenteste Vertreter der Singularity gilt.

„In den nächsten vier Jahrzehnten“ werden „Geräte smarter, fähiger und sachkundiger werden als der Mensch“, erwartet der Amerikaner Aaron Goldberg, der seit den 70er Jahren als Analyst die IT–Branche beobachtet. Nicht nur für ihn ist es denkbar, dass sich der Mensch in Zukunft der Technologie unterwerfen wird – oder von ihr unterworfen wird. Das hatte schon Mitte des vergangenen Jahrhunderts der geniale amerikanische Mathematiker Johann von Neumann erwartet. Roboter und Elektronengehirn seien für ihn „Vorboten einer neuen Zivilisation (...), dazu berufen, den Menschen auf der Erde abzulösen“, notierte die Journalistin Vera Graaf 1971 in ihrem ausgezeichneten Buch „Homo Futurus“.[6] Minsky stellte sich auch dieser Frage nach der Rivalität von Mensch und Maschine und meinte vor 30 Jahren, dass wir uns irgendwann entscheiden müssten, ob wir aus der Maschine „Wettbewerber machen oder sie als eine von uns betrachten“.[7] Es ist also ein altes Thema, das alle 20–30 Jahre hochgepuscht wird. Aufgeschreckt war im Oktober 2014 Elon Musk, der eigentlich in Sachen Technologie optimistische Gründer von Tesla. Auf einer Tagung am MIT sah er so etwas wie das „Heraufbeschwören eines Dämons“ in der Weiterentwicklung der Künstlichen Intelligenz, in der er einen Rivalen des Menschen wittert. Der inuzwischen keider verstorbene Astrophysiker Steve Hawkings mutmaßt, das die volle Ausgestaltung der Artificial Intelligence „das Ende der Menschheit“ bedeuten könne. Dem Wirtschaftsmagazin The Economist war das Thema sogar eine Titelgeschichte wert.[8]

Das ist eine harte Nuss, die wir da zu knacken haben. Über was wir indes reden, wenn wir uns mit künstlicher Intelligenz beschäftigen, ist vor allem mit der Fähigkeit der Maschine zu lernen. Mehr nicht. Kann es indes sein, dass all diese Propheten diese Fähigkeit verwechseln mit der Fähigkeit zu denken? „Das Prinzip des Lernens ist nicht an das Bewusstsein gebunden“, meinte bereits 1953 der österreichische Computerpionier Heinz Zemanek.[9] Aber möglicherweise läuft es ganz genau darauf hinaus. Die Maschine lernt – und wir liefern das Bewusstsein. Sie bliebe unser Werkzeug, eine Hoffnung, auf die der Science-Fiction-Meister Isaac Asimov setzte. Er, der die Roboter–Gesetze definierte, warnte aber davor zu prognostizieren, was „Computer nicht tun können. Es kann sein, dass man sich höchstwahrscheinlich irrt“.[10] Sie könnten uns Menschen also durchaus jenes kleine, völlig unregulierte Reservat nehmen, dem wir letztlich all unsere Schöpfungen zu verdanken haben: Kreativität, Phantasie und Imagination.

Es kann aber auch sein, dass dieses Reservat einfach nur zerstört wird.

Vielleicht bedient sich eines nicht allzu fernen Tages die Maschine sogar unseres Bewusstseins, wir werden selbst zur Maschine. Ein großes Thema, das für die Labors immer näher rückt Ein großes Thema, das schon den 1974 verstorbenen amerikanischen Computerpionier Vannevar Bush bewegte. Er meinte, dass eines Tages jeder von uns einen Computer in sich tragen würde. Alvin Toffler hingegen befand, dass es die Maschine sei, die uns in sich tragen werde. Er konnte sich jedenfalls 1970 „ein körperloses Gehirn“ vorstellen. „Vielleicht wird es dann möglich, ein menschliches Gehirn an eine Reihe von künstlichen Sensoren, Rezeptoren und anderen Apparaturen anzuschließen und das so entstandene Gewirr aus Drähten und Plastikteilen 'Mensch' zu nennen.“[11]

„Manche wie der Google–Mitbegründer Larry Page erwarten, das Internet werde irgendwann lebendig werden, während andere wie der Wirtschaftshistoriker George Dyson meinen, das sei möglicherweise schon geschehen“, berichtete uns der Internet-Guru Jaron Lanier 2010 in seinem Buch „Gadget. Warum die Zukunft uns noch braucht“[12]

Nun gut. Vielleicht werden wir am Ende sogar unser eigenes Bewusstsein ganz einfach fallen lassen.

Guten Morgen, Mensch. Ein neuer Tag beginnt.

 

4 Kommentare:

Analüst hat gesagt…

Arthur C. Clarke: “I would like to demolish one annoying and persistent myth, which started soon after the movie was released. As is clearly stated in the novel (Chapter 16[1]), HAL stands for Heuristically programmed ALgorithmic computer. […] However, once a week some character spots the fact that HAL is one letter ahead of IBM, and promptly assumes that Stanley and I were taking a crack at that estimable institution.”

Quelle Arthur C. Clarke: The Lost Worlds of 2001. The Ultimate Log of the Ultimate Trip. Signet, New York 1972, S. 78.

Anonym hat gesagt…

Treffen sich ein Neurowissenschaftler, ein Philosoph und ein Informatiker und diskutieren darüber, was Bewusstsein ist. Der Philosoph sagt: "Bewusstsein ist die Essenz unserer Existenz und das Fenster zur Wahrheit." Der Neurowissenschaftler erwidert: "Es ist eher ein biologischer Prozess in unserem Gehirn." Der Informatiker überlegt kurz und sagt dann: "Das klingt wie ein Bug, nicht wie ein Feature."

Anonym hat gesagt…

https://arxiv.org/abs/2308.08708

Raimund Vollmer hat gesagt…

Danke für die Kommentare. Das inspiriert. Danke.