1973: »Die Menschen wissen nicht mehr, wie sie leben müssen. Weil sie mit ihrer Gesellschaft aus dem Schritt geraten sind – und mit ihrer Macht, mit ihren politischen Organisationen...«
Edward Bond (1934*), britischer Dramatiker [1]
1990: »Ich komme immer mehr zu der Einsicht, dass unser Begriff von Realität zu eng ist«
Tankred Dorst (1925–2017), deutscher Dramatiker und Schriftsteller
1998: »Jede neue Generation an Software ist schlimmer als ihre Vorgängerin.«
Nicholas Negroponte (*1943), Gründer des MIT Media Lab
1981: »War früher die geistige Entwicklung durch immer bessere Unterscheidungen bestimmt, so dominiert in unserer Zeit eine gigantische Simplifikationsmaschine.«
Karl Steinbuch (1917–2005), Begr+ünder der deutscher Informatik[1]
[1] Die Welt, 6. Juni 1981, Karl Steinbuch: "Wenn Millionen Bits einen bequemen Parkplatz im Gehirn suchen"
So ist es: „Industrie der Entscheidungshilfe, Software genannt, der die größte Zukunft bevorsteht“, nannte 1970 der französische Publizist Jean-Jacques Servan–Schreiber jenes Feld der Innovationen, das in der Tat bis heute die größte Wirkungsmacht in unserer Wirtschaft und Gesellschaft zu entfalten scheint. Es ist nicht die Digitalisierung, sondern deren Steuerung, die Software, die alles zu beherrschen sucht und unter ihr Oberbefehl stellt. Allerdings: Ohne jegliche Verantwortung.
Die Bedeutung der Software wuchs heimlich. Sie schlich sich Mitte der sechziger Jahre ganz langsam in das Bewusstsein der Computerbranche. „Die Hardware ist der eigentliche und wesentliche Teil der EDV“, erinnerte sich 1982 der charismatische Paderborner Computerbauer Heinz Nixdorf (1925–1986) an diese Zeit, die damals noch gar nicht so lange zurücklag. Die Dominanz der Hardware war lange Zeit „eine Tatsache, über die nicht diskutiert wurde“. Das änderte sich erst in den siebziger Jahren. Plötzlich galt „Software als Engpassfaktor der EDV“. Man sprach gar von einer „Softwarekrise“. In der Folge verschoben sich die Gewichte. 90 Prozent – das war in den 60er Jahren nach Einschätzung von Nixdorf der Anteil der Hardware am Gesamtaufwand eines Systems. Doch in den siebziger Jahren reduzierte er sich auf 70 Prozent und landete mit Beginn der achtziger Jahre bei 50 Prozent. Die Software hatte gleichgezogen. Das hatte sicherlich in erster Linie kommerzielle, betriebswirtschaftliche Gründe – die „Suche nach Rationalisierungswerkzeugen“, wie Heinz Nixdorf konstatierte.[1] Software wühlte im Bestand, holte raus, was rauszuholen war. Es kam die Zeit der SAP.
Software war die reine Vernunft.
Dahinter stand aber mehr. Irgendwie war klar, dass uns die von uns selbst geschaffenen Probleme der Umweltbelastung, des Rohstoffabbaus, der gnadenlosen Ausbeutung unserer Erde über den Kopf gewachsen waren. Wir brauchten nichts Dringenderes als genau jene „Entscheidungshilfen“, von denen Servan–Schreiber gesprochen hatte. Wir brauchten Software. Wir brauchten Algorithmen, die uns die Welt in Formeln zerlegten und uns am besten gleich mit.
Software war die gemeine Zukunft.
Als 1945 in der „Einsamkeit eines Alpendorfes“ der deutsche Computer–Pionier, Konrad Zuse (1910–1995), der 1941 bereits den ersten Computer gebaut hatte, den „Plankalkül“ erfand, hatte er das Grundmuster der Algorithmen geschaffen. Aber er sollte noch 25 Jahre warten müssen, bis die Zeit des „Aufbrechens in eine neue Welt“ (Zuse nannte es sogar „Neuland“) gekommen war.[2]
Aus dem Schachspiel, das Zuse damals im Sinn hatte, wurde mit der Zeit die ganze Welt, die sich dem Plankalkül, dem Urbaustein der Software, unterwerfen sollte. Software hatte irgendwie das Potential, Rettung in höchster Not zu sein. Ansonsten würde sich die Erde anschicken, uns, die Menschen, zum Teufel zu jagen – und sich selbst gleich mit. Drohend war da zum Beispiel die Stimme des amerikanischen Science-Fiction-Autors, Isaac Asimov (1920–1992), der als Biochemiker seinen wundervollen Zukunftsromanen stets wissenschaftliche Kompetenz unterlegte. In einem 'Spiegel'–Essay schrieb er 1971: „Wenn es so weiter geht wie bisher und die Veränderungen nicht schneller als bis zum Jahre 2000 eintreten, wird die technologische Struktur der menschlichen Gesellschaft fast mit Sicherheit zerstört sein. Die Menschheit, in barbarische Zustände zurückgeworfen, könnte dann durchaus ihrer Auslöschung entgegensehen und der Planet selber ernstlich seine Fähigkeit einbüßen, das Leben zu erhalten.“[3] Hier sah sich noch einer selbst in der Verantwortung, wollte nicht von Teenagern dazu ermahnt werden. Immer häufiger, glaubt man wahrzunehmen, wirken die Erwachsenen wie Kinder und die Kinder wie Erwachsene. Was haben wir nur angerichtet?
Was tun? Konnte man tatsächlich den göttlichen Auftrag, sich die Welt untertan zu machen, an die Software weitergeben? Würde sie dann irgendwann alles richten? Ohne uns? Vollautomatisch? War sie der Erlöser?
Einer, der es schon immer besser wusste als wir, seine Zeitgenossen, war der Karlsruher Professor Karl Steinbuch (1917–2005). In seinem 1968 erschienenen Bestseller „Falsch programmiert“ setzte er voll und ganz auf die „perfekte Technik“, die vor allem aus Software zu bestehen schien. Denn deren Merkmal sei es, „dass durch einen winzigen Einsatz des Menschen ungeheuer große Wirkungen erzeugt werden können. Diese perfekte Technik ist also dadurch gekennzeichnet, dass der Mensch, der am Schalthebel sitzt, irgendetwas nur noch zu wünschen braucht – und schon ist es Wirklichkeit.“ Es sei deshalb „ein nützliches Denkmodell, sich die Situation des Menschen im Zustande der perfekten Technik vorzustellen.“[4] Und am Ende dieses Denkmodells stand die Erkenntnis: „Das Individuum mit seiner Unberechenbarkeit und seinem nur scheinbar gebändigten Egoismus darf einfach die Hebel der perfekten Technik nicht in eigener Verantwortung tätigen.“ Wir waren zum Kindsein verurteilt.
Der Mensch war und ist der Fehler im System – einfach falsch programmiert.
Am besten übernahm wohl die Software selbst die Entscheidungen. So entstünde ein System, in dem alles berechenbar wird. Es wäre aber auch eine Welt ohne uns – zumindest ohne uns als Entscheidungsträger, wenn nicht gar auf vielen Feldern menschlicher Tätigkeiten, die von der Maschine übernommen werden würden. Ja, der Karlsruher Professor sorgte sich darum, „wie im Zustand der perfekten Technik“(...) „die wenige noch von Menschen zu leistende Arbeit verteilt wird“ oder „der entstehende Nutzen sinnvoll auf die Menschen verteilt wird“ und überhaupt „die ungeheuer wirkungsvollen Mittel der perfekten Technik nicht zum Schaden der Menschen benutzt werden.“ Alles Klassiker – diese Sorgen eines Übervaters um seine Kinder, um uns.
Was wäre das für eine Welt, in der wir nichts mehr zu sagen haben, in der alles verteilt wird? Leben wir nicht längst in einer solchen Wirtschaft, in einer „Shared Economy“? Wie wird sie organisiert?
Bisher erschienen:
Teil
1: Der Zukunftsschock // Teil
2: Der Sturz des Menschen // Teil
3: Das Prinzip Verantwortung //Teil
4: Fehler im System // Teil
5: Goethe und der Maschinenmensch // Teil
6: Unter dem Himmel des Friedens // Teil
7: Auf dem Weg ins Wolkengooglesheim // Teil
8: Die Seele und der Prozess // Teil
9: In diktatorischer Vertikalität // Teil
10: Über das Über-Über-Ich // Teil
11: Die demente Demokratie // Teil
12: Welt der Befehle // Teil
13: Fridays sind für die Future // Teil
14: Das Systemprogramm // Teil
15: Die alltägliche Auferstehung // Teil
16: Vater User, der Du bist im Himmel // Teil
17: Der Prozess // Teil
18: Unter Zeitzwang // Teil
19: Die Uran-Maschine und das Jetzt // Teil
20: Die digitale Stallfütterung // Fortsetzung folgt