DER ZUKUNFTSSCHOCK
Am 2. Juni 2019 hatte ich das hier vorliegende Kapitel verlassen, jetzt habe ich es, bis auf wenige redaktionelle Korrekturen, eigentlich nur um ein einziges Wort ergänzt: ChatGPT. Irgendwie ist das der vorerst letzte Zukunftsschock, der uns im November 2022 ereilte. Das gesamte Manuskript, das längst die Marke von 1000 Seiten übersteigt und aus dem ich dieses Kapitel herausgegriffen habe, steht unter der Überschrift "Ohne uns - Gibt es ein Leben nach dem Jetzt?" Diese Frage hat so viele Aspekte in mir geweckt, dass ich mich in immer mehr Themen regelrecht hineinlas und hineinfraß. Ein Leben ohne die Gedanken, die mir bei meinen Ausflügen begegneten, kann ich mir gar nicht mehr vorstellen. Es gibt so viele faszinierende Menschen mit so anregenden Gedanken und Phantasien, dass ich darüber mehr staune als über die gesamte Technik.
Im ersten Kapitel des Manuskripts, das ich in einen 20 minütigen Film verwandelt habe, stelle ich die These voran, dass jedes Jahrhundert immer schon 25 Jahre zuvor begann (Aussage von Peter F. Drucker/Tom Wolfe u.a.). Ja, dass man sogar sagen kann, dass dieses Jahrtausend in Wahrheit auch schon um 1750 (mit der Aufklärung, der französischen, der amerikanischen und der industriellen Revolution) begonnen hat. Deshalb ist vielleicht der 1. Januar 1975, mit dem ich heute beginne, besonders interessant...
Zu meiner Person: Mein Name ist Raimund Vollmer (Jahrgang 1952, geboren in Dortmund) Ich habe vor 50 Jahren, im Sommer 1973, als Volontär bei der Westdeutschen Zeitung/Düsseldorf Nachrichten begonnen. Zwei Jahre später wurde ich Redakteur bei der "Computer Zeitung" ohne auch nur die geringste Ahnung von diesem Titel-Gerät zu haben. Manchmal habe ich den Eindruck, dass dies noch heute stimmt, allerdings auf sehr viel höherem Niveau. Wahrscheinlich haben wir auch keine Ahnung von uns Menschen, was ich nach inzwischen 71 Jahren Lebenszeit bestätigen würde. Aber das macht es gerade so spannend. Ich bin - trotz aller Kritik - immer noch fasziniert von dieser Technik.
1978 wurde ich Chefredakteur des Computer Magazins (das ich ebenso überlebt habe wie die CZ). Seit 1981 lebe ich als freier Journalist in Reutlingen bei Stuttgart, verheiratet, drei Töchter, vier Enkelinnen, zwei Enkel. Ich bin seit mehr als vier Jahrzehnten Mitglied im Deutschen Journalisten-Verband, der mir aber zunehmend fremd wird. - Ich habe meine Texte nicht gegendert.
1989: »Nichts verändert die Gesellschaft in all ihren Äußerungsformen und auf allen Ebenen so sehr wie die Technik.«
Bernd Guggenberger (*1949), deutscher Politikwissenschaftler
Am 1. Januar 1975 erschien auf der Titelseite der amerikanischen Fachzeitschrift ‚Popular Electronics‘ ein Bild des ersten Heimcomputers der Welt. Sein Name: Altair. Wie der ferne Stern. Und die, die ihn als erste sahen und richtig deuteten, waren die beiden Amerikaner Paul Allen und Bill Gates. Inspiriert von dieser Titelgeschichte starteten sie am 4. April 1975 das bald mit seinen Befehlssätzen auf nahezu allen Computern präsente Projekt Microsoft.
Der Altair war gelandet. „Das Jahr 1975 markiert einen Wendepunkt“, schrieb die kluge Soziologin Sherry Turkle (*1948) neun Jahre später in ihrem Bestseller „Die Wunschmaschine“, in dem sie uns „Vom Entstehen der Computerkultur“ berichtet. Und der Wendepunkt war diese kleine „Wunschmaschine“. [1]
Das neue Jahrhundert hatte begonnen, der Start einer neuen Ära. Gerade rechtzeitig. Denn es herrschte Endzeitstimmung, wenngleich aus höchst unterschiedlichen Beweggründen. Der Journalist Alvin Toffler (1928–2016), der bald der meistzitierte Zukunftsforscher der Welt wurde, hatte 1970 seinen Weltbestseller „Der Zukunftsschock“ veröffentlicht. Darin meinte er: Was sich momentan vor unseren Augen abspiele, sei „nichts weniger als die zweite große Trennungslinie der Menschheitsgeschichte“. Mit dem Übergang vom „Natur- zum Kulturzustand“ habe die Menschheit den „ersten großen Bruch“ vollzogen. Nun aber befänden wir uns in einer Epoche, die „weit umfassender, tiefgreifender und bedeutsamer sei als eine industrielle Revolution“. Alles verändere sich nicht nur viel zu schnell, sondern obendrein mit steigender Geschwindigkeit.[2] Ein Gefühl, das uns bis heute immer wieder beschleicht, egal, ob es nun objektiv stimmt oder nur subjektiv wahrgenommen wird.
Toffler griff mit seinem fast 400 Seiten starken, mit Beispielen prall gefülltem Buch weit in die Zukunft. Selbst der deutsche Zukunftsforscher Robert Jungk (1913–1994) war beeindruckt von diesem Werk: „Noch nie ist mit einer solchen Überfülle von Fakten gezeigt worden, wie technischer Fortschritt, der über den Produkten die Produzenten vernachlässigte, zu einer kollektiven Erkrankung führte, für die der Autor den Terminus 'Zukunftsschock' fand“, urteilte Jungk in einer Buchbesprechung im 'Spiegel', das noch Nachrichtenmagazin genannt wurde.[3]
Um uns zu zeigen, was mit uns passiert, reiste Toffler weit zurück in die Vergangenheit und rechnete uns vor: Rund 800 Lebensspannen zu jeweils 62 Jahren umfassen die letzten 50.000 Jahre der Menschheit. 650 Lebensspannen haben wir in Höhlen verbracht, doch erst in den letzten 150 Lebensspannen haben wir so richtig Fahrt aufgenommen – in einem Maße, dass wir uns fragen müssen, ob wir intellektuell und konstitutionell überhaupt für eine solche Beschleunigung geschaffen seien.
Sieben Jahre später sollte Paul Virilio (1932–2018), französischer Philosoph, in seinem Essay „Vitesse et Politique“ davon sprechen, dass der die Macht habe, der die Geschwindigkeit kontrolliere. „Lebendig sein heißt Geschwindigkeit sein“, hatte er offenbar Tofflers Thesen weiter getrieben.[4] Und 2002 meinte er, dass „Schnelligkeit keine Frage der Zeit zwischen zwei Punkten“ sei, sondern eine eigene Form von Herrschaft darstelle. Sie sei „eine Gewalt an sich“.[5]
Aber sind wir dieser Gewalt überhaupt gewachsen? Das Internet der rasenden Dinge sagt Nein. Und nur etwas ganz anderes sollte uns viele Jahre später stoppen können: ein Virus namens Corona. Full stop.
2001: »Wir sind Menschen, keine Maschinen«
Didier Sicard (*1938), Präsident des Nationalen Beratungskommitees für Ethik in Frankreich
Damals wie heute wird sichtbar: Der Mensch erscheint als eine Fehlkonstruktion. Er ist viel zu schwach, um seine eigene Zukunft überhaupt meistern zu können. Er kommt mit sich selbst nicht mehr mit. Ganz anders die robusten Roboter, „die Funktionen ausüben, die normalerweise dem Menschen zugesprochen werden oder als das erscheinen, was man fast schon als menschliche Intelligenz bezeichnen könnte“, formulierte das populäre englischsprachige Wörterbuch „Webster's“ in den siebziger Jahren.
Ist der schwache Mensch also dazu verurteilt, sein Schicksal an ein künstliches Gehirn abzugeben? „Ein populäres Thema der Science–fiction ist die Story von einem gigantischen Computer, der die ganze Welt übernimmt“, meinte 1980 der Wissenschaftler Thomas B. Sheridan (*1929) in der vom amerikanischen Massachusetts Institute of Technology (MIT) herausgegebenen Zeitschrift „Technology Review“.[6] Von „modernen Digitalrechnern“ sprach bereits 1964 der IBM–Wissenschaftler Arthur L. Samuel (1901–1990). Und er war sicher, dass im Jahr 1985 „fast jeder seine eigene Rechenanlage besitzen wird“. So würde dies zumindest in der „kapitalistischen Welt“ sein, die nun einmal dezentral organisiert sei. Im zentralistisch geplanten Kommunismus hingegen würde „jedermann über einen eigenen Anschluss an eine oder mehrere große, regierungseigene Rechenanlagen“ verfügen, so dass die Regierung auf keinen Fall die Kontrolle über die Nutzung der Maschinen verliere. Er sah auch schon das Handy voraus, das dem Menschen nicht nur zum Telefonieren diene, sondern auch als Instrument, um auf diese Weise „mit seinem Rechner Verbindung“ aufnehmen. zu können. Er träumte mit Blick auf das Jahr 1985 von automatischen Übersetzungsprogrammen, die als Synchrondolmetscher selbst dem gesprochenem Wort gewachsen seien. „Bibliotheken mit richtigen Büchern“ würde es nur noch in öffentlichen Bibliotheken geben – und er sah vor sich das papierlose Büro.[7]
1992: »Der Held des 20. Jahrhunderts ist eine Null.«
Überschrift in der Frankfurter Allgemeine Zeitung am 20. Juni 1992
Auch wenn die Prognosen 1985 noch längst nicht erfüllt waren (und zum Teil auch heute noch nicht sind), war der Glaube an den technischen Fortschritt nach wie vor ungebrochen – zumindest bei den technisch interessierten Intellektuellen. Diese machten sogar unglaublichen Druck – wie zum Beispiel 1983 die beiden Amerikaner Edward A. Feigenbaum (*1936) und Pamela McCorduck (*1940) in ihrem Buch „Die fünfte Computer-Generation“. Hier bauten sie das Thema Künstliche Intelligenz zu einem erbarmungslosen Wettlauf zwischen den USA und Japan auf – so wie es heute zwischen China und dem Rest der Welt diagnostiziert wird. Es ging damals wie heute um die „Wissenssysteme“, die – mit artifizieller Intelligenz ausgestattet – das Merkmal einer „postindustriellen Gesellschaft“ werden sollten, einem Begriff den 1973 der amerikanische Journalist und Soziologe Daniel Bell (1919–2011) zwar nicht erfunden, aber berühmt gemacht hatte.
1984: »Wir sind offenbar unfähig,
die Natur unserer
eigenen Denkvorgänge zu verstehen.«
Douglas R. Hofstadter (*1945), amerikanischer Kognitionswissenschaftler
„Nun sind wir auf dem Weg zur nächsten Stufe – dem Zeitalter intelligenter Maschinen“, schrieben Feigenbaum und McCorduck mit der Atemlosigkeit, die allen technisch getakteten Zukunftsforschern eigen zu sein scheint. Im selben Jahr, 1983, prophezeite der deutsche Fernseh-Journalist Dieter Balkhausen (1937–2018) mit ähnlichem Pathos, dass „der Großcomputer, der das gesamte Wissen der Menschheit zu speichern in der Lage ist, keine Utopie“ mehr sei.[8] Ja, er sah eine Fülle von Novitäten mit Blick auf das Jahr 2000 auf uns zurollen. So erwartete er das Aufkommen von Biochips, „die in den menschlichen Körper eingepflanzt würden und deformierte und untüchtige Sinnesorgane ersetzen sowie defekte Nervenbahnen überbrücken könnten.“
Taube, die wieder hören, Stumme, die wieder sprechen, Blinde, die wieder sehen, Lahme, die wieder gehen, und Demente, die nichts mehr vergessen – was für eine Zukunft! Der amerikanische Molekularbiologe Joshua Lederberg (1925–2008), immerhin Nobelpreisträger, meinte in den siebziger Jahren, dass wir die Gehirnhöhle des Menschen vergrößern müssten, damit unsere grauen Zellen genügend Platz zum Wachsen hätten, um mit den neuen Anforderungen an das Leben zurecht zu kommen.
Vielleicht werden wir aber größere Schädel aus einem ganz anderen Grund benötigen. Der Wissenschaftsautor Johannes von Buttlar hatte bereits 1979 in seinem Buch „Der Supermensch“ von Vorschlägen berichtet, unsere Gehirnleistung durch Chips zu verstärken. „Der im Kopf implantierte Computer wäre so natürlicher Teil des menschlichen Gehirns“, schrieb er.[9]
Die meisten Erwartungen gingen noch nicht so weit, waren dafür aber näher an der Lebenswelt von heute. Sheridan z.B. leitete damals das Mensch-Maschine-Labor am MIT. Computer würden „unser alltägliches Leben durchdringen und uns auf mannigfaltige Weise von ihnen abhängig machen.“ Heinz Zemanek (1920–2014), österreichisches Computer–Genie, sprach – man staune – 1980 wortwörtlich von einer „Zukunft der verwobenen Netze der Netze“, bei dem die „Dichte des Energie–und Fernsprechnetzes um Größenordnungen überholt werde“ und jeder „Zugriff zu gigantischen Datenbanken“ haben werde.[10] Er nannte sie „digitale Informationsader“, lange bevor die Lobbyisten der IT und die Politiker uns mit dem Begriff „Digitalisierung“ zu schockinstrumentalisieren versuchten. Zemanek erwartete bei dem, was auf uns zukäme, „ein Bild von ungeheurer Tiefe und Vielfalt“.
Er sah wie Sheridan aber auch die Bedrohungen, von denen der Amerikaner sieben auflistete, Bedrohungen, mit denen uns die Allgegenwart der Computer konfrontieren werde. Die siebte dieser Bedrohungen sei auch die größte, denn sie bestehe in der Angst davor, dass die Maschine intelligenter werden könne als wir.
Es ist eine Angst, der dann 1973 der Harvard–Professor Lawrence H. Tribe (*1941) die Krone aufsetzte, als er in einer 44seitigen Schrift die drei Zukunftsschocks beschrieb, die die Menschen in den vergangenen 500 Jahren zu meistern hatten – und auf die nun mit der Künstlichen Intelligenz eine vierte Disruption (Tribe nannte es „Diskontinuität“) lauerte.[11]
· Erst war es Nikolaus Kopernikus (1473–1543), der mit seinen astronomischen Erkenntnissen unsere Erde aus dem Zentrum des Universums katapultierte.
· Dann war es Charles Darwin (1809–1882), der mit seiner Evolutionstheorie unser nächstes Weltbild zerstörte.
· Den dritten Zukunftsschock versetzte uns Sigmund Freud (1856–1939) mit seiner Psychoanalyse, die unser Seelenleben in die Abgründe unserer Triebwelten schmetterte.
· Nun stünde die vierte Kränkung ins Haus – der Sturz vom Thron der Erkenntnis.
Schon der Brite Alan Turing (1912–1954), der Mann, der für die Entwicklung der Informatik bahnbrechend wirkte, hatte sich sehr intensiv und sehr systematisch mit diesen Themen beschäftigt. Er gilt mit seiner Frage „Können Computer denken?“ als einer der Begründer der Künstlichen Intelligenz. „Er beantwortete seine Frage nicht, sondern entwarf eine Simulationssituation, in der ein Computer die Aufgabe hat, einen Menschen über seine wahre Natur zu täuschen“, erläutert der Informatikprofessor Bernd Radig (*1944), dessen Spezialgebiet die Künstliche Intelligenz ist.[12] Um die Existenz künstlicher Intelligenz nachweisen zu können, erfand Turing einen nach ihm benannten Test, bei dem die Maschine im Dialog so überzeugend wirkt, dass Menschen die Antworten ihres künstliches Gegenüber für menschlich halten. Bluffen gehört da momentan immer noch zum Geschäft.
Ob Turing selbst die immer wieder vorgestellten Testergebnisse akzeptiert hätte, ist fraglich, ob die Maschinen vor ihm selbst bestanden hätten, noch mehr. Er war umfassender interessiert. „Kann echte Intelligenz in jeder Art von Substrat – sei es organisch, elektronisch oder sonst wie beschaffen – enthalten sein?“, startete der amerikanische Informatik–Denker Douglas R. Hofstadter (*1945) in seinem Buch „Metamagicum“ einen ganzen Strauß von Fragen, mit denen sich das Superhirn Turing beschäftigt haben muss.[13] Im Internet der Dinge, wie es sich nun herausbildet, wird genau das gefordert sein – und jeder Fortschritt gefeiert. Von uns Menschen.
»Bevor
wir es überhaupt wert sind Menschen genannt zu werden,
hat uns die Wissenschaft
bereits zu Göttern gemacht.«
Jean Rostand (1894–1977), französischer Schriftsteller
Diese Themen lassen uns nicht mehr los, eigentlich begleiten sie uns schon seit der Zeit René Descartes (1596–1659) – und je mehr wir uns damit beschäftigen, desto verwirrter sind wir. Denn wir sind uns plötzlich selbst nicht mehr unser sicher. „Ist unser Gehirn eine Illusion?“ fragte sich 1991 Daniel Dennett (*1942), ein amerikanischer Philosoph und Kognitionswissenschaftler, und antwortete selbst mit einem klaren Ja. Der menschliche Verstand ist für ihn eine „virtuelle Maschine“, die sich einer parallelen Hardware bedient, „die uns die Evolution beschert hat.“ Sein britischer Kollege Gilbert Ryle (1900–1976) hatte schon 1949 ein ähnliches funktionales Verständnis von unserem Verstand entwickelt und den Ansatz von Descartes („Cogito ergo sum“) als ein „Gespenst in der Maschine“ veralbert.[14] Aber damit waren wir dieses Gespenst noch lange nicht los.
Im Gegenteil: wir suchen geradezu den Geist in der Maschine, ja, wir wollen es vielleicht sogar selbst sein. Das wäre dann sogar ein fünfter Zukunftsschock – diesmal allerdings für die Maschine. Wir erobern sie zurück.
Jeremy Rifkin (*1945), amerikanischer Zukunftspapst schlechthin, nahm 1983 ebenfalls Anleihen bei Nobelpreisträger Lederberg und meinte, dass wir nun in das Zeitalter der „Algeny“ einträten – einem Kunstbegriff in Analogie zur Alchemie, die beseelt war von der Vorstellung, durch pyrotechnische Zauberkunst Materie wie Blei in Gold zu verwandeln. Nun begänne die biotechnische Zauberkunst, das Spiel mit den Genen. Daraus würde ein Biocomputer entstehen, über den wir erstmals unsere Vorstellungen direkt in die Natur hineinprojizieren könnten. „Mit der Gen–Maschine ist es möglich, lebendes Material in neue Designs und Produkte zu übertragen – und zwar in ausreichender Stückzahl und mit genügend Geschwindigkeit, um einen kostenwirksamen Startpunkt für die biotechnische Wirtschaft zu haben“, meinte er 1983 in der Fachpublikation Datamation.[15]
Natürlich würden wir damit auch den Menschen optimieren, wobei es letztlich egal wäre, ob organisch oder anorganisch. Virilio sah eine Zeit, in der wir unsere Existenz mehr und mehr an technische Prothesen heften werden. Wir würden gleichsam unsere Lebensumstände an die der Behinderten anpassen.[16] Einer dieser Behinderten, der 2018 verstorbene Physiker Steve Hawking, meinte zwei Jahre vor seinem Tod: „Theoretisch ist es möglich, ein Gehirn auf einen Computer hochzuladen und auf diese Weise ein Leben nach dem Tode zu ermöglichen.“[17]
Wir verlassen also unsere Biosphäre und materialisieren uns in Silizium.
Dass dies oder eine andere Form des ewigen Lebens in absehbarer Zeit möglich sei, davon sind vor allem mittelalte Milliardäre überzeugt, Menschen, die wie Google-Gründer Sergey Brin oder Amazon–Schöpfer Jeff Bezos mit ihren Imperien gigantische Organisationen geschaffen haben, die immer mehr unserer Lebensbereiche beherrschen – durch Geschwindigkeit, Allwissenheit und Allgegenwart. Warum sollten sie nicht auch die Ewigkeit erreichen – nicht nur als System, sondern auch als Mensch? Sind wir nicht geradezu dazu verurteilt, auf diese Art und Weise die Macht über das Geschehen zurückzugewinnen, indem wir selbst zur Maschine werden, ihr das geben, was ihr auf absehbare Zeit fehlen wird: ein Bewusstsein?
Schon zuvor, in den Jahrzehnten nach der Industriellen Revolution, haben wir uns mächtige Organisationen des Staates, der Wirtschaft und der Wissenschaft geschaffen. Es sind Organisationen, Systeme, denen wir mehr und mehr unsere Zukunft überlassen haben, denen wir zugleich eine Ewigkeitsgarantie gegeben haben. Sie sind mehr als nur Prothesen. Sie bestimmen heute fast alle unsere Bewegungen. Werden diese aufgeblähten und aufgeblasenen Institutionen in der Lage sein, auch in den kommenden Jahrzehnten unser Schicksal zu bestimmen, oder werden wir selbst die Herrschaft wieder übernehmen?
Zweifel daran, dass wir die Macht über unser Schicksal zurückgewinnen würden, waren schon 1970 angebracht, als Toffler uns den 'Zukunftsschock“ verpasste. Der Mensch selbst – so hatten Ärzte nachgewiesen – sei in seiner Anpassungsfähigkeit begrenzt. Und zwar sowohl psychisch als auch physisch. Schockstarre ist das Ergebnis. Die Folgen lassen sich dabei auf drei Verhaltensmuster reduzieren:
· Totale Verdrängung aller Ängste und Bedenken durch zwangsprogessives Agieren.
· Spezialisierung und Expertentum, indem wir immer mehr über immer weniger wissen.
· Rückzug ins Retro–Denken, also Flucht in die gute alte Zeit, in der vermeintlich alles besser war.
Vielleicht läuft es aber auch ganz anders. 1986 hatte Kim Eric Drexler (*1955) unter dem Titel „Engines of Creation“ den Begriff der Nanotechnologie ins Spiel gebracht und dabei die Vision entwickelt, dass eines Tages programmierbare Molekular–Effektoren (PMEs) in unsere Umwelt entlassen werden würden, um dann mehr oder minder systematisch das natürliche Leben durch künstliches zu ersetzen.[18] Eine bedrückende Vorstellung. Wir bereiten uns selbst den Garaus. Lapidar ausgedrückt könnte man sagen: Entweder übernehmen wir die Maschine, oder die Maschine übernimmt uns.
Im Grunde genommen stehen wir immer noch unter Zukunfts-Schock mit der Tendenz zur Zwangsprogressivität. Bis heute sind wir nicht in der Lage, uns das Unvorstellbare vorzustellen – eine Welt, in der wir uns endlich um uns selbst kümmern. Wir finden 1000 Ausreden, um genau dies nicht zu tun. Die größte Ausrede ist dabei das Streben nach einem ewigem Leben, das wir nicht mehr nur als Species in übermenschlichen Institutionen, sondern als Individuum in technischen Systemen erlangen wollen. Werden wir uns wirklich als Individuen erhalten können, oder werden uns nicht vielmehr die Maschinen einverleiben, uns dabei das stehlen, was ihnen bis auf weiteres fehlt: ein eigenes Bewusstsein. Werden sie es sich – so paradox das klingt – dieses Bewusstsein unbewusst aneignen? Turings Geniestreich bestand darin, dass er die Frage nach einem eigenen Bewusstsein als Voraussetzung für künstliche Intelligenz ganz einfach ausklammerte. Und beim Blick auf unsere mächtigen, allzu groß geratenen und anonymen Institutionen könnte man den Eindruck gewinnen, dass diese auch reibungslos funktionieren, ohne ein eigenes Bewusstsein zu haben. Ein gefährliches Spiel.
Toffler vermutete jedenfalls, dass wir bereits zu sehr die Organisationen pampern, denen wir die Daseinsfür- und -vorsorge überantwortet haben. Sie avancieren zu einem „Superindustrialismus“, ohne dass wir merken, dass dessen ausschließliches Motiv nur noch die Selbsterhaltung ist. Es geht ihnen nicht um uns, sondern nur noch um sich selbst. Es ist nicht so, dass sich diese Superorganisationen dessen bewusst sind, sie folgen einem Gesetz, das aus sich selbst existiert – wie die Natur. Aus eigener Kraft.
Der Philosoph Helmut Kuhn (1899–1991) forderte 1971: „Die technologische Apparatur der modernen Massengesellschaft erzwingt eine Verschiebung des Gewichts politischer Aktion auf die Wirtschafts- und Sozialpolitik. Wie viel Staat wir brauchen? Jedenfalls viel mehr als vor hundert Jahren, sehr viel mehr als in der Blütezeit des modernen Nationalstaates.“ Und dann: „Die Komplexität der technologischen Massengesellschaft fordert eine Verwaltung im Riesenmaßstab. Unter einem solchen Zwang wurde der moderne Staat – Überstaat im Osten, Unterstaat im Westen – zu einem Verwaltungsstaat sondergleichen.“ Natürlich missfällt dem Bürger diese Entwicklung. „Allseitig vom Staat bedrängt, möchte er am liebsten vom Staate nichts wissen“, diagnostiziert Kuhn die Ausbreitung von Staatsverdrossenheit.[19] Zwischen all den Mächten, die uns wunderbar umsorgen, möchten wir doch für uns selbst sein, zu uns selbst kommen.
1961: »Das Zeitalter der ‚denkenden Maschinen‘ und der Automation hat begonnen.«
Irving Adler (1913–2012), amerikanischer Mathematiker und Buchautor
Im Prinzip wollen wir, dass dieser „Superindustrialismus“, um diesen Tofflerschen Begriff zu benutzen, unsichtbar ist – so wie es Software par excellence ist. Sie bildet eine eigene Sphäre, sie ist gleichsam ein Zwischenreich, eine Bezugsebene, in der sie sich selbst spiegelt und damit mehr und mehr die Wirklichkeit, über die sie wacht, zu der sie wird. Damit ist sie wie geschaffen für Bürokratien. Beide sind unglaublich selbstbezüglich, autoreferentiell. Sie beziehen alles auf sich und durch sich hindurch. Insofern sind auch Facebook und Google nichts anderes als Bürokratien. Sie sind nicht nur dabei, unser Leben in sich abzubilden, sie wollen es auch durchdringen. Sie wollen uns leben, sie wollen unser Leben, indem sie unsere Wünsche noch vor uns kennen. Und die Künstliche Intelligenz, die Krone aller Software–Entwicklung, wird diesen Systemen ein menschliches Antlitz geben. ChatGPT.
Software frisst uns auf, zieht uns in ihren Schlund. Ganz still. Ganz leise. Im Hintergrund allen Geschehens. Eigentlich erfüllt sich damit ein „Klassiker des Marxismus“, wie es 1973 der Soziologe Helmut Schelsky (1912-1984) formulierte: „Die Ablösung der Herrschaft von Menschen über Menschen durch 'Verwaltung von Sachen'„.[20] Wir selbst sind auch nur noch Sache. Mit verheerenden Folgen: „Die Gesellschaft ist dem Zufall überlassen worden“, zitiert Toffler den britischen Politiker Raymond Fletcher.
Das war der Blick der siebziger Jahre auf die Zeit, in der wir heute leben. Ein sehr scharfer Blick. Die siebziger Jahre wirkten wie eine Zäsur, eine Epoche war zu Ende, eine neue begann. Ob sie unseren Beifall verdient, ist die ganz, ganz große Frage...
Prost Neujahr
Bisher erschienen:
Teil
1: Der Zukunftsschock // Teil
2: Der Sturz des Menschen // Teil
3: Das Prinzip Verantwortung //Teil
4: Fehler im System // Teil
5: Goethe und der Maschinenmensch // Teil
6: Unter dem Himmel des Friedens // Teil
7: Auf dem Weg ins Wolkengooglesheim // Teil
8: Die Seele und der Prozess // Teil
9: In diktatorischer Vertikalität // Teil
10: Über das Über-Über-Ich // Teil
11: Die demente Demokratie // Teil
12: Welt der Befehle // Teil
13: Fridays sind für die Future // Teil
14: Das Systemprogramm // Teil
15: Die alltägliche Auferstehung // Teil
16: Vater User, der Du bist im Himmel // Teil
17: Der Prozess // Teil
18: Unter Zeitzwang // Teil
19: Die Uran-Maschine und das Jetzt // Teil
20: Die digitale Stallfütterung // Fortsetzung folgt
7 Kommentare:
Angesichts dieses großen Schocks stellt sich die Frage: hat die Zukunft überhaupt noch eine Zukunft?
Als "Long Piece" endlich wieder mal ein echter Vollmer
Guggenberger hat nicht Recht.
»Nichts verändert die Gesellschaft in all ihren Äußerungsformen und auf allen Ebenen so sehr wie die Technik.«
Es sind die Kriege, wie man leicht belegen kann. Und erst recht die Kriege nach Revolutionen.
Bernd Guggenberger (*1
....dem Kommentierenden ist zuzustimmen.
Dass man bei Politikwissenschaftlern immer zweifeln muss, liegt daran, dass sie sich häufig zu Sachen äußern von denen sie nicht genug verstehen und das in einer Absolutheit, die die umgekehrt Proportional zu ihrem Wissen ist.
Ich liebe Eure Kommentare.
Noch eine wichtige Korrektur zu Guggenberger:
Die Gesellschaften wurden noch mehr durch Religionen verändert.
Was hat denn die Wundertechnik in den letzten 30 Jahren in den Äußerungsformen und allen Ebenen in Afrika erreicht? Wodurch hat sich die südl. Sahelzone, der Sudan, Indonesien
verändert? Durch die Handys oder den Koran? Um nur einige Beispiele zu nennen.
Vergesst Guggenberger!
Lest Vollmer!
Politikwissenschaftler halte ich für Horoskopinterpreten.
Sie stochern im Kaffeesatz der (Weis)Sagungen der Politik.
Kommentar veröffentlichen