Ich war seit 1980, als sein Buch "Die Zukunftschance" erschien, ein großer Bewunderer dieses Zukunftsforschers, der zehn Jahre zuvor mit seinem Buch "Der Zukunftsschock" weltweit Aufsehen erregte. Alvin Toffler besaß das, was unseren hauseigenen Propheten und Prognostikern in der Regel fehlt: eine unglaubliche Vorstellungskraft. Wo wir meinen, mit Zahlen zu erwartende Entwicklungen belegen zu können, operierte Toffler mit Beispielen aus einem schier unerschöpflichen Schatz. Er schrieb für Menschen, nicht für Kollegen. Das machte ihn zum meistzitierten Zukunftsforscher der Welt. Aus seinen Werken kann man heute noch Ideen für die Zukunft in Hülle und Fülle entnehmen. Er war ein Gigant.
Im vergangenen Jahr habe ich mich mal drangesetzt, die vergangenen 40 Jahre, in denen ich die Computerbranche als journalistischer Beobachter begleiten durfte, zu rekapitulieren und bin dabei immer wieder in Themen hineingerutscht, die eigentlich gar nichts mit der IT zu tun haben - und dennoch durch das Wort "Digitalisierung" längst eingebunden sind in die Megatrends unseres Jahrhunderts, unseres Jahrtausends. Vorbild beim Schreiben war dabei auch immer wieder Alvin Toffler. Ich war erstaunt, wieviel wir alles haben schon wissen können, wenn wir nur gewollt hätten. Das Manuskript, das längst die ersten 100 Seiten passiert hat, lässt mich nicht mehr los. Immer wieder entdecke ich (für mich) Neues oder Vergessenes, von dem ich glaube, dass es in diese Story hineingehört. Es ist eine riesige Baustelle. Ich kann mir vorstellen, dass Alvin Toffler ähnlich gearbeitet hat. Anlässlich seines Todes wage ich mich mit meinem Manuskript mal ein wenig heraus aus meiner eher trappistischen Arbeit. Ich bin 1975 in die Computerbranche hineingerutscht - als blutjunger Journalist. Zu einem Zeitpunkt, von dem ein anderer Visionär, Peter F. Drucker, meinte, dass bereits jetzt das 21. Jahrhundert begonnen hat. Dies nur zur Erklärung. Das Manuskript hat den folgenden Arbeits-Titel:
Kapitel 4: Der Zukunftsschock
Am 1. Januar 1975 erschien auf der Titelseite der
amerikanischen Fachzeitschrift "Popular Electronics" ein Bild des
ersten Heimcomputers der Welt. Sein Name: Altair. Wie der ferne Stern. Und die,
die ihn als erste sahen und richtig deuteten, waren die beiden Amerikaner Paul
Allen und Bill Gates. Inspiriert von dieser Titelgeschichte starteten sie am 4.
April 1975 das bald mit seinen Befehlssätzen auf nahezu allen Computern
präsente "Projekt Microsoft".
Eine neue Ära begann. Gerade rechtzeitig. Denn es herrschte
Endzeitstimmung, wenngleich aus höchst unterschiedlichen Beweggründen. Der
Journalist Alvin Toffler hatte 1970 seinen Weltbestseller "Der
Zukunftsschock" veröffentlicht. Was sich momentan vor unseren Augen
abspiele, sei "nichts weniger als die zweite große Trennungslinie der
Menschheitsgeschichte", meinte der Amerikaner, der mit seinen Werken der
meistzitierte Futurologe der Welt werden sollte. Mit dem Übergang vom
"Natur- zum Kulturzustand" habe die Menschheit den "ersten großen
Bruch" vollzogen. Nun aber befänden wir uns in einer Epoche, die
"weit umfassender, tiefgreifender und bedeutsamer sei als eine
industrielle Revolution". Alles verändere sich nicht nur viel zu schnell,
sondern obendrein mit steigender Geschwindigkeit.[1]
Selbst der deutsche Zukunftsforscher Robert Jungk war
beeindruckt von Tofflers Werk: "Noch nie ist mit einer solchen Überfülle
von Fakten gezeigt worden, wie technischer Fortschritt, der über den Produkten
die Produzenten vernachlässigte, zu einer kollektiven Erkrankung führte, für
die der Autor den Terminus 'Zukunftsschock' fand", meinte Jungk in einer
Buchbesprechung in der Zeitschrift "Der Spiegel",
die damals noch als Nachrichtenmagazin typisiert wurde.
Das Jahr 1975 wirkte wie eine Zäsur, eine Epoche war zu Ende,
eine neue begann. In Rambouillet, 50 Kilometer von Paris entfernt, hatte am 15.
November 1975 auf Initiative von Frankreichs Präsidenten Valéry Giscard
d'Estaing und Bundeskanzler Helmut Schmidt der erste Weltwirtschaftsgipfel
stattgefunden, zu dem sich seitdem die mächtigsten Wirtschaftsnationen der
freien Welt jährlich treffen. Die Politik wollte ein Zeichen setzen.
Nachdem durch Präsident Richard Nixon am 15. August 1971 das
auf festen Wechselkursen basierende System von Bretton-Woods praktisch
aufgekündigt worden war, hatte die
Politik vergeblich nach einer Lösung gesucht, nach einem Bretton-Woods 2.0.
1944 hatten sich die USA als einzige Nation der Welt verpflichtet,
jederzeit Gold für einen festen Wert von - damals - 35 Dollar je Unze
einzutauschen. Doch richtig funktioniert hatte nach Ansicht des
Nobelpreisträgers Milton Friedman dieses System nur "von 1959 bis
1967".[2]
Und auch da war längst klar, dass die Goldreserven der USA, die in Fort Knox
versammelt waren, niemals ausgereicht hätten, um alle Ansprüche der
Dollarkunden zu befriedigen. Ja, in den sechziger Jahren hatten die USA die
Bundesrepublik mehrfach darum gebeten, auf einen solchen Tausch von Dollars in
Gold zu verzichten, um diese Reserven zu schonen. Der französische Präsident
Charles De Gaulle war da weitaus weniger zimperlich.[3] Ihn
störte die Macht des Dollars ohnehin.
Auf jeden Fall ähnelte das System von Bretton Wods mehr und
mehr einem Kartenhaus, das irgendwann einstürzen würde.
"Besonders kräftig schlugen die Wechselkurse zwischen
1973 und 1975 aus, als das Bretton Woods-System endgültig zusammenbrach, die
Ölpreise stark erhöht wurden, die Inflationsraten kräftig stiegen und nicht
zuletzt die Geldpolitik unstetig war", bemerkte 1988 der
Konjunkturforscher Joachim Scheide vom Institut für Weltwirtschaft in Kiel in
der FAZ[4]
Je größer die Ausschläge, desto stärker wuchs in der Folge der
Wunsch nach einem neuen Bretton Woods. Und Zahlen schienen die Richtigkeit
dieses Begehrens zu bestätigen. Hatte in den G7-Ländern die Wachstumsrate vor
der Aufkündigung der festen Wechselkurse im Schnitt bei fünf Prozent gelegen,
so sollte sich die Quote in den nächsten zwanzig Jahre halbieren - einer der
Gründe, warum sich viele immer wieder die Rückkehr zu dem alten System
wünschten. Aber war das freie Floaten der Währungen wirklich die Ursache? [5] War es
nicht vielmehr die Verschuldungspolitik der Staaten, dieses Erbe des 20.
Jahrhunderts?
Auf jeden Fall schien der Primat der Politik, vor allem den
der USA, durchbrochen.[6] Die
Märkte übernahmen die Macht. Es herrschte ein "Non-System", wie es
Wilfried Guth, von 1976 bis 1985 Vorstandssprecher der Deutschen Bank, nannte.[7] Ein
Gefühl von Anarchie breitete sich aus. Wie sollte es gebändigt werden?
Bretton Woods gehörte einer Zeit an, in der die
internationalen Kapitalflüsse noch sehr limitiert waren. Doch nun zeigte der
technologische Fortschritt, kombiniert mit Finanzinnovationen, mehr und mehr
seine alles durchdringende Wirkung. Geld ließ sich jederzeit in
Sekundenschnelle praktisch überall hin transferieren.[8] Und es
sammelte sich immer mehr Geld an - mit dem Dollar als einer Art Weltwährungsersatz.
Zum ersten Mal überschritten 1975 die in der US-Währung angelegten Geldbestände
weltweit die Summe von fünf Billionen Dollar. [9] Dieser Betrag wird heute täglich auf den weltweiten
Kapitalmärkten bewegt - möglich durch die immensen Investitionen in schnelle
Netze und noch schnellere Rechner.
Das Geld entzog sich seit den siebziger Jahren immer mehr
der Kontrolle durch die Zentralbanken. Noch in den sechziger Jahren wurden sie
wegen ihrer Macht bewundert - allen voran die Deutsche Bundesbank. Die
Währungshüter konnten ohne eine einzige Signatur aus dem Stand heraus
Milliardenbeträge hin und her schieben. Am Telefon. Doch mit dem Einzug der
Computer gewannen die "Spekulanten" immer mehr die Oberhand. Gegen
den Markt ging nichts mehr.
Die Dollars vagabundierte in alle Richtungen. Dabei waren
die Handlungsweisen der Akteure keineswegs immer rational, wie der
Nobelpreisträger James Tobin 1978 feststellte. Kurzfristige Gewinnmitnahmen
durch Wechselkursschwankungen würden an den Finanzmärkten die Entscheidungen bestimmen
und dabei langfristige Investitionsbetrachtungen verdrängen. Weil die beste
aller Lösungen, die Vereinigung zu einer einzigen Weltwährung, seiner Meinung
nach auf lange Sicht nicht durchsetzbar war, schlug er damals vor, auf jede
Transaktion eine Steuer zu erheben. Weltweit. Für ihn die "zweitbeste
Lösung". Sie würde eine Rückkehr zu mittel- und langfristigen
Investitionen ermöglichen und den Staaten eine, wenn auch bescheidene Kontrolle
über die Währungen zurückgeben. Eine faszinierende Alternative - zumal der
technische Fortschritt dem überhaupt nicht entgegenstand. Eigentlich müsste die
Politik darauf abfahren. Doch nichts geschah.[10]
Es kam die Zeit, in der die Chicagoer Schule mit ihren
neoliberalen Ideen die Weltwirtschaftspolitik bestimmen sollte. "Die
Verlagerung des Schwerpunktes nach Chicago war mir nach 1975 klar",
bemerkte einer ihrer besten Vertreter, der Nobelpreisträger Gary S. Becker. Die
Superstars dieser auf den freien Markt setzenden Bewegung waren Friedrich von
Hayek, der 1974 den Nobelpreis erhalten hatte, und Milton Friedman, der 1976
geehrt wurde. Der Glaube an den Staat, der sich alles Wissen anmaßte, war
gebrochen - aber auch der Glaube an die Wirtschaftswissenschaften erodierte.
Mit ihrem durch Stabilitäts- und Beschäftigungsgesetze gestärkten Bekenntnis zu
den Theorien des Briten John Maynard Keynes vermeinten sie alles, die
Wirtschaft mit ihren Zyklen, im Griff zu haben. Lange Zeit schienen sie auch im
Recht zu sein.
Es war das Ende der Megalomanie, des Größenwahns, in der uns
alles, was wir anpackten zu groß geraten war: der Staat und die Bürokratie, der
heiße Krieg und der kalte Frieden, die Wirtschaft und die Unternehmen, die
gesamte Maschinerie. Wissenschaft und Technik, Gesellschaft und Politik - sie
alle hatten sich übernommen. Finanziell, aber auch geistig.
Der Zukunftsschock saß tief. Überall waren die Zeichen des
Verfalls zu sehen