Von Raimund Vollmer
Als 1890 der Ahnherr aller Mainframes, die Lochkartenmaschinen des Herman Hollerith, zum ersten Mal bei einer Volkszählung im
Großeinsatz war, meldete der Superintendent des Census, Robert Porter nach dem Studium der Ergebnisse, dass nun auch der
Westen der USA so dicht besiedelt sei, dass von einer Grenzlinie nicht mehr
gesprochen werden könne. Für den Historiker Frederick
Jackson Turner war dies ein Schock. Ohne eine New Frontier würde jetzt, hundert Jahre nach der Verabschiedung der
amerikanischen Verfassung, der Pioniergeist der Pilgerväter untergehen. Doch
justament hatten die USA ein völlig neues Grenzland betreten: die Welt der
Computer. Deswegen und weniger wegen der Resultate sollte die Volkszählung von
1890 in die Geschichte eingehen. Heute ist die Zukunft der gesamten Welt von
der Weiterentwicklung dieser Technologie abhängig. Sie ist derart
allgegenwärtig, dass niemand mehr wirklich weiß, wie viele Computer und
elektronische Mobil-Geräte eigentlich die Erde bevölkern und auf die Netze
zugreifen...
Mit dem Aufmarsch der ersten Computer Ende des 19.
Jahrhunderts wurde überall nach bislang nicht gelösten Aufgaben gesucht -
und eines der ergiebigsten Felder schien die Planung zu sein. Endlich schien
sich die Wirtschaft einen Traum erfüllen zu können, der bislang immer an der
Leistungsfähigkeit der Technik gescheitert war. Aber es waren nicht nur die
Unternehmen, die frohlockten, sondern vor allem der größte Abnehmer von Computerleistung:
der Staat. Er glaubte darin ein Instrument gefunden zu haben, mit dem er alles
steuern konnte - vor allem den Markt. Ihn in den Griff zu bekommen, ist ein
Wunsch, der älter ist als die Industriegesellschaft. Schon im 18. Jahrhundert
hatten Sozialphilosophen an Modellen gewerkelt, mit denen sich die Ereignisse
in der Welt in Zahlen ausdrücken und gestalten ließen.
Den ersten Durchbruch brachte Wassily Leontief, ein aus Petersburg stammender Mathematiker. Er
war 1931 nach Studienjahren in Deutschland in die USA ausgewandert. Noch
fehlten ihm die Computer, wie wir sie heute kennen. Doch er legte 1941 ein
sensationelles Werk vor, das wie geschaffen war für die Welt der
Informationstechnologien. Der Titel: »The
Structure of American Economy 1919‑1939«. Erstmals war es in diesem Opus gelungen, die Beziehungen innerhalb
der amerikanischen Volkswirtschaft in Form einer Matrix darzustellen.
Nun
konnte man genau sehen, wie der Wirtschaftskreislauf funktionierte ‑ gleichsam
auf einem Spreadsheet.[1]
Dieses Werk machte ihn weltberühmt und war einer der Gründe, daß er 1973 den
Wirtschaftsnobelpreis erhielt. Aber eine Frage blieb: wie stabil war diese
Wirtschaft? Denn in der Zeit zwischen 1919 und 1939 lagen mächtige
Marktereignisse wie der Börsenkrach und die Große Depression.
Als dann 1959 die amerikanischen Ökonomen I. und F.L. Adelman eine brisante Studie unter dem unscheinbaren Titel »The dynamic properties of the Klein‑Goldberger
Model« vorstellten, schien auch diese Frage beantwortet. Auf der Basis von
statistischem Materialien hatten die beiden Forscher festgestellt, daß das
Wirtschaftssystem in sich stabil sei. Konjunkturzyklen seien auf reine
Zufallsschwankungen zurückzuführen.[2]
Endlich hatte man einen Beleg dafür, daß man nur einen Computer brauchte, ihn
mit allen verfügbaren Daten fütterte ‑ und schon war Wirtschaft nur noch ein
Rechenexempel. Den Zufall brauchte man nicht weiter zu berücksichtigen. Leontiefs These konnte umgesetzt werden:
»Die Ökonomie ist ein gigantischer Computer, der die numerische Lösung einer
großen Anzahl von Preisgleichungen durch schrittweisen Vergleich errechnet.«
Wie aber bekam man die Daten in den Computer? Ganz
einfach. Der österreichische Wirtschaftswissenschaftler Joseph A. Schumpeter
hatte bereits 1918 festgestellt, daß »alles, was sich ereignet, sich im
fiskalischen Bereich widerspiegelt.« In der Gestalt von Zahlen, der
Urinformation des Bits.
Alle Wirtschaftssubjekte, die Bürger und Unternehmen,
die Banken und die Behörden, lieferten mit ihren Steuererklärungen, Bilanzen
und Haushaltsplänen die notwendigen Daten. Der Staat hockte längst auf einem
riesigen Zahlenberg.[3]
Man brauchte eigentlich nur genügend Rechenkapazität. Und so wurde die
Datenverarbeitung in den sechziger und vor allem in den siebziger Jahren von
Staat und Wirtschaft als eine Schlüsselindustrie entdeckt, die man nach Kräften
zu unterstützen hatte.
So war der Staat bereits in den dreißiger Jahren der
größte Kunde der IBM geworden - und er lockte mit weiteren Aufgaben nicht nur
auf Bundesebene, sondern auch in den Kommunen.
1960 hatten Wissenschaftler
dem damaligen IBM-Chef Thomas J. Watson
Jr. ein Vorschlag unterbreitet, der ein gewaltiges Simulationsprogramm für
die detailgenaue Gestaltung von Städten zum Gegenstand hatte.[4] »Die innerstädtische und
regionale Verkehr stellt eine der auffälligsten, aber nicht die bedeutsamste Planungslücke
dar. Die schmerzlichen Folgen der fälschlichen Annahme, der Markt regle alles
von selbst, sind auf dem Gebiet des Wohnungswesens in den Städten und Vororten
sowie in der Grundstückerschließung für gewerbliche und andere Zwecke zu
sehen«, schrieb 1968 Galbraith. [5] Wo der Markt nicht funktionierte,
mussten Planung und Simulation her. Mit deren Hilfe ließe sich sogar trefflich
gegen den Markt argumentieren. Das beste Beispiel dafür lieferte 1971 Bericht des Club
of Rome über »Die Grenzen des Wachstums«, der auf Prognosemodellen basierte,
die allesamt aus dem Computer kamen.
(Auf der Basis eines 1998 verfassten Artikels, geringfügig verändert)
[1]
Die Zeit, 5.11.1993, Petra Pinzler: »Die
ganze Wirtschaft auf einem Tableau«, danach zitiert
[2]
Anton Rauscher (Hrsg), Köln 1973,
Kapitalismus‑Kritik im Widerstreit, hier: Werner Meißner: »Inhalt und Tendenz
der Kritik am `Spätkapitalismus'«, danach zitiert
[3]
Joseph A. Schumpeter, Graz 1918: »Die Krise
des Sozialstaates«
[4]
William H. Rodgers, Hamburg 1971: »Die IBM Saga«, Seite 420
[5]
John Kenneth Galbraith, München-Zürich 1968: »Die moderne
Industriegesellschaft«, Seite 399
Keine Kommentare:
Kommentar veröffentlichen