Quelle: Jahrbuch des Inst. für Marxist. Studien und Forschungen 13/1987


       zurück

       
       MACHBARKEIT NICHTBEHERRSCHBARER TECHNIK DURCH FORTSCHRITTE
       ==========================================================
       IN DER ERKENNBARKEIT DER NATUR
       ==============================
       
       Bernhelm Booß-Bavnbek / Martin Bohle-Carbonell
       
       1. Einleitung - 2. Zuverlässigkeit und Unzuverlässigkeit mathema-
       tisch-naturwissenschaftlicher Berechnungen - 3. Verschiedenartig-
       keit der  "Qualität" mathematisch-naturwissenschaftlichen Wissens
       - 4. Machbarkeit ohne Beherrschbarkeit - 4.1 Diffusionsgleichung:
       Vom Ad-hoc-Einzelwissen  zur theoretischen Einbettung - 4.2 Theo-
       rielose Praxis  - 4.3  Menschliche Erkenntnisschranken - 4.4 Pro-
       blemlösung ohne  "Erfassung der  Situation" - 4.5 Betonierung von
       Lösungsverfahren -  4.6 Technikromantik, KI und Realität - 5. Ab-
       solute Erkenntnisschranken?  - 6. Gesellschaftliche Ethik wissen-
       schaftlich-technischer Veränderungen  - 6.1  Zweifel und Risiko -
       6.2 Wie soll es weitergehen?
       
       1. Einleitung
       -------------
       
       Auf den folgenden Seiten wird von mathematisch-naturwissenschaft-
       lichen Methoden  und Ergebnissen die Rede sein. Das wird für man-
       che Leser mühsam sein, Nachschlagen einzelner Begriffe im Lexikon
       oder in alten Schulbüchern erfordern und weitere Fragen auslösen.
       Einige werden  auch fragen,  ob sich  der Aufwand  lohnt, ob  man
       nicht die  Erörterung der  Fachprobleme den Fachleuten überlassen
       und von den Autoren schneller lesbare, leichter verständliche und
       universell anwendbare  erkenntnistheoretische und politische Ver-
       allgemeinerungen und Folgerungen verlangen kann. Doch sowenig wie
       es Aufgabe der Marxisten war, Arbeiterbewegung und fortschrittli-
       che Intelligenz  mit den  Anstrengungen einer  wissenschaftlichen
       Theorie der  Gesellschaft zu  verschonen, kann es heute darum ge-
       hen, den Bürger, Funktionär oder Gesellschaftswissenschaftler vor
       naturwissenschaftlich-technischem Grundwissen zu bewahren.
       Vorschnelle Verallgemeinerung ist mit einem systematischen Fehler
       behaftet: Je  größer die  Entfernung vom  Gegenstand  ist,  desto
       leichter läßt  sich der Philosoph (so kritisch er sich auch gibt)
       dazu verführen,  aus der  Unbegrenztheit unseres mathematisch-na-
       turwissenschaftlichen Erkenntnisvermögens  auf die  Beherrschbar-
       keit der  Technik zu  schließen,   w e n n   nur günstige gesell-
       schaftliche Voraussetzungen, Demokratie, Sozialismus, Frieden und
       ein gewisser  Wohlstand vorliegen.  Je näher  man dem  Gegenstand
       ist, desto  einschränkender sind aber die Bedingungen, um Zweifel
       der Naturwissenschaftler,  Ingenieure und  Techniker (so verliebt
       sie auch in ihr Spielzeug sind) schon an der bloßen technisch-na-
       turwissenschaftlichen Beherrschbarkeit der Technik auszuräumen.
       Das war  nicht immer  so. Am  Anfang unseres Jahrhunderts war die
       Vorstellung auch  unter Mathematikern  und  Naturwissenschaftlern
       noch weit  verbreitet: Wenn wir nur etwas mehr wüßten, hätten wir
       alles im  Griff. Heute  wird das  kein Fachmann mehr im Ernst be-
       haupten. Mit dem explosionsartigen Zuwachs an mathematisch-natur-
       wissenschaftlich-technischen Erkenntnissen wurden nämlich handfe-
       ste Erfahrungen gemacht.
       GESELLSCHAFTLICH: Die  Fortschritte in  der Erkennbarkeit der Na-
       tur, die Erweiterung der konkreten Naturerkenntnis und des Arsen-
       als der  Theorien, Methoden und Instrumente weiteten den Horizont
       des technisch  Machbaren und tatsächlich Gemachten ins Unermeßli-
       che aus.  Die Paarung  von hochspezialisiertem Fachwissen mit Be-
       schränktheit und  Rücksichtslosigkeit hat  zu einer  Lawine neuer
       Probleme, zu  der katastrophalen Situation geführt, daß wir heute
       in großen  gesellschaftlichen Bereichen am Rande unserer Erkennt-
       nis hantieren.
       NATURWISSENSCHAFTLICH-TECHNISCH: Je  mehr wir  wissen, desto mehr
       Bereiche der  Unkenntnis wurden  sichtbar. Noch jede neue wissen-
       schaftlich-technische Errungenschaft  ist von niederschmetternden
       Erfahrungen mit  der Komplexität von isolierten, menschengeschaf-
       fenen technischen  Objekten begleitet.  Die komplexen Materialei-
       genschaften einfacher Legierungen, die Wirkungsweise bescheidener
       Programme  der  Wirtschaftsinformatik,  die  Zuverlässigkeit  von
       Space Shuttle  und SDI  lassen sich nicht vorhersagen. Diese - im
       Vergleich zur  Komplexität der  globalen Fragen  - läppischen Sy-
       steme erweisen  sich als technisch nichtbeherrschbar für ihre ei-
       genen Schöpfer.  1) Deshalb gibt es keinen Raum mehr für die Vor-
       stellung, daß  unsere gewohnte Art der Gestaltung des Wechselver-
       hältnisses zwischen Mensch, Technik und Natur beherrschbar wäre -
       wo wir die vielfältigen Komponenten nicht einmal überschauen oder
       abschätzen und damit auch nicht kontrollieren können.
       Auf der  Grundlage unserer Berufserfahrung mit mathematischen Me-
       thoden in Naturwissenschaften und Technik: mit Sicherheit und Un-
       zuverlässigkeit mathematischer Berechnungen (Abschnitt 2) und den
       Gründen dafür  (Abschnitt 3),  mit Machbarkeit ohne Verstehen und
       Kontrolle (Abschnitt  4), mit der Sensibilität von Mathematik und
       Physik für  die innerfachlichen  Risiken im  Grenzbereich unseres
       gegenwärtigen  Wissens  (Abschnitt  5)  plädieren  wir  für  eine
       Neuorientierung  unseres   Denkens,  Diskutierens   und  Handelns
       (Abschnitt 6).
       Wir danken  W. Coy  (Bremen), J. H. Jensen (Roskilde) und G. Pate
       (Hamburg) und  einer Anzahl weiterer Genossen, Freunde und Kolle-
       gen für Beratung bei der Abfassung des Manuskripts.
       
       2. Zuverlässigkeit und Unzuverlässigkeit
       ----------------------------------------
       mathematisch-naturwissenschaftlicher Berechnungen
       -------------------------------------------------
       
       Während die  Bedeutung mathematisch-naturwissenschaftlicher Argu-
       mente überall  wächst, 2)  bleibt das öffentliche Denken über die
       Glaubwürdigkeit von  mathematischen Modellen  bei Schablonen ste-
       hen. Wie  können wir  ein realistischeres  Verhältnis zu mathema-
       tisch-naturwissenschaftlichen Berechnungen gewinnen?
       THESE 1.  Auf mathematische  Berechnungen kann  und muß  man sich
       verlassen.
       Diese These  gilt für  den Kranführer auf der Baustelle: Nach den
       Hebelgesetzen ist  "Kraft x  Kraftarm =  Last x  Lastarm". Daraus
       läßt sich  eine Begrenzung für zu hebende Lasten ableiten, so daß
       der Kran  nicht umkippen  und das Leben der Bauarbeiter gefährden
       kann. Die These gilt auch für das Konsortium, das einen Nachrich-
       tensatelliten auf eine geostationäre Umlaufbahn um die Erde hoch-
       schießen will. Die schon Newton bekannten Gravitationsgesetze er-
       lauben die Berechnung der Höhe für die Umlaufbahn mit der für die
       Sicherheit der  Geldanlage des  Konsortiums erforderlichen Präzi-
       sion. Wer  sein Leben  oder sein Geld liebhat, darf These l nicht
       bezweifeln.
       Und doch  kennt der  Sicherheitsbeauftragte auf der Baustelle die
       Gefahr von Windstößen und bugsierenden Lastzügen, der Anlagebera-
       ter die Häufigkeit von Explosionen der Trägerraketen, wodurch die
       Anwendung der  mathematischen Berechnungen  außer  Kraft  gesetzt
       wird. Genauer:
       THESE 2.  Auf mathematische  Berechnungen kann  und darf man sich
       nicht verlassen.
       Die These  gilt für  den Fischteichbesitzer:  Man kann Grundglei-
       chungen über  die Sterblichkeit  von Fischen und ihre Gewichtszu-
       nahme aufstellen und daraus auf mathematischem Weg - ganz ähnlich
       wie bei  der Satellitberechnung  - die optimale Wartezeit bis zum
       Abfischen bestimmen.  In der  Praxis kann  sich aber  zeigen, daß
       eine u.U. erheblich kürzere oder erheblich längere Wartezeit doch
       rentabler ist.  Nicht wegen eines Rechenfehlers, sondern weil un-
       ser Modell  offensichtlich wesentliche  Beziehungen nicht korrekt
       widerspiegelte. Dann ändert man eben die Werte und den Aufbau der
       Grundgleichungen, führt  neue Größen  ein, unterscheidet nach Ar-
       ten, Altersklassen,  Jahreszeiten, regionalen  Besonderheiten und
       legt dieses  nachjustierte und  verfeinerte, aber  deswegen nicht
       notwendig treffendere oder realistischere Modell den weiteren Be-
       rechnungen über  Aussatz von Fischlaich, Abfischen und Rentabili-
       tät zugrunde, bis sich ein neuer Fehler zeigt, die eigenen Fische
       einer Infektion erliegen und die des Konkurrenten wegen einer ge-
       ringfügigen Änderung  der Fütterung  plötzlich viel schneller zu-
       nehmen. 3)
       These 2 bestätigte sich auch beim legendären Einsturz der Tacoma-
       Hängebrücke in  den USA am 7. November 1940, vier Monate nach ih-
       rer Einweihung.  Die baustatischen  Berechnungen und die Qualität
       der ausgeführten  Bauarbeiten waren  nicht zu  beanstanden. Fach-
       fremde Strömungsmechaniker  der Automobil-  und Flugzeugindustrie
       fanden dann  erst den  Grund: Der  Winddruck auf  die aus Sicher-
       heitsgründen besonders kräftig ausgelegte Stahlkonstruktion hatte
       zu rhythmischen  Schwingungen der  Brücke geführt, die sich durch
       eine unglückliche  Resonanz zum "Galopp" aufschaukelten. Mehr Si-
       cherheit ließ sich nicht durch genauere Berechnungen oder bessere
       Qualität der  Ausführung erreichen, sondern nur durch Überschrei-
       ten der zu engen Fachgrenzen. 4)
       Ein anderes  Beispiel spektakulären Versagens bieten die weltweit
       vernetzten Börsencomputersysteme.  Hierbei gibt  es zwei Aspekte.
       Der   A u s f a l l   des Londoner  Börsencomputersystems am Tage
       der Inbetriebnahme  im Oktober  1986 war noch ein für die Branche
       ganz normaler  Vorgang, wie er überall bei der Entwicklung großer
       ziviler  oder  militärischer  Informationssysteme  auftritt,  die
       nicht  termingerecht  fertiggestellt  und  deren  Grundfunktionen
       nicht ausreichend vom Schreibtisch, sondern erst in der Installa-
       tion und  in Probeläufen  bestimmt und eingestellt werden können.
       5) Tatsächlich waren in London die Anforderungen an das Computer-
       system, nämlich  eine genaue vertragliche Zugriffbreite für jeden
       Benutzer, wodurch  eine Überlastung  ausgeschlossen ist,  richtig
       spezifiziert und  nur nicht termingerecht installiert worden. Zur
       Vermeidung von  Schadensersatzforderungen wurde  allen  Benutzern
       zunächst die volle Zugriffbreite zugeteilt, worauf das System ab-
       stürzte, da  kein Modell  der Überlastung und kein entsprechendes
       Notprogramm existierten.
       Viel dramatischer  ist aber  die Nichtvorhersagbarkeit  der  Wir-
       kungsweise von    f e r t i g    i n s t a l l i e r t e n    und
       "f e h l e r f r e i"   arbeitenden  Börsencomputersystemen.  Ge-
       nauere Untersuchungen über die Wirkungsweise von Rechnern im Bör-
       senverkehr zeigen  hier eine weitere Seite unserer These: Die im-
       mer bessere und schnellere Funktionsweise des einzelnen Börsenau-
       tomaten (10  Abfragen pro  Sekunde im  Devisengeschäft) gefährdet
       die regulierende  Funktion der  Börse schon  bei  verhältnismäßig
       schwachen Kursschwankungen, die nicht geglättet, sondern elektro-
       nisch in Kollapsnähe aufgeschaukelt werden. 6)
       
       3. Verschiedenartigkeit der "Qualität"
       --------------------------------------
       mathematisch-naturwissenschaftlichen Wissens
       --------------------------------------------
       
       Mathematische Modelle  erhalten ihre politische Brisanz weder aus
       der Sicherheit  noch aus  der Unzuverlässigkeit  der  Berechnung,
       sondern daraus, daß in jedem neuen Einzelfall die Glaubwürdigkeit
       konkret beurteilt  werden muß,  statt sich  nur auf nachweisliche
       Erfahrungen mit der Korrektheit oder Schwindelhaftigkeit mathema-
       tischer Modelle und Berechnungen in anderen Zusammenhängen zu be-
       rufen. Das Urteil wird dadurch erschwert, daß viele mathematische
       Formeln äußerlich  ähnlich aussehen, auch wenn ihr wissenschafts-
       theoretischer Status,  ihre Aussagekraft,  die Art ihrer Nachprü-
       fung und  die Grenzen  ihrer Anwendung recht unterschiedlich sein
       können:
       Der binomische  Lehrsatz (a+b)(a-b)  = a²-b²  drückt eine  Eigen-
       schaft unseres  traditionellen Zahlensystems  aus, die allerdings
       für die  Gleitkomma-Arithmetik im  Computer nicht  mehr gilt. Der
       pythagoräische Lehrsatz  a²+b² =  c² folgt  aus dem Axiomensystem
       der euklidischen  Geometrie, gilt  aber nicht  mehr in gekrümmten
       Räumen wie z.B. die Kugel- oder Erdoberfläche. Die Formel K = m x
       b ist  schlicht eine  Definition, die  Erklärung des Begriffs der
       Kraft. Die  Gravitationsformel K= G x m1 x m2 / r² drückt dagegen
       ein universelles  Naturgesetz aus;  schon der  Verdacht auf  eine
       kleinste Abweichung von der Formel ist aufregend. 7) Einsteins E=
       m x c² wird heute als Definition der Energie benutzt, obschon ur-
       sprünglich ein Naturgesetz. Das Ohmsche Gesetz U =  R x I ist da-
       gegen nur  die Linearisierung  viel komplizierterer  Beziehungen,
       obwohl es  sehr zuverlässig  in den  Temperatur-, Spannungs-  und
       Stromstärkebereichen des Alltags ist. Die Risikoformel R = P x F,
       wo P  die Wahrscheinlichkeit  für das Eintreten eines Ereignisses
       mit der Folge F ist, besagt eigentlich gar nichts oder höchstens,
       daß das Risiko mit der Wahrscheinlichkeit und dem Ausmaß der Fol-
       gen wächst.
       Folgen wir der in der Angewandten Mathematik üblichen Unterschei-
       dung von  Modellierung,  rechnerischem  Ansatz  und  Algorithmus,
       8) so können  wir für jede Ebene Unterscheidungsmerkmale und Qua-
       litätskriterien angeben.  Da gibt  es Ad-hoc-Modelle,  die wie im
       Fischteichbeispiel so  lange glaubwürdig  sind, wie sie empirisch
       nachprüfbare Sachverhalte  darstellen. Dann können sie sogar her-
       vorragend und unersetzbar sein wie ein gültiger Fahrplan oder ein
       anderes gutes  Tabellenwerk. Ihre  Anwendung außerhalb  des empi-
       risch zuvor nachgeprüften Gültigkeitsbereichs kann wie ein veral-
       teter Fahrplan  oder das Kursbuch des Nachbarlandes Anhaltspunkte
       geben, wird aber in der Regel wertlos und bei Übertragung der zu-
       vor erworbenen  Autorität auf  die neue Situation irreführend und
       gefährlich sein.  Theoretisch  begründete  Modelle  wie  das  der
       Newtonschen Himmelsmechanik  sind nicht notwendig genauer als die
       Ad-hoc-Modelle; die Kodierung von Erfahrung in der Form von Theo-
       rie erlaubt  aber einen  flexibleren Gebrauch des Modells und die
       Abschätzung seiner  Genauigkeit und  möglicher  Abweichungen  auf
       theoretischem Wege, mit den Mitteln des Modells selbst.
       Beim rechnerischen  Ansatz unterscheiden  wir zwischen einerseits
       der infinitesimalen Approximation, die ein großes, aber doch end-
       liches System von Atomen, Molekülen, Tröpfchen, Bauelementen end-
       licher Größe  als unendliches  System unendlich  kleiner "Punkte"
       auffaßt mit allen rechnerischen Vorteilen und Grenzen der klassi-
       schen Analyse,  die sich daraus ergeben, und andererseits den fi-
       niten Methoden  der Approximation  von Systemen  mit  z.B.  1O^18
       wechselwirkenden Einheiten  durch ein  System mit  vielleicht nur
       10^3 wechselwirkenden größeren Einheiten oder Klumpen. Hierzu ge-
       hören auch Fragen der Abhängigkeit eines Urteils, einer Prognose,
       eines Qualitätsvergleichs von der Klasseneinteilung, die u.a. für
       statistische Tests wesentlich ist.
       Eine Sonderstellung nimmt die Diskretisierung infinitesimaler Mo-
       delle ein, die aus historischen Gründen noch immer im Mittelpunkt
       des Interesses  der Angewandten  Mathematik steht.  Es  ist  hier
       wirklich eine Wissenschaft für sich zu ermitteln, wann die Ergeb-
       nisse zu  gebrauchen sind  - und  wann die  Ergebnisse nur Eigen-
       schaften der gewählten Verfahren widerspiegeln, ohne viel mit dem
       realen Ausgangspunkt zu tun zu haben. 9) Wir müssen auch untersu-
       chen, ob  ihrem Wesen nach nichtlineare Beziehungen durch lineare
       approximiert werden  und welchen  Einfluß das  auf die Ergebnisse
       haben wird:  Beim Pendel  ist z.B.  der Unterschied  zwischen der
       harmonischen und der gedämpften Schwingung nicht wesentlich, wenn
       man etwa  die Geschwindigkeiten  eines  einzelnen  Pendelschwungs
       oder die  Kräfte in den Gleichgewichtslagen untersuchen will. An-
       ders ist  es bei  der Synchronisierung  zweier Pendel, wo die Li-
       nearisierung qualitativ  irreführend ist.  10) In  der Strömungs-
       lehre kann man die wesentlichen Wirbel weglinearisieren. 11)
       Bei der  Realisierung im  Rechner kommt es zu Hardwarefehlern und
       Programmierfehlern; das können Tippfehler sein oder logische Feh-
       ler, defekte  Compiler oder  Programme, die  die Abweichungen der
       Computerarithmetik von der gewöhnlichen Arithmetik nicht angemes-
       sen berücksichtigen, sondern bis ins Groteske steigern. 12)
       
       4. Machbarkeit ohne Beherrschbarkeit
       ------------------------------------
       
       Die Geschichte der Technik und der mathematischen Physik gibt nur
       wenige Belege  für das  idyllische Bild vom Fortschreiten der Er-
       kenntnis und  des Handelns  der Menschheit in inniger Wechselwir-
       kung. Typischer  ist die  Kluft zwischen  Theorie und Praxis. Sie
       hat zwei Seiten:
       Häufig kommt  es zu  einem Vorlauf  der Theorie, der grundwissen-
       schaftlichen Ergebnisse  vor ihrer Überführung in die Praxis. Wir
       kennen das zähe Weiterleben des überholten ptolemäischen Weltbil-
       des in den astronomischen Tabellen der Schiffahrt oder die vielen
       tausend Mannjahre,  Schaffung riesiger  Forschungs- und  Entwick-
       lungszentren, spezieller  neuartiger Fabriken,  ja  ganzer  Indu-
       striezweige, die  zwischen dem grundlegenden Hahn-Straßmann-Expe-
       riment zur  Kernspaltungskettenreaktion und dem Abschluß des Man-
       hattanprojekts, der Atombombenproduktion, lagen. Hier handelte es
       sich um  die Schwierigkeit, theoretische Erkenntnisse in die Pra-
       xis umzusetzen.  Wissenschaftstheoretisch ein  normaler  Vorgang,
       durch den unmittelbar keine falschen theoretischen Vorstellungen,
       keine Illusionen erzeugt werden.
       Die Kehrseite  der Medaille  ist die relative Selbständigkeit der
       Praxis, die  sich oft im theoretisch nicht geklärten Raum bewegen
       muß. Sie ist geneigt, ihre situationsgebundenen Annahmen und Vor-
       stellungen als  Theorie auszugeben und damit Illusionen zu erzeu-
       gen. So wird Tag für Tag in der Strömungsmechanik mit numerischen
       Annäherungen an  die Lösung von Navier-Stokes-Gleichungen gerech-
       net, und  zwar auch dort, wo die Existenz der eigentlichen Lösun-
       gen bisher  nicht nachweisbar ist. 13) Technische Machbarkeit und
       mathematische Berechenbarkeit  des Einzelfalls  werden  mit  Kon-
       trolle und  Beherrschbarkeit verwechselt.  Diese liegt aber nicht
       vor, solange  die wissenschaftliche  Grundlage, das Verstehen des
       "Umfeldes", des Verhaltens unter veränderten Bedingungen, die em-
       pirische Verbreiterung  oder die  theoretische Einbettung des Ad-
       hoc-Einzelwissens fehlt.  Es ist nicht immer fehlendes Wissen al-
       lein, sondern  oft gerade  der stürmische Fortschritt bei der An-
       häufung von ad-hoc-Einzelwissen, der unsere Sicherheit, unser Le-
       ben, unsere Gesundheit gefährdet. Das ist das erkenntnistheoreti-
       sche und  politische Problem vieler neuer Technologien, der Reak-
       tortechnik, der Gentechnik und der Informatik.
       Die politische  Bedeutung erfordert  eine  erkenntnistheoretische
       Diskussion, erschwert  sie aber auch durch Voreingenommenheit und
       Glaubensbekenntnisse. Wir  möchten deshalb  das Problem  des Vor-
       laufes von "Machbarkeit"  v o r  "Beherrschbarkeit", von "Einzel-
       wissen"   v o r   "Theorie" zunächst  an einem  politisch weniger
       brisanten Beispiel  erläutern, der  Herausbildung unseres Wissens
       über Diffusionsprozesse.
       
       4.1 Diffusionsgleichung: Vom Ad-hoc-Einzelwissen
       ------------------------------------------------
       zur theoretischen Einbettung
       ----------------------------
       
       Diffusion ist  der Massetransport  in Gasen,  Flüssigkeiten  oder
       Festkörpern durch  die mikroskopische  Relativbewegung der  Teil-
       chen. Die  Moleküle eines  Parfüms diffundieren durch die Zimmer-
       luft auch  bei deren  Stillstand. Schwefeldioxyd  breitet sich in
       der Luft  aus und dringt in Bibliotheksbestände ein, wo es im Pa-
       pier Schwefelsäuerlinge  bildet und das Papier zersetzt. Die Ver-
       mischung von Gasen, unser erstes Beispiel, ist gut untersucht. Es
       gilt das  Ficksche Gesetz,  daß die  Masse der  in einer  Sekunde
       durch einen Querschnitt von einem Quadratmeter hindurchdiffundie-
       renden Parfümmoleküle proportional zum Konzentrationsgefälle ist.
       Die Parfümmoleküle  breiten sich  also im Durchschnitt dahin aus,
       wo weniger  Parfümmoleküle sich  befinden, und  insgesamt  um  so
       schneller, je größer der Konzentrationsunterschied ist.
       Bei seiner  Formulierung im  Jahr 1855  hatte das Ficksche Gesetz
       zwei Grundlagen,  die Analogie zur Wärmeausbreitung, die physika-
       lisch etwas  ganz anderes, nämlich Energietransport und kein Mas-
       setransport ist, und die gute experimentelle Nachprüfung. Das ge-
       nügte, um  lange Tabellen von Diffusionskoeffizienten anzulegen -
       für bestimmte  Gemische und  Temperaturen - und daraus mit großer
       Präzision den  zeitlichen und  räumlichen Verlauf von Diffusionen
       zu berechnen und vorherzusagen. Alle Berechnungen galten aber im-
       mer nur  für die  genau spezifizierte  Situation. Übertragung der
       Ergebnisse auf  verwandte, aber  experimentell noch  unerforschte
       Situationen war strenggenommen nicht möglich, da noch das theore-
       tische Verständnis  z.B. für die Abhängigkeit des Diffusionskoef-
       fizienten von  Temperatur und  Molekulargewicht und die Gewißheit
       der Proportionalität,  der Linearität der grundlegenden Beziehung
       zwischen Massetransport und Konzentrationsgefälle fehlte.
       Das theoretische  Verständnis wurde  1905 von Einstein mit seiner
       Erklärung der Diffusion aus der Statistik der thermischen Irrwege
       der Moleküle  nachgeliefert. Das  erlaubt noch immer keine zuver-
       lässige Berechnung  der Diffusion von SO2 durch die Luftporen von
       Papier, weil die begleitenden chemischen Reaktionen die charakte-
       ristische Ausbreitungszeit (ein Maß für den "Zeitzünder" zwischen
       Vergiftung der  Bücher und  ihrem Verfall) vom berechneten Sekun-
       denbereich in historische Größen von Jahrzehnten oder Jahrhunder-
       ten bringt.  Das gewonnene  theoretische Verständnis sichert auch
       nicht gegen die Erzeugung von "verrückten", völlig verkehrten Lö-
       sungen bei  der Simulation  auf dem  Rechner durch ein verkehrtes
       Verhältnis von  Zeit- und  Raumschritt bei  der  Diskretisierung.
       Aber es  gibt den  theoretischen Rahmen,  in dem Zuverlässigkeit,
       Übertragbarkeit und Grenzen des Modells formuliert werden können.
       14) Alles in allem: eine Erfolgsgeschichte.
       
       4.2 Theorielose Praxis
       ----------------------
       
       Arbeit mit mathematischen Modellen und Simulation im Rechner ver-
       mittelt die folgenden Erfahrungen:
       1. ERFAHRUNG.  Die Diffusion  ist kein  Einzelfall.  Der  wissen-
       schaftlich-technische Fortschritt hat immer mehr Situationen her-
       vorgebracht, wo ohne ausreichende theoretische Grundlagen nur mit
       Hilfe von  isolierten Einzelerkenntnissen  hantiert wird  im Ver-
       trauen darauf,  daß die Praxis das nicht denunziert und die Theo-
       rie es  nachträglich legitimiert.  In begrenzten  Situationen mag
       das angehen,  in nichteingrenzbaren wachsen die Risiken ins Uner-
       trägliche.
       BEISPIEL: Rechnergestützte,  quantenchemische Methoden haben sich
       in der technischen Chemie vielfach bewährt, um die Übersicht über
       die endlichen Kombinationsmöglichkeiten vorgegebener Atome zu Mo-
       lekülen zu  behalten. Sie  werden auch in der Feststoffphysik bei
       der Suche nach neuen Stoffen mit bestimmten Materialeigenschaften
       angewandt, obwohl  nun auch  komplexere Beziehungen  wie die Kri-
       stallstruktur und  die Beweglichkeit  der  Elektronen  modelliert
       werden müssen  und einfache  Beschreibungen der wesentlichen, be-
       stimmenden Faktoren  immer noch fehlen. 15) Kein Wunder, daß sich
       bei den jüngsten bahnbrechenden Entdeckungen des militärtechnisch
       relevanten Galliumarsenid-Halbleiters 16) und der neuen supralei-
       tenden Stoffe  17) nicht die Computermodelle, sondern eine an die
       Alchimie erinnernde  Herumprobiererei bewährt  haben. So ist also
       die Situation  in der mit wohldefinierten Fragen und nahezu unbe-
       grenzten Mitteln  ausgestatteten Materialwissenschaft.  Wie  kann
       man dann  glauben, daß sich die nicht weniger komplexen medizini-
       schen "Materialeigenschaften",  die  biologischen  Risiken  neuer
       Stoffe, z.  B. bei  der Genmanipulation,  im voraus berechnen und
       damit ausschließen lassen?
       2. ERFAHRUNG.  Guter Wille  nützt nichts, wenn er auf technologi-
       sche Lösungen  im Grenzbereich unseres Wissens und jenseits davon
       abzielt und  die mathematisch-naturwissenschaftliche  Komplexität
       und die Risiken weiter erhöht.
       BEISPIEL:  Müllverbrennungsanlagen   wurden  als  Alternative  zu
       grundwasserbedrohenden Deponien  konzipiert. Später  lernte  man,
       daß  sich   bei  der   Müllverbrennung  HCl  und  Dioxin  bilden.
       "Naturschutz" und  die Bewahrung  entlegener Naßbiotope  gewannen
       Vorrang vor  dem Schutz der Menschen in Ballungsgebieten. Schlim-
       mer, die  Machbarkeit von technologischen Scheinalternativen ver-
       hinderte das Beschreiten von gesellschaftlichen realen Alternati-
       ven : Statt zu Materialwiederverwendung, Müllsortierung und einem
       radikalen Eingriff  in die Produktion, Verpackung und Zirkulation
       industrieller Lebensmittel - ein naturwissenschaftlich überschau-
       barer, aber  gesellschaftlich gewiß  komplexer Ansatz  -  kam  es
       durch die  Entscheidung für die gesellschaftlich einfachere, aber
       naturwissenschaftlich einstweilen noch unüberschaubare Lösung der
       Müllverbrennungsanlagen zu einer zusätzlichen Krebsgefährdung der
       Stadtbevölkerung in  einer dem  Tabakrauchen möglicherweise  ver-
       gleichbaren  Größenordnung.  18)  Nun  wird  über  kompliziertere
       Rauchreinigungsanlagen nachgedacht.
       3. ERFAHRUNG. Komplexität und Unsicherheit wachsen rasant bei der
       Vernetzung von Prozessen, wenn einzelne allein schon nicht völlig
       beherrschbare Knotenpunkte verknüpft werden.
       BEISPIEL: Zur  Vernetzung gehört  auch der  synergetische Effekt,
       die qualitativ  neue und  oft unvorhersehbare kombinierte Wirkung
       zweier an  sich gutartiger, aber unzureichend erforschter Stoffe.
       So gibt es im Alltag des Bauern Düngemittel und Schädlingsbekämp-
       fungsmittel, die  in der  Tankmischung mit  anderen Schädlingsbe-
       kämpfungsmitteln deren  Eindringfähigkeit durch  das  menschliche
       Fettgewebe um ein Vielfaches erhöhen. 19)
       4. ERFAHRUNG. Nicht  weniger riskant ist die unkontrollierte Ver-
       netzung einer großen Anzahl individuell sogar ganz gut beherrsch-
       barer Knotenpunkte;  sie ist  besonders riskant, wenn die Sicher-
       heit im  Umgang mit dem Teilprozeß auf das Ganze projiziert wird,
       da die  Vernetzung eine  Fortpflanzung von  Abweichungen und  Un-
       glücksfällen weiter  über den  unmittelbaren Anlaß hinaus erlaubt
       und so die Größenordnung möglicher Schäden drastisch verändert.
       BEISPIEL: Blei  gehört zu  den ältesten und am besten erforschten
       Giften. Als aber 1923 die Beimischung von organischen und medizi-
       nisch besonders  riskanten Bleiverbindungen  zum Benzin  als  An-
       tiklopfmittel begann,  fehlte es in den USA an gesellschaftlichen
       Kräften, um die offensichtlichen Risiken zu thematisieren. Nur im
       betrieblichen Bereich der Produktion und Distribution konnten von
       den Gewerkschaften  Sicherheitsmaßnahmen, Grenzwerte  und beglei-
       tende medizinische Untersuchungen durchgesetzt werden. In der So-
       wjetunion wurde  dagegen für  alle Städte  der Gebrauch  von ver-
       bleitem Benzin  verboten. 20)  Vom Standpunkt der an den Raffine-
       riearbeitern durchgeführten  Untersuchungen war dieses Verbot un-
       nötig, da  die meisten  Arbeiter viel höhere Konzentrationen ohne
       Gesundheitsschädigung  überstanden  hatten;  vom  Standpunkt  der
       Schonung der  Ressourcen war  das Verbot  schädlich, weil die Le-
       bensdauer der Benzinmotoren erheblich verkürzt wurde.
       Vom Standpunkt  der Komplexitätstheorie  war es  jedoch  richtig,
       weil es sich um ein hochvernetztes Problem mit ungeklärtem Zusam-
       menwirken handelt:  Produktion und  Transport der Gifte; Verbren-
       nung im  Motor, Rückstand  und Emission; Ausbreitung in der Luft,
       Niederschlag, Deponierung  in der  Erde; räumliche Verteilung von
       Transportadern, Wohnverhältnisse,  Plazierung  von  Kindergärten,
       Schulen und  Spielplätzen; Aufnahme in den Körper durch Lunge und
       Magen und  Transport in der Blutbahn; physiologische Mechanismen,
       Enzymwirkung etc.  Die meisten  dieser Fragen  hätte  man  damals
       schon genauer untersuchen können. Es gab aber keine Gesamtanalyse
       und keine  scharfe Trennung  in die Einzelprobleme; die medizini-
       schen Teilprobleme  waren in sich schon hoch vernetzt und unklar.
       So lag  damals zwar  schon viel  statistisches Material vor, aber
       noch keine  ausreichende biochemische Erklärung für den Mechanis-
       mus der Bleivergiftung und seiner hemmenden und fördernden Bedin-
       gungen. Tatsächlich  fand man  dann Anfang der 70er Jahre erdrüc-
       kende statistische  Beweise für  starke neurologische Schäden bei
       Kleinkindern mit  erhöhter Bleikonzentration  in Blut und Gehirn,
       wobei zunächst  unklar war, ob Autoabgase oder Knabbern an Gegen-
       ständen mit Bleifarben für die Vergiftungen verantwortlich waren.
       Es zeigte sich dann, daß Blei für Kinder deshalb besonders giftig
       ist, weil  ihr Gehirn  noch nicht  durch die  "Blutbarriere"  ge-
       schützt ist. 21)
       5. ERFAHRUNG. Die  Auflösung komplexer  Probleme in  ein Netz von
       Prozessen  mit  möglichst  schmaler  Schnittstelle  kann  dagegen
       durchaus ein  Gewinn sein, wenn die Einzelknoten voll durchschau-
       bar sind.
       BEISPIEL: Computermodelle über  die globalen  Wirkungen eines be-
       grenzten Nuklearkriegs  führten zu der Untersuchung von möglichen
       Klimaänderungen aufgrund  von Staub- und Rauchemission, eine Fra-
       gestellung, die  zuvor im  militärischen wie  im antimilitaristi-
       schen Zusammenhang mit dem Hauptaugenmerk auf die großen Energie-
       umsetzungen übersehen  worden war.  Das Computermodell  war  also
       heuristisch eingesetzt worden - zur Generierung von Fragestellun-
       gen und Hypothesen, während die Antwort, die Prognose des nuklea-
       ren Winters,  dann aus den konkreten, von der Fragestellung ange-
       regten, präzise definierten und untereinander unabhängigen astro-
       physikali-schen, vulkanologischen, aerodynamischen etc. Einzelun-
       tersuchungen abgeleitet wurde. 22)
       6. ERFAHRUNG. Gepufferte Systeme haben die Tendenz, erst zu einem
       Zeitpunkt zu reagieren, wenn große und u, U. irreversible Schäden
       bereits entstanden  sind. Die  sichtbare Warnung kommt verspätet,
       oft zu einem Zeitpunkt, wo die Entsorgung nicht mehr oder nur äu-
       ßerst schwierig durchgeführt werden kann.
       BEISPIEL: Die  Wirkung der Luftverschmutzung auf die Wälder blieb
       lange verborgen,  da das  System  Wald  eine  gewisse  Menge  von
       Schadstoffen abpuffern  kann; das System reagiert auf die Störung
       mit Verzögerung.  Ähnliches  gilt  wahrscheinlich  auch  für  den
       Treibhauseffekt durch  die erhöhte  CO2-Konzentration  der  Atmo-
       sphäre mit  einer Abpufferung in der Vermischung der Wassermassen
       der Ozeane. 23) Wenn schon von den drei wärmsten Jahren seit 1861
       keines länger  als sieben  Jahre zurückliegt, 24) so haben wir es
       hier möglicherweise "nur" mit den Spätfolgen früheren Raubbaus zu
       tun, die  es unter  widrigen Bedingungen unsicher erscheinen las-
       sen, ob  wir oder  unsere Nachfahren  noch die Folgen der von uns
       erzeugten Verschmutzung erleben werden.
       FOLGERUNG. Nach  Kenntnis der Unbeherrschbarkeit einzelner Kompo-
       nenten  und  Prozesse,  nach  Kenntnis  der  hier  demonstrierten
       Schwierigkeiten bei  der Prognose  von Materialeigenschaften  und
       medizinischen Wirkungen  bestimmter Grundstoffe  und Verbindungen
       und Vernetzungen  gibt es  keine Grundlage für irgendeine Beruhi-
       gung angesichts der leichtsinnig hergestellten und täglich weiter
       synthetisierten Chemikalienvielfalt in Millionenzahl. 25)
       Wir begannen  die Erörterung von Risiken der Technik in Abschnitt
       3 mit einer Beurteilung der unterschiedlichen Qualität mathemati-
       scher Berechnungen,  wobei wir  die Ebenen  der Modellierung, der
       Approximation und  Analyse und der Realisierung im Rechner unter-
       schieden. Das  nun vorgelegte  Bündel von  Erfahrungen mit  theo-
       rieloser Praxis,  mit der Machbarkeit nichtbeherrschbarer Technik
       h e f t e t   s i c h   a l l e i n  a n  d i e  U n s i c h e r-
       h e i t e n   d e r   M o d e l l i e r u n g,   ohne die anderen
       Unsicherheitsebenen zu  bagatellisieren. Unsere Beispiele belegen
       verschiedene objektive Erkenntnisprobleme:
       - Das Fehlen von theoretisch begründeten oder allseitig empirisch
       geprüften Modellen für Handlungsbereiche.
       - Die Vernetzung von Prozessen und Wirkungen.
       - Die Verschleierung von Wirkungen in gepufferten Systemen.
       - Die gigantische Komplexität möglicher Wechselwirkungen.
       
       4.3 Menschliche Erkenntnisschranken
       -----------------------------------
       
       Neben diesen objektiven, in der Sache begründeten Schwierigkeiten
       beim Versuch,  alle wesentlichen  Auswirkungen komplexer Prozesse
       zu überschauen,  besteht eine Reihe wirksamer Erkenntnisschranken
       auch in  den Köpfen,  im Wissenschaftsbetrieb  und in der Gesell-
       schaft. Noch  gibt es  freilich keine  Sozialpsychologie  wissen-
       schaftlich-technischer Berechnungen,  die diese  menschlichen Er-
       kenntnisschranken systematisch  untersucht.  Wir  können  deshalb
       hier nur Anhaltspunkte geben.
       INDIVIDUUM: Langsam ablaufende Veränderungen sind für den einzel-
       nen Menschen  oft schwer erkennbar. Die Veränderungen sind gradu-
       ell. Die  Erwartung des Mittelalters, daß alles so bleibt, wie es
       war, ist  längst untergegangen im Erlebnis großer drastischer Um-
       wälzungen. Es  fehlt aber  nun die  Sensibilität für die mögliche
       Bedeutung kleiner,  unscheinbarer Veränderungen.  Dazu kommt  die
       Einübung in  die "üblichen" Lösungsstrategien, z.B. die "lineare"
       Reaktion, die Erwartung doppelter Wirkung bei doppelter Leistung.
       Die Erfahrung,  daß Dinge  sich nach anderen Gesetzen entwickeln,
       ist selten;  die spontane  Reaktion, da  ungebildet, falsch.  Der
       Bremsweg eines PKWs wächst schneller als linear mit der Geschwin-
       digkeit, doch  die "Faustregel"  für die  zu übersehende  Strecke
       heißt "halber Tacho".
       Der Präsident  der Weltföderation  der Wissenschaftler, J.-M. Le-
       gay, hat  hierzu einmal  die folgende  Gedankenkette vorgetragen:
       (I) Die  Welt stellt sich komplex dar; die Wirklichkeit ist uner-
       schöpflich. (II) "Folglich können unsere Probleme nicht mit einer
       magischen Zauberformel  gelöst werden. Auch nicht durch eine dog-
       matische Entscheidung."  (III) Der  große  "Fehler"  der  Wissen-
       schaft, ihr komplexer Aufbau, der Verstehen an zahlreiche Voraus-
       setzungen knüpft, ist eine Notwendigkeit und eine Errungenschaft.
       (IV) Dagegen steht, daß die Mehrzahl der Menschen in einem großen
       Teil der Welt sich dieser Komplexität nicht bewußt, wissenschaft-
       lich ungebildet  ist - u. a. aufgrund der abstrakten Form des we-
       nigen vermittelten Wissens. (V) Ihre Sucht nach einfachen Antwor-
       ten, ihr  Widerwillen gegen  komplizierte  Untersuchungen  müssen
       überwunden werden. 26)
       WISSENSCHAFTSBETRIEB: Das Fehlen zuverlässiger wissenschaftlicher
       Grundlagen in vielen Handlungsbereichen, das Ungleichgewicht zwi-
       schen Machbarkeit  und Beherrschbarkeit, lenkt die Aufmerksamkeit
       darauf, wie  die Hervorbringung  wissenschaftlicher  Erkenntnisse
       organisiert ist.  Mal wird  die Bedrohung  der  Menschheit  durch
       Kernwaffen  und  Umweltverschmutzung  auf  Schwächen  im  Wissen-
       schaftsbetrieb zurückgeführt,  mal wird  ihre Erlösung von seiner
       Reorganisation erwartet;  mal wird  das Fachidiotentum  angepran-
       gert, mal  die smarte  Geschäftigkeit und Anpassungsfähigkeit von
       Institutsdirektoren bloßgestellt;  mal wird  der Wissenschaftsbe-
       trieb als  Elfenbeinturm belächelt,  mal als Machtzentrum dämoni-
       siert.
       Diese Zerrbilder  passen allesamt  recht schlecht  auf den Alltag
       der Wissenschaft,  weder auf  das Leben an den wissenschaftlichen
       Hochschulen noch  an den Forschungsinstituten der Industriezweige
       27): Nicht der enge Spezialist ist heute tonangebend, sondern das
       Forscherteam oder  die  herausragende  Einzelpersönlichkeit,  die
       enge vorgegebene Bahnen überwinden können. Umgekehrt dürften auch
       heute kaum  die Think-Thanks der Rand Corporation das letzte Wort
       bei der Finanzierung von SDI haben.
       Und doch  gehört zum  Wissenschaftsbetrieb auch die Konzentration
       auf eine  Seite einer  Beziehung, d.h.  Arbeitsdisziplin und gei-
       stige Enge,  sowie z.  B. das  Einwerben von finanziellen Mitteln
       und die  Rechenschaftslegung, d.h.  Reklame, Anpassung und Fremd-
       steuerung. Hier in der Außensteuerung oder Außenorientierung lie-
       gen die  Hauptquellen der Erkenntnisschranken im Wissenschaftsbe-
       trieb, der  Verzerrungen aufgrund der Auswahl, Zuweisung oder Ab-
       lehnung von  Thematik, Mitteln  und Methoden.  Im Vergleich  dazu
       sind die  Erkenntnisschranken aufgrund  des Spezialistentums ver-
       nachlässigbar; ohnehin liegt das Problem dort ja nicht in der be-
       wußten Ableitung von Einzelresultaten mit wohldefinierten Gültig-
       keits- und Anwendungsgrenzflächen (wenn dabei die Dinge nicht un-
       nötig kompliziert  werden, liegt  darin gerade  die Voraussetzung
       für ein  gemeinschaftliches Herangehen, für die organisierte Kom-
       bination verschiedener  Erfahrungen, für die Einbeziehung der Öf-
       fentlichkeit), sondern  im  spontanen  nichtkontrollierten  Über-
       schreiten der Kompetenzgrenzen, wieder in der voreiligen Überfüh-
       rung erworbener  Sicherheit im  eigenen Gebiet auf Nachbargebiete
       und Zusammenhänge. Das äußert sich so:
       Die verallgemeinerten  Kenntnisse über Nachbargebiete des eigenen
       Fachgebietes sind  meistens veraltet. Verallgemeinerungen der ei-
       genen Arbeit  finden deshalb häufig auf einer historisch überhol-
       ten Stufe statt.
       Das ist  der wissenschaftsinterne  Grund, warum  die Aussagen von
       Experten paradoxerweise meistens mehr wert sind, wenn sie nur De-
       taillösungen im Rahmen ihres Faches vorschlagen - und sei es auch
       ohne Berücksichtigung  der Verflechtungen mit den Nachbargebieten
       -, als  wenn sie ihre enge Fachautorität in illegitimer Weise auf
       selbstgebastelte naive  und hinterwäldlerische  Vorstellungen vom
       Zusammenhang ihres  eigenen Gebietes  mit anderen Bereichen über-
       tragen. Ein  tüchtiger Kraftfahrzeugingenieur  verdient viel Ver-
       trauen bei der Suche nach einer Verbesserung bestehender Verbren-
       nungsmotoren und, wenn es hoch kommt, auch bei der Suche nach Al-
       ternativen zum  Ottomotor als  Antriebsmaschine; erst seinen wei-
       tergehenden Überlegungen  als "Transportexperte"  muß mit größtem
       Mißtrauen begegnet  werden, wenn er z. B. nicht den anarchischen,
       rohstoffverbrauchenden,  umweltverschmutzenden  Individualverkehr
       und die  irrationale Art  der Arbeits- und Wohnplatzallokation in
       Frage stellt.
       ÖFFENTLICHKEIT: Der neue Charakter der Wissenschaft, die als Pro-
       duktivkraft und  als Destruktionsmittel  die  Lebensumstände  der
       Menschheit beeinflußt,  hat den  Begriff der  Öffentlichkeit  auf
       eine neue  Stufe gehoben:  Entscheidungen über neue Waffensysteme
       sind nicht  mehr den  Kriegskabinetten, die  Beschlußfassung über
       chemische Produktionsverfahren  nicht mehr  den Konzerndirektoren
       vorbehalten. Mit der gewachsenen Bedeutung von Wissenschaft mußte
       durch Einbeziehung der "Experten" auch die soziale Basis von Ent-
       scheidungen verbreitert werden; abweichende Expertenmeinungen er-
       wiesen sich  als ein Vehikel, um die Entscheidungen - oder zumin-
       dest die Erörterung von Entscheidungen - weiter zu objektivieren,
       in der  Tendenz zu  demokratisieren, in eine breitere Öffentlich-
       keit zu tragen. 28)
       Dieser Prozeß ist in Wirklichkeit allerdings noch recht zwiespäl-
       tig: Statt eines organischen Zusammenspiels zwischen Bevölkerung,
       Experten und  Mediatoren finden  wir die Delegation von Entschei-
       dungen an diese Experten und Mediatoren oder die Verschanzung an-
       derer sachfremder  Interessen hinter ausgewählten und in den Vor-
       dergrund geschobenen Experten und Mediatoren. Auf diese Weise tun
       sich neue  Erkenntnis schranken  auf: Werden  z.B. mit dem Gefühl
       unzureichender eigener Qualifikation für die Beurteilung schädli-
       cher oder  positiver Wirkungen  Entscheidungen an  Experten dele-
       giert, so  ändern sich  die Kriterien,  da nunmehr nur fachspezi-
       fisch geprüft  wird, welche Aussagen im Rahmen welcher Vorausset-
       zungen richtig sind. Oftmals wird man diese Frage nicht abschlie-
       ßend entscheiden  können; es bleiben also Zweifel. Die Gründe für
       eine bestimmte  Entscheidung (oder  für ihre Unterlassung) werden
       dann durch  Dritte, die Medi(ator)en, vermittelt. Auf diese Weise
       wird die anstehende Entscheidung zu eng, oft nur aus einem einzi-
       gen beschränkten  Gesichtspunkt als  "fachlich richtig  - ja oder
       nein" beurteilt  und dann  etwa in  dem Sinne "die Fachleute sind
       sich über  mögliche negative Folgen nicht einig, also sollten wir
       doch die augenscheinlichen Vorteile nutzen" zwischenbeurteilt. So
       hat der  glänzende Statistiker R.A. Fisher als Berater der briti-
       schen Tabakindustrie  mehrere Jahre seines Lebens und sein ganzes
       wissenschaftliches Renommee dafür benutzt, um die Evidenz der ge-
       sundheitlichen Schädlichkeit  des Rauchens mit wissenschaftlichen
       Zweifeln zu  überziehen und Warner vor dem Rauchen mundtot zu ma-
       chen: eine  tragische Verknüpfung  und wechselseitige Verstärkung
       von Korruption,  Arroganz, extremer  zur Fachidiotie verkümmerter
       Kompetenz und Sensationspresse. 29)
       Mit der  Delegation an "Experten" und "Mediatoren" geht die poli-
       tische Entscheidung  eines jeden  verloren, welches  Handeln  man
       sich trotz begründeter Zweifel noch leisten will. Als Ersatzreak-
       tion finden  wir dafür  entweder die Losung "Das Machbare Machen"
       oder "Nichts  Verändern". Nur  allseitig gebildete  Bürger, deren
       Selbstachtung und Verantwortungsgefühl nicht durch zu langes Ver-
       weilen in undurchschaubarer und für sie unbeherrschbarer Umgebung
       zerstört worden ist, können die Informationsflut von Experten und
       Mediatoren nutzen  und die  Initiative behalten oder wiedergewin-
       nen. 30)
       DAS KAPITAL:  Die einfachste Erkenntnisschranke wirkt in den Köp-
       fen derer,  die vom  Profit leben. Sie werden nicht leicht akzep-
       tieren, daß  mit der  bisherigen Rücksichtslosigkeit  nicht  mehr
       produziert werden  kann, und  sie sind  selten zur Revision ihrer
       Profiterwartungen bereit.  Die Eigentumsfrage darf aber nicht zum
       Ruhebett, die  Systemauseinandersetzung nicht zur Universalerklä-
       rung werden:  "Das 20.  Jahrhundert mit seiner beispiellosen wis-
       senschaftlich-technischen Explosion  implantierte ein künstliches
       Organ -  die Weltwirtschaft - in die Biosphäre, und nun vergiftet
       dieses Organ  sie langsam,  aber sicher... Viele haben begriffen,
       daß die Umweltkrise viele Gründe hat, vor allem aber auf die Ver-
       brauchermentalität auch  im Hinblick auf die Natur zurückzuführen
       ist." 31)
       Zu Recht  war dort nicht die Rede von irgendeinem bestimmten Teil
       der Weltwirtschaft,  da die  ohnehin  unterschiedlich  gewerteten
       spezifischen Systembeiträge  in diesem Zusammenhang nebensächlich
       sind. Die  Relevanz der  Systemfrage kann sich aber in der Fähig-
       keit zur Umsetzung der verspäteten Einsicht in wirkliche Umsteue-
       rung der  Produktion erweisen.  (Das ist  aber noch  eine  offene
       Frage. Immerhin  ist aber die Ausdehnung des Produktionsprozesses
       als Vergrößerung  des Kapitals eine Existenzbedingung nur des Ka-
       pitalismus, während sie im Sozialismus Gegenstand von politischen
       Entscheidungen ist.)
       
       4.4 Problemlösung ohne "Erfassung der Situation"
       ------------------------------------------------
       
       Man hört  oft, daß  zwischen Theorie und Methode, zwischen Modell
       und Werkzeug unterschieden wird. Danach liefern Methode und Werk-
       zeug Problemlösungen  und Theorie  und Modell  Beschreibungen und
       Erklärungen. Aber sind diese Schubladen sauber getrennt? Zum Bei-
       spiel kann man mit Hilfe des "Pledge-Algorithmus" der Suchtheorie
       aus jedem  ebenen Labyrinth  mit Ausgang  herausfinden. Doch  das
       Verfahren löst  nur das  Problem, zum Ausgang zu finden, und lie-
       fert keinen  Plan des  Labyrinths; es  ist also  wertlos zum  Be-
       schreiben und Erklären und sammelt für einen zweiten Versuch, aus
       demselben Labyrinth  zu entkommen, keine Erfahrung an. Aber indem
       das Verfahren  immer unter den angegebenen Bedingungen zur Lösung
       führt, enthält  es etwas  Allgemeines. Es  erklärt eine Seite des
       Begriffs "Labyrinth" und wird so zur Theorie. 32)
       Für weite  Teile der  mathematischen Physik fällt es schwer, zwi-
       schen Methode  und Theorie  scharf zu  trennen. Wir  kennen nicht
       vollständig die Natur des Lichtes, aber wir kennen die Kriterien,
       wann Licht  am besten  als Strahl, als Welle oder als Teilchen zu
       modellieren ist. Wir haben es gelernt, hier mit unserer Unwissen-
       heit korrekt umzugehen.
       Schließlich gibt es Technologien wie die Turbine, die nur deshalb
       eingeführt werden konnten, weil sich die Techniker und Ingenieure
       rigoros über  die vorhandene Unwissenheit und die akademische und
       patentamtliche Forderung  des theoretischen  Verständnisses ihrer
       Erfindung hinwegsetzten.
       Problemlösung ohne Erfassung der Situation ist also ein ganz nor-
       maler Vorgang, sei es, daß die Methode eine verkappte Theorie ist
       oder eine  bestimmte Facette  der Wirklichkeit  erfaßt oder  ohne
       allzu großes  Risiko nachträglich  in der Praxis erforscht werden
       kann.
       
       4.5 Betonierung von Lösungsverfahren
       ------------------------------------
       
       Die berechtigte  und erfolgreiche Anwendung von Methoden zur Pro-
       blemlösung ohne  entsprechende Erfassung  der Situation kann aber
       auch sehr negative Folgen haben.
       Einmal: Wo keine Theorie da ist, um Wege zu vergleichen, wird die
       Grenze zwischen dem angemessenen und dem unangemessenen Verfolgen
       von Wegen  verwischt. Der  Leichtsinn wird ermuntert; fehlerhafte
       Methoden werden nur wegen eines illusionären Anspruchs auf allge-
       meine Gültigkeit  schon für  Theorie gehalten; grobe Verzerrungen
       werden als  notwendige Vereinseitigungen  ausgegeben; und die Ge-
       sundheit und  das Leben  von Millionen  Menschen werden  für  die
       praktische Erprobung  theoretisch noch nicht ausreichend verstan-
       dener Verfahren aufs Spiel gesetzt.
       Zum anderen:  Neben der  Ermunterung zum Leichtsinn steht die Er-
       munterung zum  Starrsinn, die  Betonierung von in gewissen Situa-
       tionen bewährten unverstandenen Lösungsverfahren. Gerade weil der
       Zusammenhang unverstanden  bleibt, kann  die Tragweite  einer Me-
       thode schwer abgeschätzt werden.
       Deshalb haben  sich die Programmiersprachen Fortran und die abge-
       magerte Version  Basic aufgrund  ihrer bloßen  Existenz und wegen
       des Fehlens  einer Theorie  des Programmierens  als Voraussetzung
       einer Qualitätsbeurteilung so lange halten können. Basic fand üb-
       rigens zu  einem Zeitpunkt massenhafte Verbreitung, als die Fehl-
       anlage der Sprache bereits wissenschaftlich erkannt war und viele
       wissenschaftlich begründete Alternativen bereitstanden.
       Die gleiche  Geschichte können  wir von der mathematischen Stati-
       stik erzählen,  wo Momente  noch immer meistens durch den Mittel-
       wert geschätzt  werden, obwohl  die zugrundeliegende  Methode der
       kleinsten  Fehlerquadrate   nur   bei   normalverteilten   Werten
       "richtig" ist und sonst riskant und "nicht-robust". 33)
       Oder wir sehen, wie die Methode der finiten Elemente, die aus der
       Baustatik kommt  und da theoretisch begründet ist, auch zunehmend
       in der  Strömungsmechanik angewendet  wird,  obwohl  ganz  andere
       Kräfte zwischen  den kontinuierlich verteilten Flüssigkeits- oder
       Gasteilchen wirken als zwischen den diskreten Trägerelementen ei-
       ner architektonischen Struktur. 34)
       Wieso konnte  es dazu  kommen? Bei  Massenprozessen gibt es immer
       viele Handelnde.  Viele hatten keinen Zugang zur Theorie, konnten
       es nicht  besser wissen;  einige haben sich wohl nicht sonderlich
       für die  Folgen ihres  Handelns interessiert.  So belegt  die Ge-
       schichte nicht  nur, wie  folgenreich eine  Praxis ist,  die  die
       Theorie verschmäht,  sondern auch,  wie leicht Handhabbarkeit mit
       Beherrschbarkeit verwechselt wird.
       
       4.6 Technikromantik, KI und Realität
       ------------------------------------
       
       Viel können  wir zum Thema "Erkennbarkeit" und "Beherrschbarkeit"
       aus der  Fachliteratur der  "Künstlichen Intelligenz" der letzten
       zwanzig Jahre lernen. Von dem frischen Bastlergeist der ausgehen-
       den 60er Jahre ist nicht viel übriggeblieben. Statt dessen finden
       wir einen  gewiß nützlichen Austausch von technischen Kniffen und
       unvermittelt daneben utopische Visionen.
       Keine der Prognosen von damals über die Wunder der 80er Jahre ist
       in Erfüllung  gegangen: 35)  Noch gibt  es keine mobilen Roboter,
       die sich  relativ frei  in einer  industriellen Umgebung  bewegen
       können, oder  fahrerlose Autos  auf unseren Straßen; noch ist die
       Bildverarbeitung, z.  B. beim  Schriftlesen, und  die maschinelle
       Verarbeitung menschlicher  Sprache nicht  universell, sondern nur
       durch Training auf den jeweiligen Schrift- oder Sprachtyp gelöst;
       eine Formalisierung  des Alltagswissens  ist nicht  gelungen; die
       praktischen Erfahrungen  mit  Expertensystemen  sind  bescheiden;
       einzig die  Spielprogrammierung, z.B.  beim Schach, hat zu bedeu-
       tenden Erfolgen geführt. Nur in den wenigen Fällen, wo die zu si-
       mulierende Tätigkeit  bereits theoretisch gut verstanden war, kam
       es zum  Durchbruch. Ansonsten  nützte auch ein großer materieller
       und gedanklicher Aufwand wenig.
       Eine ähnliche  Kluft wie in der KI-Forschung zwischen außen glän-
       zender Verpackung  und teuren Versprechen und innen eher beschei-
       denen Ergebnissen  bildet sich auch in den traditionelleren Zwei-
       gen der  mathematisch-naturwissenschaftlichen Forschung  mit  dem
       Vordringen des  "Darstellungsperfektionismus", der  sich den For-
       schungsgegenstand, die Methode, die Datenerhebung und die Art der
       Auswertung von den verfügbaren imposantesten elektronischen Werk-
       zeugen bestimmen läßt.
       Eine weitere Parallele zwischen KI-Forschung und der modernen in-
       strumentellen Mathematik liegt in dem Riesenaufwand, der für neue
       Rechnerarchitekturen betrieben  wird. Er  bestätigt das  Versagen
       der bisherigen  Mittel der  mathematischen Simulation  in  Natur-
       wissenschaft und  Technik und  die extremen Erwartungen, die den-
       noch darauf  gerichtet sind. Wieder finden wir z. B. bei den zel-
       lularen Automaten  einen erheblichen Aufwand, obwohl die Grundla-
       gen nicht geklärt sind. 36)
       
       5. Absolute Erkenntnisschranken?
       --------------------------------
       
       Bewegen wir  uns zum  Rand der  Wissenschaft, so  erscheint immer
       eine Reihe  von Problemen,  die bei dem derzeitigen Stand unseres
       Wissens verwirrend  sind. Das  gilt nicht nur für die technischen
       Anwendungen, sondern  auch in  der Grundlagenforschung. Die große
       Beunruhigung, die  von neuen  grundwissenschaftlichen Erkenntnis-
       sen, Rätseln  und Widersprüchen  ausgeht, sollte  als Vorbild für
       die noch  weitgehend fehlende  Sensibilität gegenüber interdiszi-
       plinären Fragen  im Grenzbereich  der Wissenschaft dienen und auf
       keinen Fall  den Blick  auf die  unmittelbar viel folgenreicheren
       Schranken der  Erkennbarkeit und Beherrschbarkeit verstellen, die
       im mathematisch-naturwissenschaftlich-technischen  Alltag hervor-
       treten. Dafür  ist zuallererst  eine nüchterne  Sicht auf die fa-
       chinternen Erkenntnisprobleme  nötig. Gegen  die Neigung, zu weit
       gehende erkenntnistheoretische Konsequenzen aus diesen einzelwis-
       senschaftlichen Resultaten  oder Problemen  zu ziehen, wollen wir
       die folgenden Thesen stellen:
       1. Der Logiker  Kurt Gödel hat in den 30er Jahren gezeigt, daß in
       jedem nicht  zu engen  formalen System  "zwei seltsame Dinge" (H.
       Weyl) passieren:  Es lassen sich arithmetische Sätze von verhält-
       nismäßig elementarer Natur angeben, die richtig sind und doch in-
       nerhalb des Formalismus nicht abgeleitet werden können; und: Gäbe
       es einen formellen Beweis der Widerspruchslosigkeit des gegebenen
       formalen Systems, so ließe sich daraus ein Widerspruch konstruie-
       ren. Damit  hat Gödel  wichtige Aussagen  einmal über die Grenzen
       automatischer Beweisverfahren  durch einen endlichen kombinatori-
       schen Suchprozeß  gemacht und des weiteren die Naturwissenschaft-
       lern und  materialistischen Philosophen wohlvertraute Unerschöpf-
       barkeit unserer  Naturerkenntnis auch für ein so einfach erschei-
       nendes künstliches  Gedankengebilde wie  die  natürlichen  Zahlen
       nachgewiesen. 37)
       2. Neueren Datums ist die mathematische Theorie des deterministi-
       schen Chaos dynamischer Systeme: Es wurden verhältnismäßig einfa-
       che  gewöhnliche   Differentialgleichungen  entdeckt,  bei  denen
       kleinste Abweichungen  der Anfangsbedingungen die Entwicklung der
       Zustände des  Systems in  weiter Zukunft  entscheidend  verändern
       können. Danach  kann prinzipiell nicht ausgeschlossen werden, daß
       es z.  B. für  die Bildung  von Großwetterlagen  heute vielleicht
       Jahrhunderte zurückliegende  kritische Augenblicke  gibt, wo  ein
       Schmetterling in  Hintertupfing mit dem Schlag seiner Flügel ent-
       schied, ob  ein atlantisches  Störungstief über  Labrador nun auf
       uns zukommt oder nach Süden abdreht. Tatsächlich wissen wir genug
       über thermische  Fluktuationen, um  nicht erst aus dem determini-
       stischen Chaos Zweifel an der Zuverlässigkeit von Langzeitwetter-
       vorhersagen abzuleiten;  und auf  keinen Fall  folgt  daraus  die
       prinzipielle Unvorhersagbarkeit aller mechanischen Systeme. 38)
       3. Was besagt  die moderne  "Stringtheorie" des zehndimensionalen
       Universums? Nicht  den illusionären  Charakter unserer vierdimen-
       sionalen Auffassung von Raum und Zeit, sondern die Annahme weite-
       rer Dimensionen  für den  subatomaren Bereich,  die für eine ein-
       heitliche Theorie  von Gravitation, Elektromagnetismus und schwa-
       cher und  starker Wechselwirkungen hilfreich erscheinen, aber nur
       bei hypothetischen  Beschleunigern mit Energien von astrophysika-
       lischer Größenordnung im Experiment beobachtbar sind. 39)
       4. Was besagt  das Aspektexperiment  im Bohr-Einstein-Streit über
       den "Realismus"  der Quantenmechanik? Nicht die Schaffung von Ge-
       schichte und  Universum durch  den  messenden  Quantenmechaniker,
       nicht die  Auflösung von  Raum und  Zeit, sondern das einstweilen
       unerklärliche Polarisationsverhalten  von zwei "ähnlichen" Photo-
       nen: Nach  Einwirkung auf das eine Photon ändert sich das Verhal-
       ten des anderen, das sich mit Lichtgeschwindigkeit in entgegenge-
       setzter Richtung  entfernt hatte,  ohne daß wir den Charakter der
       Informationsübertragung durch  die Meßapparatur oder zwischen den
       beiden Photonen kennen. 40)
       
       6. Gesellschaftliche Ethik wissenschaftlich-technischer
       -------------------------------------------------------
       Veränderungen
       -------------
       
       "Zweifel" und  "Risiko" wurden zu ethischen Kernbegriffen der mo-
       dernen  mathematisch-naturwissenschaftlichen   Berechnungen.  Der
       "Zweifel", weil  der Charakter der wissenschaftlichen Erkenntnis-
       gewinnung es  mit sich  bringt, daß  die möglichen  Antworten nur
       vorläufige Antworten  sind. "Risiko", da bei Strafe des Untergan-
       ges der  Art oder  vieler Menschen in die um uns ablaufenden Pro-
       zesse eingegriffen werden muß. Also: "Zweifel", da wir mit nicht-
       perfekten Werkzeugen,  Modellen arbeiten müssen. "Risiko", da wir
       aus den  Modellen Handlungslinien ableiten müssen, die möglicher-
       weise später zu korrigieren sind. 41)
       
       6.1 Zweifel und Risiko
       ----------------------
       
       Vom Standpunkt  des Naturwissenschaftlers  und Mathematikers läßt
       sich der  "Zweifel" an einer vorgeschlagenen Lösung und damit das
       mit der  Lösung verbundene Risiko aus zwei Dingen abschätzen: aus
       dem Grad  der Einbettung  des verwendeten Modells in sein empiri-
       sches und theoretisches Umfeld und aus der Unscharfe, mit der die
       verwendeten Gleichsetzungen  im  Modell  formuliert  wurden.  Mo-
       dellergebnisse extremer  Situationen sind  schlechter eingebettet
       und mit größerer Unscharfe behaftet, d. h. Aussagen eines Modells
       für normale  und extreme  Situationen sind nicht gleichwertig. Da
       in der  Regel die negativen Auswirkungen von Fehlverhalten in ex-
       tremen Situationen schwerwiegender sind als die von Fehlverhalten
       in normalen  Situationen -  man denke an das Verhalten der Bedie-
       nungsmannschaft im  Kernkraftwerk Tschernobyl  42) -,  sinkt  die
       Vorhersagequalität des  Modelles nicht nur im Takt mit der Abwei-
       chung von der Normalsituation, sondern schneller.
       Hier streifen  wir das Gebiet der Psychologie. Der Umfang der Um-
       weltkatastrophe und  die  widersprüchliche  Stellung  der  großen
       Mehrheit der  Menschheit dazu als bewußtlose Täter und Opfer legt
       die Parallele  nahe zu dem Inferno, das die deutschen Soldaten im
       Zweiten Weltkrieg letztendlich sich selbst bereiteten. Historiker
       definieren dabei  die faschistische Manipulation als zusammenhän-
       gendes System  von Terror,  Ideologie und  Korruption. 43) Danach
       reicht der  Terror nicht  für die  Erklärung aus, wieso die deut-
       schen Soldaten  im Zweiten  Weltkrieg so lange dem Nationalsozia-
       lismus die  Treue hielten  und die  Augen vor der sich spätestens
       mit Stalingrad  abzeichnenden militärischen Niederlage verschlos-
       sen. Noch mehr als zwei Jahre ging der Krieg danach weiter; immer
       unerbittlicher; noch  viele weitere  Millionen deutscher Soldaten
       ließen sich abschlachten oder invalidisieren. Warum liefen nur so
       wenige über  und retteten  ihr Leben?  Vermutlich versuchten sie,
       nicht an ihr Ende oder das Kriegsende zu denken. Vermutlich setz-
       ten sie  noch immer  auf die  technologische Lösung,  die Wunder-
       waffe, oder  das politische  Wunder, das  Auseinanderbrechen  der
       Anti-Hitler-Koalition oder  die unmerkliche  Ablösung des eigenen
       Regimes, Separatfrieden  im Westen  etc. etc.  Erleben wir  heute
       nicht ganz ähnliche Verdrängungen, das Warten auf den technischen
       "Fix" oder  das politische  Wunder, wenn  es um die Beraubung der
       Zukunft für  die nächste  Generation und vielleicht schon die Un-
       tergrabung der eigenen Lebensgrundlagen geht? 44)
       Besitzer, Benutzer oder Nachbar von Gegenständen oder Einrichtun-
       gen -  seien es Glühlampen, Autos, Milchtüten, Krane, Fischteiche
       oder Kernkraftwerke -, die nach einem bestimmten Modell entworfen
       wurden und  wirken, stehen vor der Frage: Wie groß muß das Risiko
       für euch  werden, damit  ihr euer Interesse an den Grundlagen des
       Modells artikuliert  und eine  Fähigkeit zur Beurteilung von Kom-
       plexität, von Vernetzungen, Pufferungen und Berechnungen extremer
       Situationen erwerbt  und anwendet?  Niemand wird  euch  letztlich
       diese Verantwortung  abnehmen können.  Und es wird keinen anderen
       Weg zu einem verantwortlichen Handeln geben als durch die Massen-
       aufklärung und  -mobilisierung, durch  den Kopf, nicht durchs Ge-
       fühl, nicht  durch die  Religion und hoffentlich auch nicht durch
       zu brutale plötzliche Katastrophen.
       Wann kommt  es endlich  zu einer  demokratischen Neubewertung der
       Materialintensität und  -umlaufgeschwindigkeit? Sämtliche Materi-
       alflüsse müssen analysiert und umgestaltet werden: in der Konsum-
       tion (einschließlich des Militärs als Konsumtion), in der Produk-
       tion -  und bei  der Verwaltung  der Altlasten,  die einen  rasch
       wachsenden Aufwand  hier zur  Heilung, Entsorgung und Entgiftung,
       dort zur  Siechenpflege, Überbrückung  und Absperrung  erfordern?
       45)
       
       6.2 Wie soll es weitergehen?
       ----------------------------
       
       Wir waren angetreten, um einen Bericht von der Innenseite der ma-
       thematisch-naturwissenschaftlich-technischen Forschung  zu geben.
       Darüber hinausgehenden  wissenschaftlich-technischen oder gesell-
       schaftlichen Optimismus können wir nicht liefern. Genauer:
       1. Die Auswirkungen  des Produktionsapparates  auf die  Lebensum-
       stände der  Menschheit sind  so massiv geworden, daß die sorglose
       Pragmatik, alles  nach seiner  eigenen Dynamik  laufen zu lassen,
       überholt ist.  Wird es  im Wettlauf mit der Zeit gelingen, unsere
       Wechselwirkung mit  der Natur von der Atomrüstung bis zu den Kon-
       sumgewohnheiten auf  einen nach unseren Wertmaßstäben akzeptablen
       Zustand (wir  meinen damit  ein materiell  abgesichertes und kul-
       turell reiches  Leben unter Verzicht auf viele gewohnte Konsumgü-
       ter) umzustellen?  Man ist  schon Optimist, wenn man das noch als
       offene Frage ansieht.
       Hoffen wir also, daß es noch nicht zu spät ist, die Risikobereit-
       schaft im Militärwesen, in der Industrie, in der Tier- und Pflan-
       zenproduktion, im  Umgang mit  neuen Stoffen  und Verfahren  dra-
       stisch zu senken.
       2. Fortschritte in der Erkenntnis, in Kompetenz, Kritik und Zwei-
       fel dürfen nicht der Resignation zugute kommen, sondern müssen zu
       ihrer Ablösung  durch bewußtes  Handeln, darunter  auch  bewußtes
       Eingreifen und Anhalten, führen.
       3. Nicht Fortschritte  der Wissenschaft  an sich,  auch nicht ei-
       gentlich die  begleitenden immer  neuen Grenzen  unseres Wissens,
       sondern die  verantwortungslose Ignorierung  dieser Grenzen haben
       unerträgliche Risiken in unser Leben gebracht. Daraus folgen neue
       Anforderungen an die polytechnische, aber auch an die politische,
       ökonomische und  ethische Allgemeinbildung.  Es liegt ja nicht so
       sehr an  Unsicherheiten der  Reaktortechnik, noch immer fehlendem
       Wissen über  ökonomische Filter  für Kohlekraftwerke und Müllver-
       brennungsanlagen und nicht immer am Profitsystem und am Privatei-
       gentum, wenn wir Menschen großen gesundheitlichen Belastungen und
       Risiken aussetzen. Es liegt viel mehr an dem mangelnden Interesse
       und mangelnder Verantwortung gegenüber den Nah- und Fernwirkungen
       unseres Tuns  - wenn wir z. B. im Verlauf von Jahrzehnten von der
       jahrtausendealten Gewohnheit der Menschen abgehen, sich im Winter
       warm anzuziehen,  und statt  dessen lieber  den  Temperaturunter-
       schied zwischen drinnen und draußen radikal erhöhen.
       4. Ist es  kein naturwissenschaftliches  Problem, so  ist es auch
       kein ausschließlich  moralisches Problem. Gegen die Freude am Ge-
       winn, der  Interesse und  Verantwortung für die Folgen verdrängt,
       kann man  genau so  erfolglos moralisieren wie gegen die resigna-
       tive Haltung,  die -  angesichts bestehender  Schwierigkeiten bei
       der Herbeiführung von Veränderungen - es aufgibt, alle Grundlagen
       und Folgen des eigenen Tuns selbst abzuschätzen. Wird die Verant-
       wortungslosigkeit und  Interesselosigkeit in  unserer  überholten
       Gesellschaftsordnung auch  mit allen  Mitteln gefördert, so zeigt
       doch die jüngste Diskussion in der Sowjetunion, daß alles schwie-
       rig genug bleibt - selbst wenn die gesellschaftlichen Propaganda-
       mittel über  Jahrzehnte in  entgegengesetzter Richtung eingesetzt
       waren. Wir  müssen also  auch bei  uns, und zwar schon jetzt, ge-
       sellschaftliche Veränderungen einleiten, die der Verantwor-tungs-
       losigkeit und  Interesselosigkeit in  ihren unterschiedlichen Be-
       dingungen und Ausprägungen entgegenwirken.
       5. Wenn wir  also etwas  von  unserer  wissenschaftstheoretischen
       Diskussion verallgemeinern  können, dann  ist es  das Problem der
       Komplexität: So  wie die Modellierung von Einzelaspekten verhält-
       nismäßig gut  gelingt und  die meisten Unsicherheiten aus dem un-
       kontrollierbaren Zusammenwirken oder der unsachgerechten Dominanz
       von einzeln  gesehen vernünftigen Ansätzen entstehen, müssen auch
       gesellschaftliche Verhältnisse  geschaffen werden,  bei denen die
       zügellose Vernetzung  aller Lebensbereiche  begrenzt wird 46) und
       durch eine geeignete gesellschaftliche Organisation die persönli-
       che Verantwortung,  das persönliche  Interesse, die  persönlichen
       und damit letztlich auch die gesellschaftlichen Handlungsmöglich-
       keiten erweitert werden.
       
       _____
       1) Unser   Thema    ist   das    Verhältnis   von   Handeln   und
       E r k e n n t n i s;  d.h., wir untersuchen einstweilen nicht die
       gesellschaftliche, sondern  die gedankliche  und  technische  Be-
       herrschbarkeit von  durch die  Menschen geschaffenen Gegenständen
       und Verhältnissen.  Ohne technische  Beherrschung, ohne  die  ge-
       dankliche Erfassung  aller möglichen und wesentlichen Bedingungen
       und Folgerungen  ist es kaum sinnvoll, über gesellschaftliche Be-
       herrschbarkeit, über  gesellschaftliche Kontrolle, über eine ver-
       nünftige gesellschaftliche Beschlußfassung über Einsatz oder Ver-
       zicht auf technisch Machbares zu spekulieren.
       2) L.L. Smarr, An approach to complexity: numerical computations,
       Science 228 (1985), 403-470.
       3) J.H. Jensen, Mathematiske modeller - vejledning eller vildled-
       ning? Naturkampen 18 (1980), 14-22.
       4) M. Braun,  Differential Equations  and Their Applications, New
       York 1978, 167-169.
       5) Vgl. die  umfangreiche Literatur  zur technischen,  mathemati-
       schen, physikalischen und datalogischen Kritik von SDI.
       6) City hopes for steady state after Big Bang, New Scientist, 23.
       10. 1986, 32.
       7) J. Maddox, Newtonian gravitation corrected, Nature 319 (1986),
       173; Polar  ice test  of the  scale dependance  of G,  Nature 326
       (19.3.1987), 250f.
       8) R.S. Anderssen,  F.R. de Hoog, The nature of numerical proces-
       ses, Math. Scientist 1983, 115-141.
       9) Vgl. J. Rappaz, Approximation of the spectrum of a non-compact
       operator given  by the magnetohydrodynamic stability of a plasma,
       Numer. Math.  28 (1977),  15-24; B.J.  Jamart, J. Ozer, Numerical
       boundary layers and spurious residual flows, Journal of Geophysi-
       cal Research 91 (1986), 10621-10631.
       10) P. Bak,  The devil's staircase, Physics Today, December 1986,
       39-45.
       11) Das weiß  man seit langem und ist so Allgemeingut dieser wis-
       senschaftlich-technischen Branche  geworden: Sorgfältige Untersu-
       chungen darüber, wie weit die Wirbelbildung vernachlässigt werden
       kann, gehören  zum Geschäft  und lassen  sich auf einem Stück Pa-
       pier, im Windkanal oder mit Hilfe von anderen Experimenten durch-
       führen. Ein  neues Problem  ist aber  die Unsicherheit, wenn eine
       auf eine Linearisierung aufbauende Computersimulation einer Strö-
       mung aufgrund  "numerischer Reibungsverluste" (durch Diskretisie-
       rung) zu  Wirbeln führt,  die dem  Modell auch für nicht-laminare
       Strömungen den Anschein von Zuverlässigkeit geben. Hier liegt das
       Problem nicht  im Abweichen des Modells von der Realität, sondern
       in einer  Übereinstimmung, deren  Grenzen sich  einstweilen weder
       theoretisch noch  experimentell abschätzen lassen. Vgl. M. B. Ab-
       bott, J. Larsen, J. Tao, Modelling circulations in depth-integra-
       ted flows.  Part 1:  The accumulation of the evidence, Journal of
       Hydr. Research 23 (1985), 309-326.
       12) W. Coy,  Die Außenwelt der Innenwelt - Über einige Schwierig-
       keiten mit  der maschinellen Intelligenz, Umbruch 5,1 (März/April
       1986), 32-40.
       13) Vgl. O.A. Ladyzhenskaya, Mathematical analysis of Navier-Sto-
       kes equations  for incompressible  liquids, Ann.  Review of Fluid
       Mechanics 7 (1975), 249-272; E. Türkei, Progress in computational
       physics, Computers  and Fluids  11 (1983),  121  -144;  V.A.  So-
       lonnikov, A.V.  Kazhik-hov, Existence  theorems for the equations
       of motion  of a  compressible viscous fluid, Ann. Review of Fluid
       Mechanics 13 (1981), 79-95.
       14) J. Crank, The Mathematics of Diffusion, Oxford 1975.
       15) H.  Ehrenreich,   Electronic  theory  for  material  science,
       Science 235 (1987), 1029-1035.
       16) Sh. Karp, S. Roosild, Darpa, SDI, and GaAs, Computer, October
       1986, 17-19.
       17) M. Strongin, D.O. Welch, J.W. Davenport, Superconductivity at
       high temperatures in doped oxides, Nature 325 (1987), 664-665.
       18) B. Commoner,  Incinerators: The  City's half-baked and hazar-
       dous solution  to the  solid-waste Problem,  New York  Affairs  9
       (1985), no. 2, 19-33.
       19) Miljømoessige og  toksikologiske effekter  ved blandinger  af
       pesticider (tankblandinger), Miljøstyrelsen, København 1983.
       20) H.A., Waldron,  Lead, in: H.A. Waldron (Hrsg.), Metals in En-
       vironment, London 1980.
       21) Vgl. D.  Baritrop, Children  and environmental  lead, in:  P.
       Hepple (Hrsg.),  Lead in  the Environment, Barking, Essex, on be-
       half of The Institute of Petroleum, London 1973, 52-60. In glück-
       licher Übereinstimmung  mit den  Interessen der  Auftraggeber kam
       Dr. Baritrop noch zu folgender Wertung: "The relative contributi-
       ons of  atmospheric and dietary lead to the soft tissue lead con-
       centration of  children has not yet been established ... children
       have not  been shown  to be  more susceptible to lead than adults
       ..." Inzwischen  kann die  Flut von  gegenteiligen Untersuchungen
       nicht mehr  abgetan werden;  siehe P.  Grandjean,  Widening  per-
       spectives of  lead toxicity,  Environmental Research  17  (1978),
       303-321.
       22) Vgl. C.  Covey et  al., Global atmospheric effects of massive
       smoke injections  from a nuclear war: results from general circu-
       lation model  simulations, Nature 308 (1984), 21 -25; R.P. Turco,
       The climatic  effects of  nuclear war,  Scientific  American  251
       (1984), 23-33;  M.A. Harwell,  Nuclear Winter,  New York 1984; M.
       Chown, Smoking  out the  facts of  nuclear winter, New Scientist,
       11.12.1986, 24-25;  dort auch C. Sagan: "The very idea of nuclear
       winter was  mis-sed for  38 years. What else have we missed? What
       other consequences?"
       23) J. Hansen  et al.,  Climate response time: dependance on cli-
       mate sensitivity and ocean mixing, Science 229 (1985), 857-859.
       24) P.D. Jones et al., Global temperature variations between 1861
       and 1984, Nature 322 (1986), 430-434.
       25) Es ist  ein großes Verdienst der Grünen, die öffentliche Auf-
       merksamkeit auf  dieses Problem gelenkt zu haben: "Das Ausmaß der
       Gefahr ist  unübersehbar ...  Etwa 9 Millionen Chemikalien wurden
       synthetisiert, und  weltweit kommen  pro Tag  800 bis  1000  neue
       hinzu, deren Wirkungen weitgehend unbekannt sind. 60000 bis 70000
       Chemikalien gelten heute als umweltrelevant, sie verändern etwas,
       wenn sie  mit der Natur in Berührung kommen. Die Untersuchung ei-
       ner einzigen Substanz, allein auf ihre unmittelbaren und isolier-
       ten Wirkungen  hin, dauert  etwa zwei Jahre...". Th. Ebermann, R.
       Trampert, Die  Zukunft der  Grünen: Ein realistisches Konzept für
       eine radikale Partei, Hamburg 1984, S. 28.
       26) J.-M. Legay,  Qui a  peur de  la science, Paris 1981, dt. Wer
       hat Angst  vor der  Wissenschaft, Leipzig 1984, 29-31. Legay gibt
       dort das  folgende Gleichnis:  "Wenn ich ein altes Schloß betrete
       und einen  Balken knarren  höre, dann  habe ich die Wahl zwischen
       zwei Lösungen:  Entweder ich  denke an  ein Gespenst, dessen Exi-
       stenz das  Knarren vollständig  und einfach  erklären würde, oder
       ich bin  zu einer  (langen, vielleicht  verdrießlichen und sicher
       komplexen) Analyse  der Vorgänge  bereit, die zu dem Ereignis ge-
       führt haben..."
       27) Vgl. J.-M. Legay, a.a.O., S. 11, oder das empirische Material
       und die Analyse auch und gerade zur jüngeren Mathematikgeschichte
       in B.  Booß, J.  Høyrup, Von Mathematik und Krieg, Schriftenreihe
       des BdWi, Marburg 1984.
       28) Ähnlich J.-M.  Legay, a.  a. O.,  S. 13: "Manche Diskussionen
       irritieren, weil sie schlecht verstanden werden, weil sie von den
       Spezialisten, die  wenig geneigt  sind,  ihr  Wissen  zu  teilen,
       schlecht vorbereitet  sind, und weil sie von den herrschenden po-
       litischen Kräften,  die  daraus  einen  Vorteil  ziehen,  in  die
       falsche Richtung  gelenkt werden.  Dennoch bleibt  festzustellen,
       daß das  Interesse, das  durch die  Verbreitung  der  Kernwaffen,
       durch die  Energieversorgung und die nuklearen Energiequellen so-
       wie den  ökologischen Standpunkt  zu unserer Umwelt geweckt wird,
       ein Anzeichen dafür darstellt, daß die aufgeworfenen Probleme und
       ihre Lösungswege  schon nicht  mehr nur  die Angelegenheit  einer
       kleinen Elite sind, die niemandem Rechenschaft ablegen muß." Vgl.
       auch die  jüngsten Fallstudien  von S. Salygin, Wie die Umleitung
       der sibirischen  Flüsse  gestoppt  wurde  -  Ein  Lehrstück  über
       "glasnost",  Bürgerinitiative   und   die   Schwierigkeiten   der
       "perestrojka", Blätter für deutsche und internationale Politik 32
       (5-1987), 666-685,  Übersetzung aus  Nowy Mir; und von A. Wolkow,
       Nach dem  Unglück -  Die sowjetische Öffentlichkeit und die Kata-
       strophe von  Tschernobyl, Probleme des Friedens und des Sozialis-
       mus, 30 (4-1987), 540-545.
       29) Vgl. R.A.  Fisher, Smoking: The Cancer Controversy - Some At-
       tempts to  Assess the  Evidence, Edinburgh  1959; nachgedruckt in
       J.H. Bennett  (Hrsg.), Collected  Papers of  R.A. Fisher, Vol. V,
       376-431; J.  Fisher Box,  R.A. Fisher  - The Life of a Scientist,
       New York 1978, 472-476.
       30) Das  alarmierende  Vordringen  neureligiöser  und  mystischer
       Weltvorstellungen -  auch bei  der Intelligenz; so wurde kürzlich
       ein Sonderheft der Zeitschrift Physics Education (1/1987) und nun
       am 25.3.1987  die ganze  Wissenschaftsbeilage der Zürcher Zeitung
       unter der  Überschrift "Technologie und Gesellschaft" ausschließ-
       lich von  Theologen bestritten - muß in Wiederaufnahme der marxi-
       stischen Religionstheorie  aus dem  Rückfall in unbeherrschte und
       undurchschaubare -  jetzt aber nicht mehr natürliche und auch nur
       zum Teil  gesellschaftliche, sondern  künstliche, von der Technik
       geschaffene - Verhältnisse erklärt werden.
       31) G. Pissarewski,  Die "schwarzen"  Flecken löschen! Neue Zeit,
       Moskauer Hefte  für Politik  12.87 (März  1987), Themanummer über
       die Umweltkatastrophe, 18 f.
       32) M. Otte,  Wege durch das Labyrinth - Notiz über eine cartesi-
       sche Methode, Debatte 4/86, 39-48.
       33) P.J. Huber, Robust statistics: a review, The Armais of Mathe-
       matical Statistics 43 (1972), 1041-1067.
       34) Vgl. G. Finder, W. Gray, Finite Element Simulation in Surface
       and Subsurface Hydrology, New York 1977; K. P. Holz, U. Meissner,
       W. Zilke,  C, A.  Brebbia, G. Finder, W. Gray, Finite Elements in
       Water Resources, Berlin (West) 1982.
       35) Vgl. W.  Coy, a.a.O;  siehe auch:  W. Coy, Industrieroboter -
       Zur Archäologie  der zweiten  Schöpfung, Berlin (West) 1985; H.L.
       Dreyfus, S.E. Dreyfus, Mind over Machine - The Power of Human In-
       tuition and  Expertise in the Era of the Computer, New York 1986,
       dt.: Künstliche  Intelligenz -  Von den  Grenzen der Denkmaschine
       und dem Wert der Intuition, Reinbek 1987; T. Winograd, F. Flores,
       Understanding Computers  and Cognition - A New Foundation for De-
       sign, Norwood, N.J. 1986. Dort wird KI nicht von außen, nicht von
       einem allgemeinen,  philosophischen Standpunkt  abgekanzelt;  die
       Verfasser, selbst  ausgewiesen in  unterschiedlichen Feldern  der
       KI-Forschung, zeigen vielmehr konkret und im einzelnen, wie illu-
       sionäre und verfehlte Konzepte notwendig Schiffbruch erleiden und
       erleiden mußten  und nicht nur an der Rezession der 70er und 80er
       Jahre scheiterten.
       36) S. Wolfram, Cellular automaton supercomputing, Preprint, Uni-
       versity of Illinois at Urbana-Champaign, 1987.
       37) Vgl. H.  Weyl, Philosophie  der Mathematik  und  Naturwissen-
       schaft, München 1966, 279-281; W. Heitsch, Mathematik und Weltan-
       schauung, Berlin  (DDR) 1976,  208-213; G.  Kreisel, Die formali-
       stisch-positivistische Doktrin  der mathematischen  Präzision  im
       Lichte der  Erfahrung, in: M. Otte (Hrsg.), Mathematiker über die
       Mathematik, Berlin (West) 1974, 65-120; hier 104 f.
       38) Vgl. M.C.  Mackey, L. Glass, Oscillation and chaos in physio-
       logical control  Systems, Science  197 (15.7.1977),  287-289;  D.
       Ruelle, The  Lorenz attractor  and the problem of turbulence, in:
       A. Dold,  B. Eckmann  (Hrsg.), Turbulence and Navier-Stokes Equa-
       tion (Orsay  1975), Berlin  (DDR) 1976;  ders., Turbulent dynamic
       Systems, Proceedings  of the International Congress of Mathemati-
       cians, August 1983, Warszawa, Amsterdam 1984; E. N. Lorenz, Irre-
       gularity: a  fundamental property  of the  atmosphere, Tellus 36A
       (1984), 98-110.
       39) S. Anthony,  Superstrings: a theory of everything? New Scien-
       tist 29. 8. 1985, 34 f.
       40) Vgl. A.  Einstein, B. Podolsky, N. Rosen, Can quantummechani-
       cal description of physical reality be considered complete? Phys.
       Rev. 47  (1935), 777-780;  die volle  Serie der Orsay-Experimente
       (Experimental tests  of realistic local theories via Bell's theo-
       rem) ist beschrieben in: A. Aspect, P. Grangier, Proc. Int. Symp.
       Foundations of Quantum Mechanics, Tokyo 1983, 215-224; P.V. Chri-
       stiansen, Retur til virkligheden, Gamma - Tidsskrift for fysik 52
       (marts 1983);  vom gl.  Verf., The Semiotics of Quantum-Non-Loca-
       lity, IMFUFAtekst  nr. 93/1985; vgl. auch: J. Scheer, Fauler Zau-
       ber? Führt  die moderne Physik zu Magie und Aberglauben? Wechsel-
       wirkung 28 (Februar 1986), 40-43.
       41) Nicoles "...  und hoffen, daß nichts geschieht" aus "Ein biß-
       chen Frieden"  ist eben in allen Richtungen ein bißchen zu wenig.
       Vgl. J.  Brandt, Om  afgrunden meilem  landskabsokologi og lands-
       kabsplanlægning, vervielfältigt, Roskilde 1987.
       42) B. Goss  Levi, Soviets  assess cause  of Chernobyl  accident,
       Physics Today, December 1986, 17-20.
       43) So K.  Pätzold, Die  faschistische Manipulation des deutschen
       Volkes. Zu  einem Forschungsproblem, in: W. Kowalski (Hrsg.), So-
       ziale Grundlagen  und Herrschaftsmechanismen  des  deutschen  Fa-
       schismus. Der  antifaschistische Kampf,  Teil I,  Wiss.  Beiträge
       1980/42  (C16)  der  Martin-Luther-Universität  Halle-Wittenberg,
       Halle 1980, 48 ff.
       44) Diese Einsicht  in vermeintliche  Notwendigkeiten, diese sich
       vernünftig gebende  Entschlossenheit, einmal Angefangenes zu Ende
       zu bringen,  dies Fehlen der Fähigkeit zur Umkehr, zur Korrektur,
       dieser Glaube  an technische  Möglichkeiten, der  die Lizenz  zum
       Schließen der Augen gibt, werden von Dreyfus und Dreyfus (a.a.O.,
       S. 63)  als Tunnelvision charakterisiert: "Eine allgemeine, orga-
       nisierende Perspektive,  unverzichtbarer Bestandteil des intuiti-
       ven Verstehens,  kann ... auch zur Katastrophe führen. Tunnelper-
       spektive nennt  man eine  solche trotz anhaltender beunruhigender
       Anzeichen aufrechterhaltene Perspektive. Etwas aus der Tunnelper-
       spektive betrachten  heißt, eine  mögliche  neue  Perspektive  zu
       übersehen, die  jüngste Ereignisse  besser erklären  und künftige
       Handlungen angemessener festlegen würde."
       45) Vgl. H.  Roos, Natürliche  Umweltbedingungen  und  volkswirt-
       schaftlicher  Reproduktionsprozeß,   Geographische  Berichte   80
       (1976), Nr. 3, 179-189, wo vor dem Zurückbleiben der Stoffausnut-
       zung im  Verhältnis zur  Stoffumsetzung gewarnt  wurde. Roos fand
       darin ein charakteristisches Mißverhältnis für die vorherrschende
       Gestaltung des  wissenschaftlich-technischen Fortschritts  in den
       hochindustrialisierten Ländern,  kapitalistischen wie sozialisti-
       schen. In  Übereinstimmung mit  sowjetischen Studien  und  Regie-
       rungserklärungen aus  den Jahren (und tatsächlich in Verlängerung
       und Konkretisierung älterer progressiver US-amerikanischer Analy-
       sen wie  B. Commoner's, The Ciosing Circle, Jonathan Cape, London
       1972) forderte  Roos eine  Reorganisation von Produktion und Kon-
       sumtion nach  dem Prinzip der geschlossenen Stoffkreisläufe. Vgl.
       auch H.  Roos, G. Streibel, Umweltgestaltung und Ökonomie der Na-
       turressourcen, Berlin  1979, und weiter u.a. H. Paucke, G. Strei-
       bel, Wirtschaftswissenschaft 28 (1980), 405-421. Es muß unbedingt
       untersucht werden,  warum so wenig aus diesen scharfsinnigen Ana-
       lysen und Forderungen in der Praxis des Sozialismus wurde.
       46) Vgl. die  eindrucksvolle Warnung  von  Marx  davor,  bei  der
       "Vernetzung" durch  den Weltmarkt, dem "sachlichen Zusammenhang",
       stehenzubleiben: K.  Marx, Grundrisse  der Kritik der politischen
       Ökonomie, Moskau 1939, 79-80.
       

       zurück