Quelle: Jahrbuch des Inst. für Marxist. Studien und Forschungen 13/1987


       zurück

       
       KOMPLEXE SYSTEME IN NATUR UND TECHNIK -
       =======================================
       PROBLEME UND LÖSUNGSMÖGLICHKEITEN
       =================================
       
       Hans Mikosch *)
       
       1. Wechselwirkung  zwischen Produktivkräften  und Produktionsver-
       hältnissen -  2. Sondersituationen und Standardfälle in Natur und
       Technik - 3. Theoretische Behandlung von Nicht-Gleichgewichts-Zu-
       ständen -  4. Eine  Analogie zwischen natürlichen und künstlichen
       Systemen -  5. Störfälle  von technischen Anlagen - 6. Notwendig-
       keit und  Zufall, auch  in technischen Anlagen - 7. Möglichkeiten
       zur Steuerung  komplexer Anlagen ... - 8. ... und weitere ungelö-
       ste Probleme  - 9.  Neue Rechnerarchitekturen  ... -  10. ... und
       Künstliche Intelligenz - 11. Schlußbemerkung
       
       Es zählt  schon zu  Standardaussagen, daß der quantitative Umfang
       der Nutzung  und der Veränderung der Natur durch den Menschen ein
       neues qualitatives  Niveau erreicht  hat  und  bei  unveränderter
       Fortführung irreversible  globale Schädigungen der Natur erwarten
       läßt. Aber  selbst "alle  gleichzeitigen Gesellschaften  zusammen
       sind nicht  Eigentümer der Erde. Sie sind nur ihre Besitzer, ihre
       Nutznießer, und  haben sie  als boni patres familias den nachfol-
       genden Generationen  verbessert zu hinterlassen." 1) Nachdenklich
       und zweifelnd  muß man,  diese wahren Worte von Marx im Kopf, das
       heute erreichte  Niveau der Produktivkraftentwicklung betrachten,
       und ernste Kritik ist genauso erforderlich wie eine wissenschaft-
       liche Analyse,  um insbesonders  dem hohen  Anspruch der   V e r-
       b e s s e r u n g  der natürlichen Umwelt gerecht zu werden.
       
       1. Wechselwirkung zwischen Produktivkräften
       -------------------------------------------
       und Produktionsverhältnissen
       ----------------------------
       
       Bei der  Analyse der  ökonomischen Verhältnisse als Grundlage der
       Produktionsverhältnisse und von deren mittelbarem Einfluß auf die
       Entwicklung der Produktivkräfte, den materiellen Teil der Gesell-
       schaft, wird im Kapitalismus zu Recht das Profitmotiv als das be-
       stimmende Element für die gesellschaftliche Entwicklung und deren
       Deformationen  gesehen.   Mit  der   richtigen  Bezeichnung   als
       H a u p t motiv   für die  gesellschaftliche  Entwicklung  stellt
       sich aber sowohl die Frage, welche - alte oder neue - Motive nach
       seiner Beseitigung  in einer sozialistischen Gesellschaft wirken,
       welche Motive  die relativ unabhängige Entwicklung der Produktiv-
       kräfte und im speziellen der Produktionsinstrumente als "Knochen-
       und Muskelsystem der Produktion" 2) bestimmen.
       Es gibt  im gesellschaftlichen Rahmen - auch auf konkret histori-
       sche Bedingungen  rückführbare - Ursachen dafür, daß auch bei ge-
       sellschaftlichem Eigentum an den Produktionsmitteln Maßnahmen er-
       griffen werden,  die mit  Langzeitwirkung und Komplexität die Um-
       welt schädigen;  ebenso besteht  objektiv ein "in der notwendigen
       Bedürfnisbefriedigung  der   Menschen  begründeter   ökologischer
       Grundwiderspruch" 3) zwischen Mensch und Natur, zwischen "der Ar-
       beit als dem Vater des Reichtums und der Natur als ihrer Mutter".
       Es greift  daher wahrscheinlich  zu kurz,  alle Probleme der Ent-
       wicklung der Produktivkräfte und im speziellen der Produktionsin-
       strumente als  deren mechanisch-technischer Teil dem Privateigen-
       tum an  den Produktionsmitteln und den sich daraus ergebenden Ge-
       setzmäßigkeiten zuzuschreiben.
       Mit der  Entwicklung der Wissenschaft zur direkten Produktivkraft
       bestimmt sie  immer mehr  Technologien als  ihre materialisierten
       Produkte. "In  früheren Zeiten  folgte die Wissenschaft der Indu-
       strie, heute  besteht für  sie die  Tendenz zum Überholen und zum
       Führen", stellte  der britische  Kristallograph  John  D.  Bernal
       schon vor mehr als 30 Jahren fest. 4) Die Tendenz hat sich durch-
       gesetzt und ist entscheidend geworden. Um so wichtiger wird es zu
       untersuchen, welche  objektiven, im Entwicklungsstand der Produk-
       tionsinstrumente selbst  liegenden Ursachen  bestimmend sind  für
       die Gefährdung  der Natur  bei deren Verwendung und ob und welche
       Möglichkeiten sich  abzeichnen, negative Auswirkungen zu beseiti-
       gen. Diese  Art der  Fragestellung ist  sicherlich nicht neu, neu
       ist aber  wahrscheinlich die Qualität ihrer Bedeutung, die dieser
       auf Grund der globalen Bedrohung der Natur zukommt.
       Es ist unerläßlich klarzustellen, daß unmittelbar verfügbare, be-
       trächtliche Reserven vorhanden sind, die durch gesellschaftliche,
       politische und  organisatorische Maßnahmen verfügbar gemacht wer-
       den müssen, um verschiedene unmittelbare Gefährdungen durch tech-
       nische Einrichtungen zu verringern oder zu beseitigen. Die größte
       verfügbare Reserve  stellen dabei  Abrüstungsmaßnahmen  besonders
       auf nuklearem,  aber auch  auf konventionellem  Gebiet dar, wobei
       zuerst die unvergleichlich größten Gefahren, die von Raketenkern-
       waffen ausgehen,  beseitigt werden  müssen; dadurch kann auch das
       relativ größte verfügbare Potential an Wissenschaftlern und Tech-
       nikern dafür  eingesetzt werden,  an der Lösung der tatsächlichen
       globalen Probleme  der Menschheit  wie Hunger, Trinkwasserversor-
       gung, den  verschiedenen kulturellen und klimatischen Gegebenhei-
       ten angepaßte Formen der Energieversorgung, Krankheiten von Mala-
       ria über Bilharziose bis zu Aids usw. zu arbeiten.
       Aber trotz der verschiedenen technisch-apparativen Mängel und der
       rein ökonomischen Entscheidungen für ein altes Produktionsverfah-
       ren bleibt  doch die eigentliche Ursache für den schweren Chemie-
       unfall in  Seveso 1976 eine nach der damaligen wissenschaftlichen
       Kenntnis unbekannte  wärmeabgebende Reaktion,  die  beginnend  in
       dünnen Schichten der Reaktionslösung nach Abschalten des Reaktors
       in mehr  als 7  Stunden den  gesamten Tankinhalt von mehr als 6 t
       schließlich um  mehr als 60 °C weiter erhitzte, 5) so das schwere
       Gift  Dioxin  (TCDD)  produzierte  und  den  Tank  zur  Explosion
       brachte.
       Es ist also wohl auch berechtigt, gezielt die technische Seite zu
       untersuchen, um  die Bedingungen  zu beherrschen oder zu beseiti-
       gen, die für ganze Städte und Länder beträchtliche Gefahrensitua-
       tionen herbeiführen können.
       
       2. Sondersituationen und Standardfälle in Natur und Technik
       -----------------------------------------------------------
       
       Es scheint  sinnvoll, sowohl  zu unterscheiden zwischen Unfällen,
       Sondersituationen und  Standard- oder  Normalfällen als auch zwi-
       schen natürlichen  und, vom Menschen herbeigeführten, künstlichen
       Situationen. Als  gemeinsames Kennzeichen  soll nur  gegeben sein
       ein vielfältiges, wechselseitiges Beziehungssystem zwischen einer
       meist großen  Zahl von  Einzelelementen und dem Gesamtsystem und,
       im allgemeinen,  Energie- und  Stoffaustausch  mit  der  Umgebung
       (offene Systeme).  Das Verhalten  einzelner Elemente  kann  dabei
       sehr wohl  weitgehend genau bekannt sein, es wird aber unter Ein-
       fluß anderer  Elemente zu  einem bestimmten  Spielraum, zu  einer
       Veränderung der Ergebnisse ihres Wirkens kommen.
       Es sei  als erstes  Beispiel für  eine natürliche Normalsituation
       der globale Wetterablauf angeführt, wobei unter der dauernden En-
       ergiezufuhr der Sonne in der Atmosphäre aus ungeordneten Teilchen
       wieder neue  Strukturen, Wolken, entstehen. Sowohl die große Zahl
       verschiedener, nebeneinander  ablaufender Vorgänge  als auch ihre
       spezielle Art  (z. B.  Diffusionsvorgänge) machen  es  sogar  bei
       (praktisch nie  zu erreichender) Kenntnis aller Fakten auch theo-
       retisch unmöglich, exakte Aussagen über den Zustand in allen Tei-
       len des Systems und, darauf aufbauend, zutreffende Vorhersagen zu
       machen. 6)  Verschärft wird diese Problemstellung durch die unun-
       terbrochenen Veränderungen  des  Gesamtsystems  durch  die  Natur
       selbst (CO2-Produktion im jahreszeitlichen Wechsel) und durch den
       Menschen, indem verschiedene Stoffe produziert werden, die vorher
       nicht oder nicht in diesen Mengen in der Atmosphäre vorhanden wa-
       ren. So  wurde die  Untersuchung der Auswirkungen von Stickoxiden
       auf die Atmosphäre zuerst begonnen zur Abschätzung der Folgen von
       Kernwaffenversuchen in  der Atmosphäre  und des massenhaften Ein-
       satzes von  Überschallverkehrsflugzeugen in  hohen Schichten  der
       Atmosphäre. 7) Schon diese ursprüngliche Beschreibung des Gesamt-
       systems mit  mehr als  56 gleichzeitig  ablaufenden Gasreaktionen
       ist auch  theoretisch nur unter stark vereinfachenden Annahmen zu
       beherrschen; in  jedem Fall  ist das  Ergebnis  stark  beeinflußt
       durch die Veränderung einzelner Parameter auf Grund von exakteren
       Messungen der  Kenngrößen von  Einzelreaktionen. Dazu  kommt, daß
       die  wesentlich  mitzuberücksichtigenden  Diffusionsvorgänge  zum
       Transport  der  Reaktionspartner  typisch  irreversible  Prozesse
       sind, deren  Behandlung zwar  die "Nichtgleichgewichtsthermodyna-
       mik" beschreibt,  die aber im Rechenmodell nur durch verschiedene
       halbempirische Parameter berücksichtigt werden können.
       Die Folge  dieser Schwierigkeiten  ist zuerst  ein beträchtliches
       Auseinanderklaffen zwischen  Rechenergebnissen und  tatsächlichen
       Meßwerten und  weiters, darauf  zurückgehend, ein  Anzweifeln von
       Methode und  Ergebnis. So lassen sich eindeutig und präzise weder
       die Auswirkungen  von chlorierten  und fluorierten  Kohlenwasser-
       stoffen auf die Ozonschicht der Erde zeigen, noch lassen sich be-
       sonders die  klimatischen Auswirkungen  der Umleitung sibirischer
       Ströme in den Süden der Sowjetunion abschätzen. Die Schwierigkei-
       ten sind  auch enorm:  Zum ersten  zeigen neue Untersuchungen der
       Ozonschicht der  Erde eine räumlich (vertikal und horizontal) und
       zeitlich stark  unterschiedliche Verteilung, wobei noch keine Ab-
       schätzung über vermutete menschliche Einflüsse möglich erscheint,
       zum zweiten  fehlen einfach  Untersuchungen über klimatische Aus-
       wirkungen des  Rückgangs der  Vereisung  der  Nordpolkappe,  wenn
       durch geringere  Süßwasserzufuhr der  Salzgehalt des  Meerwassers
       steigt und  damit der  Gefrierpunkt sinkt - um nur ein Problem zu
       nennen.
       Es ist  aber jedenfalls  zu befürworten, daß Sicherheitsmaßnahmen
       getroffen werden,  da in jedem Fall irreversible Veränderungen zu
       erwarten sind.  Dies um so mehr, da durch verbesserte Modelle und
       genauere Reaktionsparameter die Tendenz der ersten Ergebnisse (im
       Fall des Abbaus der Ozonschicht) bestätigt wurde. 8)
       Aber inwieweit  ist es  überhaupt möglich,  sichere Aussagen über
       das Verhalten komplexer natürlicher Systeme zu geben?
       
       3. Theoretische Behandlung von Nicht-Gleichgewichts-Zuständen
       -------------------------------------------------------------
       
       Beginnend in  der Mitte  der 60er Jahre wurden, ausgehend von der
       klassischen Thermodynamik (oder besser, richtiger: Thermostatik),
       neue Konzepte  entwickelt, die  beschreiben, wie  unter gleichge-
       wichtsfernen Bedingungen  verschiedene Arten  von  Prozessen  der
       Selbstorganisation zu "dissipativen Strukturen" führen können. 9)
       Es können oszillierende chemische Reaktionen oder neue, räumliche
       Strukturen auftreten, die das Verhalten des Gesamtsystems wesent-
       lich beeinflussen.  Neben deren durchaus anspruchsvoller mathema-
       tischer Beschreibung soll aber vor allem auf die schwierige expe-
       rimentelle Zugänglichkeit  - vor allem die unsichere Reproduzier-
       barkeit schon  von Laborversuchen  - hingewiesen  werden, wodurch
       wesentliche Probleme bei der Überprüfung theoretischer Ergebnisse
       entstehen.
       Bei der  Simulation  dissipativer  Strukturen  müssen  räumliche,
       dreidimensionale Probleme beschrieben werden, wodurch beträchtli-
       che Anforderungen an die Rechnerleistung gestellt werden. So sind
       z.B. dreidimensionale  Modelle zur  Klimabeschreibung auch gegen-
       wärtig schon  rein rechentechnisch nur auf "Supercomputern" (Cray
       u. ä.) zu realisieren.
       
       4. Eine Analogie zwischen natürlichen und künstlichen Systemen
       --------------------------------------------------------------
       
       Unter den  oben angeführten  Voraussetzungen (wechselseitiges Be-
       ziehungssystem zwischen  Element und Gesamtsystem) kann eine Ana-
       logie hergestellt werden zu hochkomplexen technischen Einrichtun-
       gen, zu  denen vor allem kerntechnische Anlagen, Produktions- und
       Verarbeitungsbereiche der  Industrie (besonders  der  chemischen)
       und die Großraketen-(Weltraum-)Technik zu zählen sind. Als in al-
       len Bereichen  zur Konstruktion, Betriebssimulation, Betriebskon-
       trolle und  -steuerung angewendete Technologie muß die Elektronik
       in Form von Rechenanlagen verschiedenster Größe und Aufgabenstel-
       lung besonders  beachtet werden.  Ohne auf  die Vielfalt der Pro-
       zesse eingehen  zu müssen, die durch Prozeßrechnernetze gesteuert
       werden sollen  und in  Großrechenanlagen  simuliert  werden,  ist
       schon beim Betrieb von "Nur"-Rechenanlagen festzustellen,
       - daß nichtüberblickbare  Eigenschaften vorliegen,  die sich  vor
       allem durch  Auswirkungen des  Zusammenspiels verschiedener Teil-
       komponenten ergeben;
       - daß für die gesamte Anlage eine hohe Situationsabhängigkeit be-
       steht, die  vor allem  auf die  hohe, stets  wechselnde Belastung
       durch (mehrere)  verschiedene Benutzer zurückzuführen ist. Daraus
       ergibt sich weiters,
       - daß die Reproduzierbarkeit auftretender Störungen sehr schlecht
       ist und  daher die  Fehlereingrenzung und -beseitigung wesentlich
       erschwert wird.
       Es wäre  trivial, ja leichtfertig und überheblich, derartige Pro-
       bleme einfach  auf schlechte  Ausbildung oder  unzureichenden Ar-
       beitseinsatz zurückführen  zu wollen.  Auch kann  nicht  erwartet
       werden, daß  auftretende unerwünschte Eigenschaften auf konkrete,
       echte "Fehler",  z.B. in  der Hardware,  der Software oder in der
       Bedienung zurückzuführen  sind und  daher bei vollständig exaktem
       Betrieb zu  vermeiden wären;  es ist umgekehrt: Derartige Überle-
       gungen sind fehlerhaft.
       - Die Fertigung der Hardware erfolgt unter Berücksichtigung einer
       bestimmten Fehlerquote  derart, daß  die Mindestzahl  der fehler-
       freien Schaltelemente  den Abnahmebedingungen  entspricht; d. h.,
       schon kein Bauteil ist vollständig fehlerfrei, sondern es erfüllt
       nur die Anforderungen spezieller Testprogramme. 10)
       - Auch bei  vollkommen ausgetesteten  Programmen rechnet  man mit
       einem Fehler  je 1000  Programmzeilen, d.h.,  es  gibt  praktisch
       keine fehlerfreien Programme.
       - Eine   p e r f e k t e   Bedienungsmannschaft anzustreben,  muß
       statt als  vernünftiges Ziel eher als menschenunwürdig bezeichnet
       werden und wäre auch praktisch nicht zu realisieren.
       In Fachkreisen  sind die Beispiele Legion für simple Programmfeh-
       ler, die  zum Verlust  von Großraketen führten, für den Totalaus-
       fall von  - natürlich  vielfach ausgetesteten,  durch Mehrfachsy-
       steme gesicherten  - digitalen  Telefonanlagen oder  Funkleitein-
       richtungen von  Flughäfen. Es liegt offenbar auch bei technischen
       Anlagen ein  neues, prinzipielles  Problem vor,  das sich aus der
       Komplexität des  Systems ergibt.  All das gilt schon für den Nor-
       malzustand, für  den Standardfall.  Ungleich verschärft  wird die
       Problemstellung für Sonder- und Störfälle.
       Als derartige Beispiele für die Natur seien - der Vollständigkeit
       wegen - Vulkanausbrüche oder Anomalien von Meeresströmungen (z.B.
       "El Nino"  vor der  pazifischen Küste von Mittel- und Südamerika)
       angeführt. Hier  ist keinerlei  experimentelle Reproduzierbarkeit
       des Gesamtereignisses  mehr gegeben. Dasselbe gilt auch für Stör-
       fälle von  technischen Anlagen, die etwas ausführlicher zu behan-
       deln sind.
       
       5. Störfälle von technischen Anlagen
       ------------------------------------
       
       Hier sollen vier große Industrieunfälle der letzten Jahre vergli-
       chen werden  11) -  und zwar  (in  chronologischer  Reihenfolge):
       Kühlmittelverlustunfall bei  einem  Druckwasserreaktor  in  Three
       Mile Island,  12) Explosion  eines Methyl-Isocyanat-Tanks in Bho-
       pal, 13)  Wasserstoffexplosion mit  teilweiser Freilegung des Re-
       aktorcores in  Tschernobyl 14)  und  Brand  eines  (Alt-)Chemika-
       lienlagers bei Sandoz in Basel. 15) Die Unfallbeherrschung war in
       Bhopal sowohl  technisch als  auch  wissenschaftlich  relativ  am
       wenigsten problematisch  (auch bei  dem früher angeführten Unfall
       in Seveso  reichte schon  ein Wiedereinschalten  der Kühlung  zur
       Beseitigung der Unfallursache). Aber gerade für Bhopal konnte die
       Vermutung der  aktiven Sabotage  (durch Einleiten  von 450-900  l
       Wasser in den Lagertank) nicht zweifelsfrei ausgeräumt werden.
       Hingegen stellte  der Vollbrand  von mehr  als 1200 t und fast 30
       verschiedenen Chemikalien  (darunter 1,9  t Quecksilber) in Basel
       schon für einen Chemiker einen Alptraum dar und überforderte auch
       gutausgebildete Löschmannschaften  weitgehend; dies betraf insbe-
       sonders die  Abschätzung möglicher  Folgen bei  der  Wahl  unter-
       schiedlicher Löschmittel.
       Bezüglich der   Unfall u r s a c h e   mögen Basel (Selbstentzün-
       dung [?])  und Three  Mile Island  (Vergessen eines geschlossenen
       Haupthahns im  Kühlsystem nach  einer Wartung)  ähnlich  "gering-
       fügig" gewesen  sein, bei  der  Unfallbeherrschung  stellte  doch
       letzterer ungleich  größere wissenschaftliche  Anforderungen. Der
       Störfall in  Harrisburg wurde  aber vor  allem kritisch auf Grund
       von schwerem Fehlverhalten der (früheren Atom-U-Boot-)Bedienungs-
       mannschaft eineinhalb Stunden nach Störfalleintritt. 16)
       Sowohl von der Analyse der Unfallursache als auch von den Proble-
       men bei  der Unfallbeherrschung  her stellte  der Unfall  im  KKW
       Tschernobyl den  kompliziertesten Fall dar. Erst die bewußte Aus-
       schaltung von  mehreren Sicherheitssystemen  über einen  Zeitraum
       von einigen  Stunden führte  kurz nach  Beginn des beabsichtigten
       Turbinenversuchs zu  einer lokalen  Überhitzung im Reaktor und zu
       einer Wasserstoff-(Knallgas-)Explosion. 17)
       Es sei  an dieser  Stelle betont,  daß alle  angeführten  Unfälle
       durch verschiedene  gesellschaftliche, politische und organisato-
       rische Maßnahmen  hätten vermieden  werden können.  Dieser Aspekt
       der vielschichtigen  Problemstellung soll  hier nicht  diskutiert
       werden; nicht  weil er  unerheblich wäre,  sondern weil  entspre-
       chende gesellschaftliche  Verhältnisse wohl  die  Voraussetzungen
       für mögliche  Problemlösungen schaffen  können,  dies  aber  noch
       nicht die Problemlösung selbst darstellt.
       
       6. Notwendigkeit und Zufall, auch in technischen Anlagen
       --------------------------------------------------------
       
       Besonders in  den beiden  zuletzt angeführten  Fällen stellte die
       Unfallbeherrschung selbst  maximale wissenschaftliche  und -  bei
       Tschernobyl - auch technische Anforderungen. Allgemein lautet die
       Problemstellung, wie  die Wiederherstellung  von  Normalzuständen
       durch technische  Maßnahmen unterstützt  werden  kann,  wenn  man
       chaotische Zustände  weitab von  Planungs- oder  Auslegungsgrößen
       vorfindet. Auch  hier treten  systembedingte Instabilitäten  auf,
       wobei die  große Zahl von Einflußparametern und die große Entfer-
       nung vom Normalzustand maßgeblich mitbestimmend sind.
       Für solche  Situationen gilt  auch in  technischen Anlagen zumin-
       dest, daß  rein deterministische  Beschreibungen aller Größen für
       alle Zeitpunkte nicht mehr möglich sind. Die Schlußfolgerung dar-
       aus ist  aber nicht notwendigerweise, daß eine Beschreibung prin-
       zipiell unmöglich wäre: Die Quantenmechanik beschreibt schon seit
       bald 60  Jahren diskrete  Zustände von  Atomen und  Molekülen mit
       statistischen Erwartungswerten,  die mit den experimentellen Meß-
       werten ausgezeichnet  übereinstimmen. Damit  zeichnet  sich  aber
       auch eine  Beschreibung von  komplexen technischen Anlagen sowohl
       im Normalbetrieb als auch in Störfallsituationen ab.
       In der Wirklichkeit laufen stets neben notwendigen, deterministi-
       schen Vorgängen auch zufällige, statistische ab. Zufällige Ereig-
       nisse sind  dabei sowohl  Ergänzung als auch Erscheinungsform der
       notwendigen; sie  erfordern eine ihnen entsprechende Beschreibung
       durch statistische Gesetze. Diese treten überall dort auf, wo die
       Beziehungen  zwischen  System  und  Elementen  wesentlich  werden
       und/oder Rückschlüsse vom System auf das Verhalten der Einzelele-
       mente gezogen  werden sollen.  In keinem  Fall bedeutet dies aber
       eine Abkehr  von der  prinzipiellen Möglichkeit  der Beschreibung
       und Darstellung der Realität.
       "Die Diskussion  um das  Verhältnis von dynamischen und statisti-
       schen Gesetzen  führte zur Präzisierung der Gesetzesauffassung im
       dialektischen Determinismus.  Die Anerkennung der objektiven Exi-
       stenz von Möglichkeitsfeldern, die Bestimmung von Wahrscheinlich-
       keiten für  zukünftige Ereignisse und die Auffassung von der Exi-
       stenz einer  Systemmöglichkeit, die  notwendig Wirklichkeit wird,
       ändert nichts  an der von den Klassikern entwickelten Auffassung,
       nach der objektive Gesetze allgemein-notwendige, das heißt repro-
       duzierbare und  wesentliche, das heißt den Charakter der Erschei-
       nung bestimmende Zusammenhänge sind, sie führen vielmehr zu einem
       besseren Verständnis  des gesetzmäßigen  Verlaufs von natürlichen
       und gesellschaftlichen  Prozessen." 18)  Diese Aussage  kann ohne
       Vernachlässigung der  Allgemeinheit der  Überlegungen ausgeweitet
       werden auf künstliche (technische) Prozesse.
       Praktisch angewendet würde dies bedeuten, daß Betriebsabnahmeprü-
       fungen und Zulassungsentscheidungen von staatlichen, öffentlichen
       Stellen auf  Grundlage von stochastischen Analysen des Verhaltens
       von technischen Anlagen durchgeführt werden müssen. Voraussetzung
       dafür wären  aber zuerst  die theoretische  Entwicklung dazu  ge-
       eigneter Methoden,  diesen entsprechende Steuer- und Kontrollein-
       richtungen und deren praktische Überprüfung. 19)
       Die bisherige  Vorgangsweise besteht  zum einen  darin,  für  be-
       stimmte, als  "unsicher" erkannte Teile Zusatzeinrichtungen (oder
       Neuplanungen) vorzuschreiben.  Ob derartige  Veränderungen  jeder
       Art neben  der (notwendigerweise)  erhöhten Komplexität  auch die
       Zuverlässigkeit insgesamt  erhöhen, ist zu bezweifeln, jedenfalls
       nicht zu  demonstrieren. 20)  (Um Mißverständnisse  zu vermeiden:
       Selbstverständlich ist  das aktuelle  Niveau  von  [im  konkreten
       Fall] Sicherheitseinrichtungen  heute  praktisch  in  jedem  Fall
       niedriger als  das potentiell  mögliche; und  eine  Schranke  zur
       "Unüberblickbarkeit" der  Gesamtanlage ist nicht fix, sondern ab-
       hängig von Meß- und Steuereinrichtungen. Trotz allfälliger objek-
       tiver Grenzen  sind daher  unmittelbare Maßnahmen möglich, um Be-
       triebssicherheiten zu erhöhen.)
       Zum anderen  wird versucht,  Interpretationen oder Entscheidungen
       von großen  automatischen Anlagen  an  (mehreren)  entscheidenden
       Stellen durch  Menschen zu  überprüfen, um derart über Eingriffs-
       und Kontrollmöglichkeiten zu verfügen. Gleichzeitig damit schafft
       man aber Möglichkeiten, ganze Sicherheitssysteme bei guter Kennt-
       nis des  Gesamtsystems auszuschalten oder zu umgehen. Daß dies zu
       Betriebszuständen führen  kann, die keine Planung für den Normal-
       betrieb oder  für Störfälle  berücksichtigen könnte, 21) ist eine
       entscheidende Einschränkung und die schwerwiegendste sicherheits-
       technische Konsequenz aus dem Unfall in Tschernobyl.
       Gibt es dann überhaupt realisierbare Methoden, um die Betriebssi-
       cherheit und  die Zuverlässigkeit  von großtechnischen Anlagen zu
       erhöhen, ohne sich durch Ausschaltung des Menschen vollkommen auf
       automatische Systeme verlassen zu müssen, oder ist die Grenze der
       Beherrschbarkeit von  komplexer Technik schon erreicht oder über-
       schritten?
       
       7. Möglichkeiten zur Steuerung komplexer Anlagen ...
       ----------------------------------------------------
       
       Ein Blick  in die Natur zeigt, daß ungleich kompliziertere Aufga-
       ben ungleich  schneller und  zuverlässig gelöst  werden. Das gilt
       selbstverständlich für  das menschliche Gehirn als die höchstent-
       wickelte materielle  Struktur; aber  auch die  "dezentrale, real-
       time" Bildverarbeitung  z.B. der  beiden  unabhängig  voneinander
       beutesuchenden Chamäleonaugen  zeigt durch  ihre unvergleichliche
       Überlegenheit gegenüber  dem derzeitigen Stand der elektronischen
       Bildverarbeitung Entwicklungsmöglichkeiten  auf,  die  schon  bei
       teilweiser Nutzung  beträchtliche Verbesserungen der Leistungsfä-
       higkeit künstlicher Systeme bringen müssen.
       Diese großen  Aufgaben stellen  Anwendungsgebiete für  Künstliche
       Intelligenz (auf  die später  noch eingegangen wird) dar, die ge-
       genwärtig intensiv  erforscht werden,  aber für die entsprechende
       Einrichtungen heute  nicht zur  Verfügung stehen; daneben gibt es
       aber eine  ganze Reihe  von anderen technischen Möglichkeiten zur
       Verbesserung der  aktuellen Situation.  Eine davon wäre vor allem
       die stärkere  Ausnutzung der  graphischen und  farblichen  Erken-
       nungsfähigkeit des menschlichen Auges zur Darstellung von Zustän-
       den und/oder Vorgängen. Die Verwendung von Graphik-Farbbildschir-
       men 22) in Schaltwarten von Großanlagen stellt eine beträchtliche
       Arbeitsverbesserung für den Normalbetrieb und eine Entscheidungs-
       unterstützung für  geplante Änderungen des Betriebszustandes (An-
       und Abschaltphasen) und für Störfälle dar.
       
       8. ... und weitere ungelöste Probleme
       -------------------------------------
       
       Durch die so erzielte Zusammenfassung verschiedener Daten und die
       Verbesserung ihrer  Erfaßbarkeit wird  trotzdem  bestenfalls  ein
       Schritt getan  zur Lösung  eines Hauptproblems, das besonders bei
       Störfällen gravierend  wird, und  zwar das Problem der Informati-
       onsreduktion. So  lief bei dem Störfall in Harrisburg der Drucker
       des Prozeßrechners  zweieinhalb Stunden  hinter den aktuellen Er-
       eignissen nach,  seine Daten  waren praktisch nicht zu verwenden.
       23) Es  sind also  Methoden erforderlich, die in Abhängigkeit von
       der anfallenden  Datenmenge Entscheidungen treffen über die Wich-
       tigkeit von  Informationen. Dies ist zwar ein gegenwärtig ungelö-
       stes, jedoch  keineswegs unlösbares Problem der modernen elektro-
       nischen Informationsverarbeitung;  es ist offenbar gerade die Fä-
       higkeit zum Vergleich mit ganzen Mustern (anstelle des Vergleichs
       von Einzelbildpunkten) der entscheidende Grund für die Überlegen-
       heit aller  natürlichen Systeme.  Dies ist  eine vom  Prinzip her
       ähnliche Aufgabenstellung  wie für das bildhafte Erkennen und für
       Erinnerungsvorgänge im menschlichen Gehirn.
       Es wurde  in jüngster  Zeit auch experimentell bestätigt, daß die
       natürliche Bildverarbeitung  auf einem stufenweisen Wahrnehmungs-
       prozeß beruht,  der von Umrissen und Merkmalen weitergeht zu Ein-
       zelheiten und  Details. 24)  Dem entsprechen schon länger entwic-
       kelte Methoden,  Kennzeichen und Eigenschaften (z.B. von Stoffen)
       zu Klassifikatoren  zusammenzufassen, um  so die  Suche in großen
       Datenbanken  sowohl  zu  beschleunigen  als  auch  zuverlässiger,
       treffsicherer zu  machen. 25)  Entscheidend wird  dabei natürlich
       die Wahl,  der Aufbau  des Klassifikators und die Methode des Su-
       chens in einer Daten-(Wissens-)Bank.
       Damit folgt  das nächste Problem auf dem Fuß: Ein Mensch mit mehr
       Wissen und  Erfahrung (ein  "Experte") fällt  (normalerweise)  in
       neuen Situationen raschere Entscheidungen als eine Vergleichsper-
       son mit weniger Wissen; wird hingegen bei einem automatischen Sy-
       stem die Wissensbasis erhöht, d.h. vergrößert, so verlängert sich
       unmittelbar auch die zur Entscheidungsfindung erforderliche Zeit.
       Das ist  einer der Hauptgründe dafür, daß Fachleute grundsätzlich
       bestreiten,  wissensbasierte   Systeme  (Künstliche  Intelligenz)
       seien geeignet zur Steuerung und Kontrolle hochkomplexer Systeme.
       26) Diese Einschätzung trifft sicherlich zu auf die heute aktuel-
       len Methoden,  aber mit  diesen sind nicht alle Möglichkeiten er-
       schöpft.
       
       9. Neue Rechnerarchitekturen "
       ------------------------------
       
       Der beschriebene Effekt der Entscheidungsverzögerung bei Erhöhung
       der Wissensbasis kann nur überwunden werden durch neue technische
       Konzepte und,  eng damit  verbunden, durch  neue Programmethoden.
       Daß eine  einfache Erhöhung  der Rechengeschwindigkeit  nicht zum
       Ziel führen kann, mag die Tatsache zeigen, daß schon die heutigen
       Bauteile um  ein Vielfaches "schneller" sind als menschliche Neu-
       ronen, die Schaltteile im Gehirn.
       Die auf  von Neumann  zurückgehende Zusammenfassung  von Programm
       und Rechenwerk in einer Rechnerarchitektur mit je einem Speicher,
       Rechenwerk und  Steuereinheit für  eine sequentielle  Abarbeitung
       des Programms kann diese Aufgaben jedenfalls nicht lösen. Andere,
       schon vielfach  im Einsatz  befindliche Rechnerkonzepte  erlauben
       zuerst  eine   parallele,  gleichzeitige   Verarbeitung  mehrerer
       gleichartiger Schritte  durch eine  Vergrößerung der Zahl der Re-
       chenwerke (Vektorrechner) oder, als nächste Stufe der Vernetzung,
       Parallelprozessoren mit  mehr als 65 k Prozessoren, die unterein-
       ander entsprechend ihrer Aufgabenstellung vernetzt werden können.
       27) Derartige Rechner ermöglichen - vor allem auf Grund der neuen
       Architektur -  durch eine  entscheidend  höhere  Verarbeitungsge-
       schwindigkeit das  Lösen einer Vielzahl von Aufgabenstellungen in
       der Bild-  und Signalverarbeitung  und der  Mustererkennung. Ihre
       Arbeitsweise ähnelt  wahrscheinlich mehr der natürlichen Informa-
       tionsverarbeitung als die Von-Neumann-Architektur.
       Die hardwaremäßige  Simulation  der  natürlichen  Mustererkennung
       wird mit  "holistischen Maschinen"  versucht. Dabei  sollen  spe-
       zielle Eigenschaften  von holographischen Bildern genutzt werden:
       Diese  speichern   auf  Grund  ihrer  speziellen  Aufnahmetechnik
       (Interferogramme) in  jedem Bildpunkt die gesamte Information des
       Bildes. Wird  also ein  Hologramm zerbrochen,  so  liefert  jedes
       Bruchstück trotzdem  ein vollständiges  Bild, nur mit einer etwas
       geringeren Auflösung.  Entscheidend ist  aber, daß  ein Vergleich
       der Ähnlichkeit zweier Muster möglich wird - nicht durch Überprü-
       fung ihrer  Einzelmerkmale, sondern  durch den direkten Vergleich
       des gesamten Bildes. 28)
       Schließlich seien  noch "dedicated  Systems" erwähnt,  die  nicht
       mehr universell  die verschiedensten  Aufgaben  erfüllen  können,
       sondern ausschließlich ganz bestimmte, hardwaremäßig festgelegte,
       diese aber dafür schnell und fehlerfrei. Derartige Systeme sollen
       helfen, programminhärente  Fehler zu  vermeiden oder  ihre Folgen
       unwirksam zu machen.
       Ähnliche Veränderungen  wie bei  den Rechnern  sind auch  bei den
       Programmen in  dem Ausmaß  erforderlich, wie an Stelle der Lösung
       rein numerischer Aufgabenstellungen die Behandlung vielfacher lo-
       gischer Entscheidungen  auf Grundlage von Wahrscheinlichkeitskal-
       külen 29) angestrebt wird. Die bisherigen ablauforientierten Pro-
       gramme (Algorithmen) müssen dafür ersetzt werden durch symbolori-
       entierte Programme  in entsprechenden  Sprachen (LISP,  PROLOG u.
       ä.), die,  verbunden mit  einer neuen, fünften Rechnergeneration,
       Aufgaben der  Künstlichen Intelligenz  (Bild- und Sprachverarbei-
       tung, Expertensysteme mit Lernfähigkeit) lösen sollen.
       
       10. ...und Künstliche Intelligenz
       ---------------------------------
       
       Die Verwendung wissensbasierter Systeme setzt allerdings den Auf-
       bau ihrer  Wissensbasis voraus,  und  damit  entstehen  aktuelle,
       große Schwierigkeiten:  Es sind grundlegende Fragen zu lösen, die
       die Wissensdarstellung und die Wissensorganisation betreffen. 30)
       Darüber hinaus  ist aber  gegenwärtig weder klar, wie die subjek-
       tive Entscheidungsfindung  und die  Motivation für eine bestimmte
       Entscheidungsstrategie eines  Experten formalisierbar  ist,  noch
       wie "Alltagswissen"  als Datenbank  dem Rechner zur Verfügung ge-
       stellt werden  kann oder  auf welchen  Wegen er dieses "erlernen"
       soll.
       Es ist  bisher zwar  gelungen, Faktenwissen zu speichern; die Me-
       thode aber,  wie Experten  ihr Wissen  nutzen, läßt  sich  bisher
       nicht (vielleicht  prinzipiell nicht?)  simulieren. Alle Versuche
       scheiterten bisher  eigentlich schon  daran, daß  Experten selbst
       ihre meist  richtigen Entscheidungen  weder vorher noch nachträg-
       lich rational nachvollziehbar beschreiben können. 31)
       Auch so  einfache Tätigkeiten wie "Gehen" und "Radfahren" entzie-
       hen sich  nicht nur  einer elektronischen Darstellung und Simula-
       tion - nicht zuletzt wegen der ungeheuren Datenflut, die für jede
       Einzelentscheidung verarbeitet werden muß -, sondern stellen auch
       ingenieurtechnisch unlösbare  Probleme bei  der Konstruktion ent-
       sprechender Apparate.
       Zusammenfassend kann  festgestellt werden,  daß auch  technische,
       informationstheoretische Zugänge zur Frage der Repräsentation von
       Allgemeinwissen zur Erkenntnis führen, daß dazu soziale Beziehun-
       gen formalisiert  32) und  dem Computer  verfügbar gemacht werden
       müssen - eine nicht nur praktisch unlösbare Aufgabe. Die philoso-
       phisch-weltanschauliche Frage des Menschenbildes in seiner sozia-
       len Umwelt  und der Möglichkeiten seiner Darstellung in logischen
       Systemen soll  hier nicht  diskutiert werden,  weil beim  Betrieb
       technischer Anlagen  der Mensch  nicht ersetzt, sondern in seinen
       Entscheidungen unterstützt werden soll.
       Wohl wird  auch die Frage, wie und ob Expertensysteme für Teilbe-
       reiche (z.B.  Medizin -  MYCIN, 33)  Analytische Chemie - DENDRAL
       34) u.a.m.)  tatsächlich leistungsfähiger sind als Fachleute oder
       ob sie  ihnen Routinetätigkeiten  abnehmen können,  durchaus kon-
       troversiell diskutiert.  Aber die schon vor einigen Jahren begon-
       nene und sich ausweitende Speicherung der verschiedensten umfang-
       reichen Datenmengen  und ihre  prompte Verfügbarkeit für schnelle
       Rechner wird  erst in einiger Zeit Aussagen über die Leistungsfä-
       higkeit und Wertungen von Anwendungen der Künstlichen Intelligenz
       erlauben.
       Die zweite  industrielle Revolution,  mit der durch informations-
       verarbeitende  Maschinen  in  Produktions-  und  Arbeitsprozessen
       Schranken des  geistigen Arbeitsvermögens der Menschen überwunden
       werden, 35) hat jedenfalls noch einen weiten Weg vor sich.
       
       11. Schlußbemerkung
       -------------------
       
       Es wurde versucht, einige Probleme zu beschreiben und Lösungsmög-
       lichkeiten zu  diskutieren, die  sich aus  dem heutigen Stand der
       Entwicklung der  Produktionsinstrumente ergeben.  Die  Produktiv-
       kräfte als  Ganzes mit ihrem Hauptbestandteil, dem Menschen, sind
       bestimmender Teil  bei der Weiterentwicklung der Gesellschaft und
       erfordern immer  wieder die Anpassung der gesellschaftlichen Ver-
       hältnisse. 36)  Diese müssen auch Entscheidungen ermöglichen, aus
       der Vielzahl der Anwendungsmöglichkeiten von Technologien die un-
       angemessenen, gefährlichen  nicht zu verwirklichen. Letzteres ist
       auch dann  erforderlich, wenn  ihr Betrieb  nicht sicher kontrol-
       lierbar oder  ihre Auswirkungen nicht abschätzbar und damit nicht
       verantwortbar sind.
       
       _____
       *) Ich  möchte meinen  Kollegen und Freunden, im besonderen Rein-
       hart Gausterer, Thomas Grechenig und Reinhold Sturm, für die kon-
       struktive Diskussion und damit für die Unterstützung danken, ohne
       die es  nicht möglich gewesen wäre, den folgenden Beitrag fertig-
       zustellen.
       1) K. Marx "Das Kapital", Bd. 3, MEW 25, S. 784.
       2) Ebd., Bd. 1, MEW 23, S. 195.
       3) H. Hörz "Philosophie und Ökologie", Sitzungsberichte d. ADW d.
       DDR, 5N/1986, S. Uff.
       4) J.D. Bernal "Science in History", London 1954, p. 23.
       5) T.G. Theofanus,  Nature 291,  640-2 (1981); J. Sambeth, Nachr.
       Chem. Tech. Lab. 30, 367-71 (1982).
       6) Siehe dazu  auch den  Beitrag von Booß-Bavnbek/Bohle-Carbonell
       in diesem Band.
       7) P. Crutzen,  Ambio 1, 41 (1971); 3, 201-10 (1974); P. Crutzen,
       D. Ehhalt, Ambio 6, 112-7 (1977).
       8) I.S.A. Isaksen, F. Stordal, Ambio 10, 9-17 (1981); siehe auch:
       U. Feister, spectrum 18 (6), 6 (1987).
       9) I. Prigogine,  G. Nicolis,  J. Chem. Phys. 46, 3542-50 (1967);
       I. Prigogine,  R. Lefever, J. Chem. Phys. 48, 1695-700 (1968); P.
       Glansdorff, I. Prigogine "Thermodynamic Theory of Structure, Sta-
       bility and Fluctuations", London 1971; I. Prigogine "Vom Sein zum
       Werden", München 1979; H. Haken "Synergetics", Berlin (W.) 1978.
       10) H. Queisser "Kristallne Krisen", München 1985, S. 307.
       11) Es wäre sicherlich korrekter, eine systematische Untersuchung
       über Industrieunfälle  während eines  bestimmten  Zeitraums  nach
       verschiedenen Kriterien  auszuwerten. Eine derartige Untersuchung
       ist dem  Autor nicht bekannt; es ist daher sowohl die Auswahl si-
       cherlich etwas  willkürlich als  auch der  Vergleich nicht streng
       systematisch.
       12) The President's  Commission (LG. Kemeny, chairman), Report on
       "The Accident  at Three  Mile Island",  Düsseldorf 1979 (deutsch:
       "Der Störfall von Harrisburg"); im folgenden: TMI-2.
       13) Union Carbide  Corporation "Bhopal  Methyl Isocyanat Incident
       Investigation Team  Report", Danbury,  Conn. 1985; Special Issue:
       Bhopal, Chem.  Eng. News.  63 (6),  14 (1985); R. Klinger, Nachr.
       Chem. Tech. Lab. 33 (7), 590 (1985).
       Zur Toxizität  von MIC  (Mutagenität, Gentoxizität,  Chromosomen-
       schädigung): E.E.  McConnell et  al., Environ.  Sci. Technol.  21
       (2), 188-93 (1987).
       14) USSR State Committee on the Utilization of Atomic Energy "The
       Accident at the Chernobyl' Nuclear Power Plant and its Consequen-
       ces", IAEO, Wien 1986; im folgenden: RBMK-1000.
       15) Nachr. Chem. Tech. Lab. 34 (12), 1184 (1986).
       16) E. Finckh, U. Waas, Phys. i.u.Z. 10 (4), 114-8 (1979).
       17) RBMK-1000, Part I, p. 15 ff.
       18) H. Hörz  "Zufall -  eine philosophische Untersuchung", Berlin
       (DDR) 1980,  S. 209;  siehe auch:  Acad. F.V.  Konstantinov (ed.)
       "The Fundamentals  of Marxist-Leninist  Philosophy", Moskau  1982
       (engl.), p. 134 ff.
       19) Siehe z.B.  U. Fiedler,  F. Baldeweg, wissensch. u. fortschr.
       37 (2), 39-42 (1987).
       20) R.K. Lester, Spektr. Wiss. 1986 (5), 42-52.
       21) RBMK-1000, Part I, p. 23.
       22) Chem. Anl.  + Verf.  Elektronik, 1987 Juli, 18; H.-F. Brinck-
       mann, wissensch. u. fortschr. 37 (6), 136-9 (1987).
       23) TMI-2, S. 51, weiters: "Über 100 Alarmmeldungen wurden in den
       frühen Stadien des Störfalls ausgelöst, ohne daß eine Möglichkeit
       bestand, die  unwichtigen zu  unterdrücken und  die wichtigen  zu
       identifizieren."
       S. 120:  Faust (Operator): "Ich hätte die Schalttafel an die Wand
       werfen mögen. Sie gab uns zwar viele, aber keine wirklich wichti-
       gen Informationen."
       24) R. Finke, Spektr. Wiss. 1986 (5), 78-86.
       25) K. Fukunaga  "Introduction to  Statistical  Pattern  Recogni-
       tion", New  York 1972; siehe z.B. auch: K. Varmuza "Pattern Reco-
       gnition in Chemistry", Berlin (W.) 1980.
       26) H.L. Dreyfus,  S.E. Dreyfus "Künstliche Intelligenz", Reinbek
       1987, S. 32 u. S. 167.
       27) W.D. Hillis, Spektr. Wiss. 1987 (8), 52-60.
       28) Dreyfus, Dreyfus, a.a.O., S. 91.
       29) E. Charniak,  D. McDermott "Introduction to Artificial Intel-
       ligence", Reading Mass. 1985, p. 460: Bayes' Theorem.
       30) Ebenda, p. 393.
       31) Dreyfus, Dreyfus, a.a.O., S. 37 ff.
       32) Ebenda, S. 113 f.
       33) Siehe z.B.  R. Davis,  R. Buchanan,  E. Shortliffe, Artifical
       Intelligence 8, 15-45 (1977).
       34) DENDRAL geht zurück auf eine Anregung von E. A. Feigenbaum u.
       J. Lederberg;  für eine  weiterentwickelte  Version  siehe:  D.H.
       Smith et  al. "Heuristic  DENDRAL: Analysis  of Molecular  Struc-
       ture", pp  287-315 in:  W.T. Wipke et al. (eds.) "Computer Repre-
       sentation and  Manipulation of  Chemical Information",  New  York
       1974.
       35) H. Nick, K. Seinitz, Wirtschaftswissenschaft 1982 (11), 1622.
       36) J. Ligatschow,  Probleme des  Friedens und des Sozialismus 30
       (7), 867-77  (1987), im speziellen (S. 868): "Erstens: Der ökono-
       mische Inhalt  der Umgestaltung  (in  der  UdSSR,  H.M.)  besteht
       darin, daß  die Produktionsverhältnisse  mit dem  neuen Stand der
       Produktivkräfte in  Übereinstimmung gebracht  werden. Das ist ein
       revolutionäres Merkmal."
       

       zurück