Erkenntnis als Informationsprozess 9783205159605, 3702900950, 3486492616, 9783205782186


120 57 4MB

German Pages [150] Year 1976

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Erkenntnis als Informationsprozess
 9783205159605, 3702900950, 3486492616, 9783205782186

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

LU

eine Bibliothek des modernen wissenschaftlichen Denkens

Bisher erschienen : Karl H. BORCH, Wirtschaftliches Verhalten bei Unsicherheit. C . West CHURCHMAN - Rüssel L. ACKOFF - E . Leonard ARNOFF, Operations Research. Morton D. DAVIS, Spieltheorie für Nichtmathematiker. Heinz H A A S (Hrsg.), Technikfolgen-Abschätzung. Richard C. JEFFREY, Logik der Entscheidungen. Norman MALCOLM, Ludwig Wittgenstein. Oskar MORGENSTERN, Spieltheorie und Wirtschaftswissenschaft. Ernest NAGEL - James R. NEWMAN, Der Gödelsche Beweis. John von NEUMANN, Die Rechenmaschine und das Gehirn. Erhard OESER, Wissenschaft und Information, Band 1: Wissenschaftstheorie und empirische Wissenschaftsforschung. Howard RAIFFA, Einführung in die Entscheidungstheorie. Hans SACHSSE (Hrsg.), Möglichkeiten und Maßstäbe für die Planung der Forschung. Hubert SCHLEICHERT, Elemente der physikalischen Semantik. Erwin SCHRÖDINGER, Was ist ein Naturgesetz? Claude E. SHANNON - Warren WEAVER, Mathematische Grundlagen der Informationstheorie. Herman WEYL, Philosophie der Mathematik und Naturwissenschaft. Dean E. WOOLDRIDGE, Mechanik der Gehirnvorgänge. Dean E. WOOLDRIDGE, Mechanik der Lebensvorgänge.

In Vorbereitung: Erhard OESER, Wissenschaft und Information. Band 3 : Struktur und Dynamik erfahrungswissenschaftlicher Systeme. Band 4 : Wissenschaftstheorie als Rekonstruktion der Wissenschaftsgeschichte.

IORTTEI GDMD Erhard Oeser

Wissenschaft und Information Systematische Grundlagen einer Theorie der Wissenschaftsentwicklung

Band 2

Erkenntnis als Informationsprozeß

R. Oldenbourg Verlag Wien München 1976

© 1976 R. Oldenbourg Verlag Wien Druck: R. Spies & Co., Wien ISBN 3-7029-0095-0 R. Oldenbourg Wien ISBN 3-486-49261-6 R. Oldenbourg München

Inhalt 1. Der Informationsbegriff als Grundlage der Erkenntnistheorie 2. Die semiotische Explikation des Informationsbegriffs und die Analyse des Informationsgehalts 3. Der Informationsprozeß als Systemverhalten .

.

.

4. Der informationsverarbeitende Automat als Analogiemodell kognitiver Funktionen 5. Informationsprozesse und Informationsstrukturen .

.

6. Der Algorithmus als grundlegendes Verfahren der automatischen Informationsverarbeitung 7. Die Grenzen der logischen Perfektionierung der automatischen Informationsverarbeitung 8. Planung und Organisation von Informationssystemen . Literatur Personenregister Sachregister

Erkenntnis als Informationsprozeß 1. Der Informationsbegriff als Grundlage der Erkenntnistheorie Das Problem der menschlichen Erkenntnis gehört zu den ältesten Problemen, die in der Wissenschaftsgeschichte aufgetreten sind. Es war vor allem in der Neuzeit Gegenstand nicht nur rein theoretisch-philosophischer, sondern auch empirischer Untersuchungen. Denn für die Bewältigung dieses komplexen Problems konnte jene Disziplin, die unter dem Titel „Erkenntnistheorie" in der Geschichte der Philosophie aufgetreten ist, noch keine allgemein akzeptierte Lösung bieten, obwohl die klassische Abstraktionstheorie, wie noch ausführlicher gezeigt werden soll, eine sichere und einheitliche Grundlage für ein derartiges Unternehmen darstellt. Andererseits führten jedoch die mit verschiedenen Arbeitsmethoden und in verschiedenen Bereichen durchgeführten empirischen Untersuchungen nur zur Klärung von Detailproblemen sinnesphysiologischer, gehirnphysiologischer, wahrnehmungspsychologischer und linguistischsprachtheoretischer Art und nicht zur Lösung des eigentlichen Grundproblems der Erkenntnis, die audi in allen diesen Teilbereichen intendiert wurde, nämlich die Lösung des Problems der Erklärung der Möglichkeit von Erkenntnis. Bei der Erkenntnistheorie, welche die Frage des methodischen Zustandekommens von Erkenntnis explizit zu behandeln versucht, handelt es sich auch bis heute eher um die Formulierung eines Komplexes von ungelösten Problemen als um deren Bewältigung. Der Grund für die prinzipielle Unlösbarkeit der erkenntnistheoretischen Grundlagenproblematik ist der unvermeidlich zirkuläre Charakter dieses Unternehmens. Dieser zirkuläre Charakter, mit dem die Erkenntnistheorie als theoretische Selbstreflexion grundsätzlich belastet ist, wird in den empirischen Untersuchungen, die sich immer auf einen Gegenstand der Erfahrung beziehen, sei es Sinnesorgan, zentrales Nervensystem oder Sprache, von vornherein vermieden. Das Problem liegt jedoch bei diesen Untersuchungen in der Zusammenfassung aller Detailergebnisse aus den verschiedenen empirisdien Untersuchungsbereichen, wodurch erst das

8

1. Der Informationsbegriff

Grundproblem der Erkenntnis lösbar werden kann. Eine solche Zusammenfassung kann freilich nicht nur in einer Summierung von Teillösungen bestehen, sondern involviert vielmehr einen neuen Verarbeitungsprozeß, in welchem die Teillösungen verschiedener Untersuchungsbereiche in gegenseitiger Kontrolle korrigiert und einander angepaßt werden. Denn die „Wahrheit" der Teilergebnisse wie audi der komplexen Problemlösung kann auch hier nur durch die Übereinstimmung der Kontrollbereiche garantiert werden. Voraussetzung für eine solche Übereinstimmung durch gegenseitige Kontrolle und Anpassung ist die Konstituierung einer einheitlichen Terminologie. Die Konstituierung einer allgemeinen Terminologie, die in allen Teilbereichen empirischer Untersuchungen über den Prozeß menschlicher Erkenntnisgewinnung sinnvoll verwendet werden kann, fällt mit der nichtempirischen Fragestellung der Erkenntnistheorie zusammen. Es ist ein historisches Faktum, daß eine solche einheitliche Terminologie nicht die explizite Leistung der Erkenntnistheorie als einer philosophischen Disziplin, sondern die der Informationstheorie und Kybernetik war. Diese wissenschaftsgeschichtliche Tatsache ist freilich nicht als besonders merkwürdig anzusehen, denn echte Innovationen geschehen selten oder fast nie durch eine interne Fachdiskussion, sondern oft vielmehr dadurch, daß Disziplinen miteinander verbunden werden, die im Klassifikationssystem der Wissenschaften scheinbar sehr weit voneinander entfernt sind. Während der Begriff „Kybernetik" ein von N. Wiener eigens konstruiertes Kunstwort darstellt 1 , um das interdisziplinäre Problem der Regelung und Nachrichtenübertragung in Lebewesen und Maschinen in einer einheitlichen Betrachtungsweise zusammenzufassen, war der Informationsbegriff ein in verschiedenen Bereichen bereits wohletablierter Fachterminus 2 , auf den hin außerdem eine Reihe von Disziplinen konvergierte, in

1

2

Aus dem griechischen κυβερνήτης (Steuermann) in Anlehnung an C. Maxwells Artikel über Fliehkraftregler (governors) aus dem Jahr 1868, nadi Wieners Angaben die erste bedeutende Sdirift über Rüdckoppelungsmechanismen. Vgl. N . Wiener, Kybernetik, Stuttgart 1965, S. 32. Ζ. B. in der Statistik und Wahrscheinlichkeitstheorie. Vgl. R. A. Fisher, The Design of Experiments und Statistical Methods for Research Workers, London 1925.

Das Erkenntnisproblem

9

denen er noch nicht explizit, jedoch dem Sinn nach verwendet wurde®. Unmittelbar nach dem Erscheinen der grundlegenden Arbeiten von Shannon, Wiener, MacKay u. a., denen sich Untersuchungen aus der Automatentheorie anschlössen (Turing, John von Neumann), in denen es nicht nur um die Regelung und Übertragung von Informationsprozessen, sondern auch um deren Speicherung und Verarbeitung ging, wurde es dann zu einer allgemein verwendeten Verfahrensweise, die menschliche Erkenntnis als einen Informationsprozeß zu betrachten. Es ist eine historische Tatsache, daß diese interdisziplinäre Betrachtungsweise zugleich mit dem ersten Auftreten der Informationstheorie gegeben war. Darauf hat vor allem Donald MacKay hingewiesen, der sich in diesem Zusammenhang mit Recht auf das erste internationale Symposium über Informationstheorie beruft, das bereits 1950 in London stattfand und an dem Wissenschaftler aus sehr verschiedenen Bereichen, Mathematiker, Physiker, Techniker, Linguisten, Physiologen und Genetiker, beteiligt waren. Gemeinsame Zielsetzung war die „Untersuchung von Systemen, bei denen es auf die Funktion der Übertragung und Verarbeitung von Informationen ankommt" 4 . Damit war bereits der Ansatzpunkt gegeben, auch den Prozeß menschlicher Kommunikation und Informationsgewinnung zu untersuchen. Denn sowohl die empirischpsychologische als auch die erkenntnistheoretische Terminologie, die ja einen gemeinsamen historischen Ursprung in der traditionellen Seelenlehre haben, lassen sich vollständig in die informationstheoretische Sprechweise übersetzen, in der die klassischen Begriffe der Wahrnehmung, des Gedächtnisses, des Denkens und der sprachlichen Mitteilung durch die Begriffe der Gewinnung, Speicherung, Verarbeitung und Übertragung von Informationen ersetzt werden. Die informationstheoretische Umdeutung der Erkenntnistheorie ist jedoch in der Philosophie nicht allgemein akzeptiert worden. Schuld daran sind aber nicht nur „metaphysische Vorurteile" oder mangelnde Kenntnis erfahrungswissenschaftlicher Ergebnisse und technischer Anwendungsmöglichkeiten, sondern auch gewisse ideologische Übertreibungen der informationstheoretischen Betrachtungsweise bei einem Teil ihrer Urheber ® Ζ. B. in der Psychologie von Helmholtz, Wundt und Mach. * Vgl. D. M. MacKay, Information, Mechanism and Meaning, Cambridge-Mass.-London 1969, S. 9.

10

1. Der Informationsbegriff

und Schöpfer 5 , insbesondere aber bei den Kybernetikern. Denn die grundsätzlich gar nicht abzuweisende Einsicht in den Charakter der menschlichen Erkenntnis als eines Informationsprozesses hat zur vorschnellen und unüberlegten Gleichsetzung von Erkenntnistheorie und erfahrungswissenschaftlidier Analyse des Erkenntnisprozesses geführt, aus der das Monstrum einer „kybernetischen Erkenntnistheorie" hervorgegangen ist, in der verschiedene Abstraktionsebenen miteinander vermischt werden. Dadurch ergeben sich Formulierungen 6 , die den klassischen Aussagen des mechanistischen Materialismus in der Erkenntnistheorie ähneln, so wie er im 18. Jahrhundert etwa von de la Mettrie und Condillac vertreten wurde. Wie Wiener betont, ist zwar „die neue Mechanik genauso mechanistisch wie die alte" 7 , doch ist das Wort „Materialismus" nur noch ein schwaches Synonym für „Mechanismus" als Gegensatz zum „Vitalismus" und muß mit diesem in die Rumpelkammer schlecht gestellter Fragen verwiesen werden. Der Grundbegriff der neuen Mechanik der Informationsübertragung und Informationsverarbeitung ist nach Wiener kein „materialistischer", auch wenn die zugrundeliegenden materiellen Systeme Fleisdi, Metall oder sonstige physikalische Träger sind, denn: „Information ist Information, weder Materie noch Energie." 8 Mit dieser häufig mißverstandenen und kritisierten Aussage Wieners ist jedoch kein neuer Seinsbereich zwischen Materie und Geist intendiert, sondern vielmehr eine explizit erkenntnistheoretische Charakterisierung des Informationsbegriffs gegeben. Damit ist Information weder als ein Objekt noch als eine Eigenschaft von Objekten, sondern als eine Eigenschaft τ ο η Eigenschaften bestimmt. Information ist eine Eigenschaft zum Beispiel bestimmter Signalmengen, die wiederum Eigenschaften eines materiellen Systems sind, das diese erzeugt. Während die Signale als Eigenschaften materieller Systeme selbst materiell sein müssen, muß man den Informationen, die durch solche Signale übermittelt werden, keine Mate5

Ζ. B. bei N. Wiener selbst in seinem Buch „Mensch und Menschmaschine", das als gutgemeinte Warnung gedacht war und vielleicht gerade deswegen in futurologische Übertreibungen ausartete. Ähnlich D.Gabor, Menschheit morgen, Bern-München 1965, S. 117ff. * Ζ. B. bei K. Steinbuch, Automat und Mensch, 4. Aufl., BerlinHeidelberg-New York 1971, S. 2. 7 Wiener, Kybernetik, S. 69. 8 Wiener, Kybernetik, S. 166.

Historischer Exkurs

11

rialität zuschreiben. Denn sie sind als solche Abstraktionsprodukte im Sinne von Prädikatenprädikaten. Entsprechendes gilt für die natürlichen Zahlen 1, 2, 3, . . d i e unter anderem als Abstraktionsklassen äquivalenter Mengen interpretiert werden können. Der Informationsbegriii hat daher denselben logisdien Status, wie ihn alle Prädikate zweiter Stufe besitzen. Dieser Charakter eines „Metaprädikats" ermöglicht es, den Informationsbegriff als den Grundbegriff der Erkenntnistheorie anzunehmen, obwohl diese es prinzipiell nicht mit den empirisch beobachtbaren und analysierbaren Prozessen der Erkenntnisgewinnung als solchen, sondern mit der „Wahrheit" der Erkenntnis zu tun hat. Nichts anderes als eine derartige erkenntnistheoretischlogische Interpretation des Informationsbegriffs kann C. F. von Weizsäcker im Sinn haben, wenn er von der „Information" behauptet, daß sie einer „höheren, formalen Abstraktionsstufe" 9 angehöre, und in ähnlichen Worten wie N. Wiener ausführt: „Man beginnt sich daher heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man aber damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." 10 Information gehört daher audi nach Weizsäcker nicht dem ontologisdien Begriffspaar BewußtseinMaterie, sondern der erkenntnistheoretischen Terminologie der klassischen Abstraktionstheorie, nämlich dem Begriffspaar Form-Materie, an. Ein historischer Exkurs, der bis zur Abstraktionstheorie der Scholastik und des Aristoteles zurückläuft, soll deutlich machen, daß die moderne Auffassung des Informationsbegriffs tatsächlich in der Tendenz der gesamten Geschichte der Erkenntnistheorie liegt. Historischer Exkurs. Es läßt sich eindeutig darlegen, daß diese Auffassung des Informationsbegriffs als Grundlage der Erkenntnistheorie bereits in der psydio-physiologisdien Betrachtungsweise des erkenntnistheoretischen Empirismus des 19. Jahrhunderts bei Helmholtz und Mach vorbereitet wird. Daß die • C. F. v. Weizsäcker, Sprache als Information, in: Die Einheit der Natur, Hamburg 1971, S. 51. >· Ebenda, S. 52.

12

1. Der Informationsbegriff

„Sinnesempfindung" als solche, nämlich als materielle Eigenschaft eines materiellen, lebenden Organismus, nicht das Grundprädikat der Erkenntnistheorie sein kann, hat schon Helmholtz klar erkannt. Er versucht bereits jenes methodische Verfahren anzuwenden, das zum Informationsbegrifî führt: E r ersetzt den empirischen, psycho-physiologischen Tatbestand der Sinnesempfindung durch ein Metaprädikat, indem er nicht die Sinnesempfindung, sondern deren Symboleigenschaft als eigentliche Grundlage der Erkenntnistheorie angibt. Sinnesempfindungen sind für ihn „Symbole für Verhältnisse der Wirklichkeit; sie haben mit den letzteren ebensowenig und ebensoviel Ähnlichkeit oder Beziehung, als der Name eines Menschen oder Schriftzug für den Namen mit dem Menschen selbst. Sie benachrichtigen uns durch die Gleichheit oder Ungleichheit ihrer Erscheinung davon, ob wir es mit denselben oder anderen Gegenständen zu tun haben, ebenso wie wir in der Erzählung von fremden Menschen und Städten an den gleichen oder ungleichen Namen erfahren, ob von denselben oder anderen die Rede ist." 1 1 Diese Auffassung scheint bei Ernst Mach, der sich in seiner Empfindungstheorie mehrfach auf Helmholtz beruft, wieder gänzlich verlorengegangen zu sein. Denn für Mach sind die Gegenstände der Erfahrung nichts anderes als „eine verhältnismäßig beständige Summe von Tast- und Lichtempfindungen, die an dieselben Raum- und Zeitempfindungen geknüpft ist" 1 2 . Deshalb kann auch jede empirische Wissenschaft „nur Komplexe von jenen Elementen nachbilden und vorbilden, die wir gewöhnlich Empfindungen nennen"' 3 . Derartige Aussagen haben zu einem Bruch Machs nicht nur mit der klassischen, mechanistischen, sondern auch mit der zeitgenössischen Physik geführt. So ist es Max Planck gewesen, der Machs Empfindungstheorie als unhaltbaren Anthropomorphismus kritisiert hat. Doch zeigt sich gerade in dieser Kritik eine ambivalente H a l tung, die bei Planck deswegen entstehen muß, weil Madi den Terminus „Empfindung" gar nicht rein sensualistisch-psychoH . Helmholtz, Über die Natur der menschlichen Sinnesempfindungen, 1852, in: Wissenschaftliche Abhandlungen, 2. Bd., 1883, S. 608. l a E. Mach, Die Analyse der Empfindungen und das Verhältnis des Physischen zum Psychischen, 6. Aufl., Jena 1911, S. 484. " Ebenda. 11

Historischer Exkurs

13

logistisch, sondern bereits in einer informationstheoretischen Bedeutung versteht. Nach Planck demonstriert die Empfindungstheorie Machs deutlich die unleugbare Tatsache, daß „die ganze Physik, sowohl ihre Definitionen als auch ihre ganze Struktur, ursprünglich in gewissem Sinne einen anthropomorphen Charakter trägt" 14 . Die Einheit eines physikalischen Weltbildes läßt sich jedoch erst „durch eine gewisse Emanzipation von den anthropomorphen Elementen" 15 erreichen. Mach gebührt zwar nach Planck „in vollem Maße das Verdienst..., den einzig legitimen Ausgangspunkt aller Naturforschung in den Sinnesempfindungen wiedergefunden zu haben" 16 , so daß heute „die Empfindungen anerkanntermaßen den Ausgangspunkt aller physikalischen Forschung bilden". In der exakten Naturwissenschaft, in der Physik, vollzieht sich jedoch gerade eine bewußte Abkehr von dieser Ausgangsbasis. „Eine absolute Ausschaltung der Sinnesempfindung ist ja gar nicht möglich, da wir doch die anerkannte Quelle aller unserer Erfahrung nicht verstopfen können." 17 Denn jeder Fortschritt in der exakten Wissenschaft ist notwendig mit einer fortschreitenden Eliminierung anthropomorpher Elemente verknüpft. Eine Eliminierung anthropomorpher Elemente ohne absolute Ausschaltung der Sinnesempfindung ist jedoch in der Erkenntnistheorie gleichbedeutend mit der Einführung des Informationsbegriffs als einer abstrakten Eigenschaft zweiter Ordnung. Nach Mach führt die Analyse der Empfindungen zu abstrakten „Elementen", die es ermöglichen, „je nach Bedürfnis und dem Ziel der Untersuchung, bald den psychologischen, bald den physikalischen Standpunkt als Ausgangspunkt zu wählen". Diese Möglichkeit ist eine Konsequenz aus der Einsicht, „daß nichts Gegenstand der Erfahrung oder einer Wissenschaft sein kann, was nicht irgendwie Bewußtseinsinhalt werden kann" 18 . Greift man noch weiter in der Geschichte der Erkenntnis- und Wissenschaftstheorie zurück, so stößt man auf einen Vorläufer Machs, der von diesem jedoch nur in wissenschaftsgeschichtlichen Zusammenhängen zitiert wird, obwohl er als der eigentliche Begründer der informationstheoretischen Auffassung der Erkenntnistheorie angesehen werden muß. Es war William Whe14

u 18

M. Planck, Die Einheit des physikalischen Weltbildes, Leipzig 15 1909, S. 6. Ebenda, S. 8. 17 Ebenda, S. 34. Ebenda, S. 29. Vgl. E. Mach, Erkenntnis und Irrtum, Leipzig 1905, S. 12.

14

1. Der Informationsbegriff

well, der als erster den Informationsbegriff im heutigen Sinn zur Analyse des Erkenntnisprozesses im allgemeinen und der erfahrungswissenschaftlichen Erkenntnis im besonderen eingeführt hat. Die in diesem Zusammenhang entscheidende Aussage findet sich in seiner 1858 in London erschienenen „History of Scientific Ideas": „Schließlich kann sogar die Seele selbst in ihrem ursprünglichen Zustand als ein materieller Gegenstand angesehen werden, wenn sie in bezug auf Erziehung und Erkenntnis betrachtet wird, durch die sie später gebildet wird; und deshalb werden diese in unserer Sprache Information genannt." 1 · Als Whewell diese Definition des Informationsbegriffs aufstellte, konnte er zwar nicht ahnen, welche Entwicklung die automatische Informationsverarbeitung im 20. Jahrhundert nehmen sollte, doch dürfte er sehr wohl mit den Ideen des Konstrukteurs der ersten programmgesteuerten Rechenmaschine vertraut gewesen sein. Denn Whewell war Mitglied jener kleinen Gruppe in Cambridge, zu der neben J. F. W. Herschel, Peacock und de Morgan auch Charles Babbage gehörte, der bereits 1833 mit dem Bau seiner analytischen Maschine begonnen hatte. Heute muß man sagen, daß nicht nur Babbage, der 1871 verbittert starb, weil er sich mit seiner Arbeit nicht hatte durchsetzen können, sondern auch Whewell mit seiner Idee der systematischen Grundlegung der Erkenntnistheorie auf dem Informationsbegriff seiner Zeit weit voraus war. Denn die eigentliche Zielsetzung von Whewells erkenntnistheoretischen Überlegungen war die Analyse der Entwicklung der Wissenschaften als eines weitgehend gesetzmäßig ablaufenden Informationsprozesses, der aus der Wechselwirkung von empirischen Fakten und theoretischen Ideen entstanden ist. Deshalb war ihm auch die historische Kontinuität des metatheoretischen Begleitwissens ein besonderes Anliegen, das er in seiner „Logic of Discovery" durch umfangreiche philosophiegeschichtliche Analysen, die bis auf Piaton und Aristoteles zurückführten und auch die wissenschaftstheoretische Uminterpretation der Kantischen Transzendentalphilosophie umfaßten, darzustellen versudite. Wenn sich Whewell bei der Explikation der „fundamentalen Antithese" von „facts" und „ideas", durch die der wissenle

W. Whewell, History of Scientific Ideas, London 1858, Bd. 1, S. 41.

Historisdier Exkurs

15

schaftliche Informationsprozeß in Bewegung gesetzt und in Bewegung gehalten wird, auf Kant beruft, so ergibt sich audi hier eine eindeutige Parallele zur modernen Informationstheorie. So zitiert Donald M. MacKay bei der Einführung des Begriffs der „strukturellen Information" als des „apriorischen" Aspekts im Unterschied zum „aposteriorischen", quantitativen jene bekannte Stelle aus der Kritik der reinen Vernunft: „Der Verstand hat Einsicht nur in das, was er nach einem eigenen Plan hervorbringt." 20 Auch von Weizsäcker bringt seine Überlegungen zum Informationsbegriii mit der Kantischen Transzendentalphilosophie in Zusammenhang: „Wollte man den Ort der Information im Bewußtsein suchen, so müßte man nicht vom empirischen, sondern vom transzendentalen Bewußtsein reden." 21 Da ihm aber diese Berufung auf die Transzendentalphilosophie, zumindest bezogen „auf die Mehrzahl der heutigen denkenden Menschen", als die „Erklärung einer dunklen Sache durch eine noch dunklere" erscheint, greift er lieber auf das lateinische Wörterbuch zurück. Whewell, dem es nicht um eine spezifisch philosophische Theorie des Bewußtseins, sondern um eine operationale Theorie der wissenschaftlichen Erkenntnis geht, bezieht sich in seiner genetisch-historischen Erklärung des Informationsbegriffs ebenfalls auf den klassischen lateinischen Sprachgebrauch. Mit seiner deflatorischen Gleichsetzung der Begriffe „Erziehung" (education) und „Erkenntnis" (knowledge) mit dem Informationsbegriff folgt er ganz ausdrücklich der lateinischen Etymologie. Er verweist in diesem Zusammenhang auf eine entsprechende Stelle in Vergils Aeneis22. Mit noch größerer Berechtigung hätte er sich freilich auf Cicero und auf den scholastischen Aristotelismus berufen können. Denn für Whewell bedeutet die Verwendung des Informationsbegriffs zugleich die Lösung der erkenntnistheoretischen Grundproblematik. Daß der Informationsbegriff seit jeher der Grundbegriff der Erkenntnistheorie in ihrer klassischen Form als Abstraktionstheorie war, läßt sich eindeutig durch die historische Tatsache belegen, daß bereits Aristoteles den Vorgang der Er-

M

21 β

Vgl. D. M. MacKay, Quantal Aspects of Scientific Information, in: Phil. Mag., Vol. XLI, 1950, S. 296. Vgl. Weizsäcker, Sprache als Information, S. 52. VIII, 424. Vgl. Whewell, History of Scientific Ideas, Bd. I, S. 41.

16

1. Der Informationsbegriff

kenntnisgewinnung als ein Aufnehmen der Form des Erkenntnisgegenstands ohne dessen materiellen Stoff verstanden hat. Ausdrücklich nachweisbar ist der Informationsbegriff in dieser erkenntnistheoretischen Bedeutung bei Cicero 2 3 , der die aristotelische Erkenntnistheorie sprachtheoretisch umdeutet und in die praktische Rhetorik übernimmt, indem er die Information eines Wortes (informatio verbi) als logische Begriffsdefinition (definitio) und Beschreibung des Inhalts (descriptio) ansieht 24 . Schon im klassischen Latein hat der Begriff informatio drei unterschiedliche Bedeutungen 2 5 : 1. die logisch-erkenntnistheoretische Grundbedeutung, die sich auf den durch die Tätigkeit des Erkenntnissubjekts zustande gebrachten Prozeß der Erkenntnisgewinnung bezieht: „informatio" als „ F o r m u n g " und „Abbildung". 2. die ebenfalls primär erkenntnistheoretische Bedeutung, die sich auf die äußere Informationsquelle bezieht, durch welche der Zustand des Erkenntnissubjekts im Sinne eines Wachstums von Erkenntnis verändert wird: „informatio" als „Lehre" und „Unterweisung". Von diesem engeren, nur zeitweilig verwendeten Begriff der Information als Unterweisung durch einen Lehrer (informator) ist die ursprüngliche, wesentlich weitere Auffassung zu unterscheiden, in der äußere Informationsquellen eingesdilossen sind, die nicht mit dem Empfänger kooperativ sind, das heißt, es handelt sich bei diesem Aspekt des Informationsbegriffs um ein „Lernen durch Erfahrung". In diesem allgemeinen Sinn ist auch der Begriff „education" bei Whewell als „Erziehung der Seele" zu verstehen, denn die „pädagogische" Bedeutung des Lernens durch ausdrückliche Belehrung stellt neben den sonstigen Formen des Lernens durch Speichern, durch Versuch und Irrtum, durch Nachahmung usw. 2 8 nur

Der gelehrte Kommentator der Cicero-Ausgabe von 1588 interpretiert den Ausdruck informabo als Übersetzung des griechischen ειδοποιήσω (I, 351 Β, Orator). 24 Vgl. Cicero, Opera I, 425 D. 2 5 Nach: A. F. Kirschius, Abundantissimum cornucopiae Linquae Latinae, Nürnberg 1718, S. 582. 2 * Vgl. H. Zemanek, Lernende Automaten, in: K. Steinbuch (Hrsg.), Tasdienbudi der Nadirichtenverarbeitung, Berlin-Göttingen-Heidelberg 1962, S. 1426 ff. 23

Statistische Informationstheorie

17

eine unter vielen anderen Möglichkeiten dar. Diese allgemeine Bedeutung des Begriffs „Lernen" als Verhaltensanpassung auf Grund vorangegangener Erfahrung spielt in verschiedenen Verwendungsbereichen der Informationstheorie eine entscheidende Rolle: zum Beispiel in der biologischen Verhaltensforschung, in der Lernpsychologie und vor allem in der Theorie der lernenden Automaten. 3. die ebenfalls aus der erkenntnistheoretischen Grundbedeutung abgeleitete, sowohl im juristischen als auch militärischen Sprachgebrauch verwendete Bedeutung des Informationsbegriffs, die sich auf die übermittelte Nachricht als verobjektivierte, mitteilungsfähige, das heißt auf die in irgendeiner Weise sprachlich fixierte Erkenntnis bezieht: „informado" als „Bericht" und „Kundschaft". In diesem Sinn ist der Informationsbegriff, insbesondere in der Nachrichtentechnik, die ja zum Teil als ein Produkt der Kriegstechnik zu betrachten ist, bis in den alltagssprachlichen Gebrauch erhalten geblieben. Der informationstheoretischen Umkonstruktion der klassischen philosophischen Erkenntnislehre scheinen gegenwärtig noch beträchtliche Hindernisse entgegenzustehen. So ist zum Beispiel gerade die im alltagssprachlichen Gebrauch durchwegs übliche Gleichsetzung von „Erkenntnis" und „Information" durch die mathematisch-statistische Definition des Informationsbegriffs in der Nachrichtentechnik problematisch geworden. Zwar wird der Informationsbegriff der Shannonschen Kommunikationstheorie noch als eine Einschränkung und Präzisierung des herrschenden Sprachgebrauchs von „Information" in einem „speziellen Sinn" 27 verstanden, doch zeigt sich bei genauerer Analyse dieser eingeengten Bedeutung des Begriffs „Information", daß der wesentliche Aspekt, nämlich der inhaltlichpragmatische, der mit dem gewöhnlichen Sprachgebrauch dieses Wortes unmittelbar verbunden ist, gänzlich verloren gegangen ist. Denn der Hauptaspekt der Nachrichtentechnik ist nicht die Information als solche in ihrer inhaltlichen Bedeutung und ihrem pragmatischen Wert, sondern die Genauigkeit der Übertragung der Informationen, gleichgültig welchen Sinn diese 27

Vgl. C. E. Shannon and W. Weaver, The Mathematical Theory of Communication, The University of Illinois Press, Urbana 1964, S. 8. Vgl. die deutsche Übersetzung: Mathematische Grundlagen der Informationstheorie, München-Wien 1967, S. 18.

2

Oeser, Band 2

18

1. Der Informationsbegriff

besitzen. Entscheidend ist allein ihre möglichst exakte Reproduzierung nach dem Übertragungsprozeß. Deshalb definiert Hartley bereits 1928 2 8 Information lediglich als die sukzessive Auswahl von Zeichen oder Wörtern aus einer gegebenen Liste, wobei die Frage der „Bedeutung" als ein subjektiver Faktor verworfen wird. Was übertragen wird, sind allein die Zeidien oder genauer ihre physikalischen Korrelate, die Signale, nicht aber deren Bedeutungen. Auf diese Definition stützt sich auch Shannon, wenn er ausdrücklich feststellt, daß der semantische Aspekt für das technische Problem der Informationsübertragung irrelevant sei. Shannons Mitautor Weaver hat in seinem Beitrag diese Feststellung insofern korrigiert, als er hinzufügt, daß damit freilich nicht gemeint sei, daß der technische Aspekt der Informationsübertragung für den semantischen Aspekt irrelevant sei 29 . Dieser durchaus berechtigte Anspruch muß jedoch notwendigerweise wieder zu einer Erweiterung der Informationstheorie über den mathematisch-technischen Aspekt der Informationsübertragung hinaus führen. Diese Auffassung wurde aber nicht von Weaver, sondern von Donald M. MacKay vertreten und konsequent zu einer Theorie der wissenschaftlichen Information (theory of scientific information) ausgebaut. MacKay, der seine Grundkonzeption bereits vor der Veröffentlichung von Shannons mathematischer Kommunikationstheorie im Jahre 1948 in einer Vorlesung am King's College in London vortrug, betont deshalb nachdrücklich, daß Shannon selbst zwar den Informationsbegriff in der eingeschränkten Bedeutung des statistischen Informationsgehalts verwendet, seine Theorie aber niemals als „Informationstheorie" bezeichnet habe 3 0 . Die Informationstheorie ist für M a c K a y von vornherein ein sehr viel weiteres Feld, in dem vom semantisch-pragmatischen Aspekt 3 1 nicht abstrahiert werden kann. Aus diesem Grund

28

28

30 31

R. V. L. Hartley, Transmission of Information, in: Bell System Technical Journal 7, 1928, S. 535. Zur historischen Entwicklung der technischen Kommunikationstheorie vgl. C. Cherry, Kommunikationsforschung — eine neue Wissenschaft, Hamburg 1963, S. 49 ff. Vgl. Shannon - Weaver, The Mathematical Theory of Communication, S. 8; bzw. deutsche Übersetzung, S. 18. Vgl. MacKay, Information, Mechanism and Meaning, S. 7 9 f. Zusammengefaßt in dem Ausdruck „meaning". Vgl. ebenda, S. 19 ff., 79 ff.

Statistische Informationstheorie

19

kann er für seine Konzeption der Informationstheorie, die er auf Kant und den frühen Wittgenstein des Tractatus gründet32, mit Recht in Anspruch nehmen, daß sie keine Anwendung oder Erweiterung der Shannonschen Kommunikationstheorie ist88. Leon Brillouin dagegen stützt seinen umfassenden Versuch, die Informationstheorie zu einer metatheoretischen Grunddisziplin der erfahrungswissenschaftlidien Erkenntnis zu machen, ausschließlich auf den mathematisch-statistischen Informationsbegriff der Shannonsdien Kommunikationstheorie. Er betrachtet daher in seinem grundlegenden Werk „Science and Information Theory" (1956) die Anwendung dieser Theorie auf das Problem der erfahrungswissenschaftlidien Erkenntnis nicht so sehr als einen Einbruch der exakten Erfahrungswissenschaft (science) in ein Gebiet, das traditionellerweise zum Kompetenzbereich der Philosophie gehört, sondern vielmehr als die Entdeckung eines „Niemandslands", in dem Probleme behandelt werden, die vorher weder von einem Naturwissenschaftler noch von einem Philosophen diskutiert worden sind84. In einem später erschienenen Werk, in dem er genauer auf die philosophischen Grundlagen der Erfahrungswissenschaft eingeht, bezeichnet er die Informationstheorie als eine Art von Ariadnefaden in dem Labyrinth des philosophischen Hintergrunds der Erfahrungswissenschaft, der bis zu den alten Griechen zurückgeht88. Dennoch bleibt für ihn die Informationstheorie eine rein mathematisch-statistische Disziplin, in der allein der Informationsbegriff der Nachrichtentechnik, wie ihn Hartley und Shannon formuliert haben, sinnvoll angewendet werden kann. Deshalb negiert er audi MacKays Differenzierungen des Informationsbegriffs und versucht, in der über das Problem der Informationsübertragungstedinik weit hinausgehenden Fragestellung nadi der wissenschaftlichen Information mit einem einzigen Informationsbegriff und einer einheitlichen Theorie der Information auszukommen8·. Brillouin leugnet zwar nicht

32

Vgl. MacKay, Quantal Aspects of Information. Vgl. MacKay, Information, Medianism and Meaning, S. 59. 34 L. Brillouin, Science and Information Theory, New York-London 1962, S. XI. 35 L. Brillouin, Scientific Uncertainty and Information, New YorkLondon 1964, S. IX. 3 · Vgl. Brillouin, Science and Information Theory, S. 29. 33

2*

20

1. Der Informationsbegriff

die Existenz semantisdier Probleme in der Theorie der wissenschaftlichen I n f o r m a t i o n u n d referiert auch ausführlich über den Versuch einer Theorie der semantischen I n f o r m a t i o n v o n C a r n a p u n d Bar-Hillel, schließt aber selbst diese Betrachtungsweise aus seiner eigenen Theorie aus 37 . Diese ausschließliche Beschränkung auf eine statistische Definition des Wortes „ I n f o r m a t i o n " bedeutet aber η adi Brillouin, d a ß „ I n f o r m a t i o n " v o n „Erkenntnis", f ü r die es kein numerisches M a ß gibt, völlig unterschieden werden muß 3 8 . E r unterstützt diese d e m gewöhnlichen Sprachgebraudi gänzlich widersprechende definitorische Einschränkung des I n f o r m a t i o n s begriffs durch die Behauptung, d a ß „eine zufällige Auswahl von 100 Buchstaben, eine Folge v o n 100 Buchstaben einer Zeitung, eines Stücks v o n Shakespeare oder eines Theorems v o n Einstein exakt denselben W e r t (value) an I n f o r m a t i o n enthält" 3 9 . G e n a u betrachtet, bedeutet aber diese p a r a d o x e Formulierung eine doppelte I r r e f ü h r u n g . D e n n erstens hat die Beschränkung auf den „statistischen" Informationsbegriff der Shannonschen Informationstheorie keineswegs eine inhaltliche Gleichwertigkeit zwischen sinnlosen Buchstabenfolgen u n d mehr oder weniger sinnvollen Sätzen z u r Folge, sondern ist nichts anderes als eine totale Abstraktion u n d Eliminierung des semantisch-pragmatischen Informationswerts. Zweitens k a n n eine derartige Gleichsetzung auch n a d i der Shannonschen Theorie keineswegs auf die Buchstabenanzahl als solche gegründet werden, denn das numerische M a ß bezieht sich auf den K o d i e r u n g s a u f w a n d , der mit jedem Buchstaben v e r b u n d e n ist. Es k a n n daher auf keiner Ebene der Abstraktion ein I n f o r m a tionsbegriff zustande kommen, der eine derartige P a r a d o x i e erlaubt. Diese ist vielmehr das P r o d u k t eines klassischen logischen Fehlers, der μ ε τ ά β α σ ι ς είς άλλο γ έ ν ο ς , das heißt des verschwiegenen oder unbemerkten Wechsels der Bezugsebene. D a ß der in der Shannonschen Kommunikationstheorie verwendete Informationsbegriff dem gewöhnlichen Gebrauch dieses Wortes nicht widersprechen m u ß , w e n n m a n nur sorgsam die verschiedenen Abstraktionsebenen auseinanderhält, l ä ß t sich schon a n der G r u n d k o n z e p t i o n dieser Theorie auch ohne die Explikation des zugrundeliegenden mathematisch-stati37

58

Vgl. ebenda, S. 297: „We have also completely ignored another problem: that of meaning." M Vgl. ebenda, S. 9. Ebenda.

Statistische Informationstheorie

21

stisdien Apparates verdeutlichen. Der Grundgedanke von Hartley, Wiener und Shannon bestand darin, den Informationsgehalt lediglich als das Resultat eines Entscheidungsprozesses anzusehen, durch den eine Auswahl aus einem bereits bekannten endlichen Vorrat an Zeichen vollzogen wird, um jene Nachricht zu reproduzieren, die von der Informationsquelle wahrscheinlich gesendet worden ist. Der Informationsgehalt wird dann nach dem möglichen Aufwand an derartigen Entscheidungen gemessen. Der Aufwand an solchen Entscheidungen wird um so größer sein, je größer die Entscheidungsfreiheit ist. Größere Entscheidungsfreiheit bedeutet aber auch größere Ungewißheit darüber, welche Nachricht von der Quelle ausgesandt worden ist. Der Informationsgehalt ist daher nur ein Maß für die Ungewißheit. Diese Ungewißheit ist jedoch keine subjektive Ungewißheit einer Person als des letzten Bestimmungsorts (destination) der Nachricht. Denn eine solche subjektive Ungewißheit ist ein biologisch-psychologisches Problem und kein Problem der Übertragungstechnik als solcher, obwohl durch eine Erweiterung und Anwendung der technischen Kommunikationstheorie auf den Bereich der Psychologie bzw. der Biologie auch dieses Problem der subjektiven Ungewißheit grundsätzlich in der gleichen Weise verobjektivierbar und lösbar wird, wie nodi genauer gezeigt werden soll. In der mathematisch-statistischen Kommunikationstheorie der Nachrichtenübertragungstechnik bedeutet diese Ungewißheit (uncertainty) eine objektive physikalische Eigenschaft des Übertragungssystems selbst, das niemals vollkommen störungsfrei sein kann, da es in seiner technischen Realisierung immer nur eine beschränkte Leistungsfähigkeit besitzt, die durch Begriffe wie „Bandbreite" (Hartley) oder „Kanalkapazität" (Shannon) zum Ausdruck gebracht werden soll. Bei einer vollkommen störungsfreien Übertragung würde das Maß an Ungewißheit über die ausgesandte Nachricht und somit der Informationsgehalt auf Null sinken. Diese auf der semantischpragmatischen Ebene allerdings paradoxe Konsequenz kann jedoch auf der Ebene des statistisch-selektiven Informationsbegriffs der Shannonschen Theorie gar nicht zur Geltung kommen, denn die „störungsfreie Übertragung" ist nur ein rein theoretischer, nie realisierbarer Grenzfall, der nur zur Formulierung der Toleranzgrenze für den zulässigen Rest der Ungewißheit dient, der bei jeder Informationsübertragung un-

22

1. Der Informationsbegriff

vermeidlich auftreten muß. Daher ist diese Paradoxie, die sich real nicht auswirken kann, irrelevant. Weaver hat selbst in diesem Zusammenhang auf eine „semantische Falle" aufmerksam gemacht, in die man fallen kann, wenn man die spezielle Bedeutung dieses Informationsbegriffs nicht beaditet. Denn auf dieser Ebene gibt es keine Möglichkeit, zwischen der Quelle, die die Nachricht sendet, und jener, die sie stört, zu unterscheiden. Daraus ergibt sich notwendig, daß das gestörte Signal mehr Information als das ungestörte enthält, weil bei der Störung das empfangene Signal aus einem mannigfaltigeren Vorrat ausgewählt werden muß als das abgesandte 40 und dementsprechend die Anzahl der Entscheidungen größer wird. Dadurch zeigt sich deutlich die Differenz, die zwischen diesem Informationsbegriff der Übertragungstechnik und demjenigen der Umgangssprache, der grundsätzlich semantischpragmatischen Charakter hat, besteht. Dennoch handelt es sich dabei nicht um eine unaufhebbare Paradoxie. Zur Klärung dieses Problems muß Weaver eine Unterscheidung treffen, mit der er die Abstraktionsebene der Shannonschen Kommunikationstheorie ausdrücklich verläßt. Er spricht nämlich von einer „erwünschten Ungewißheit" (desiderable uncertainty), die mit Entscheidungsfreiheit gleichzusetzen ist, und einer „unerwünschten Ungewißheit" (undesiderable uncertainty), die auf die Störung zurückzuführen ist und die damit gleichbedeutend mit Unordnung und Chaos ist. Die erwünschte Ungewißheit bezieht sich auf die „durchschnittliche Ungewißheit in der Nachrichtenquelle, wenn das empfangene Signal bekannt ist" 41 . Eine solche Ungewißheit in der Nachrichtenquelle ergibt sich aus der bloß relativen Gleichheit (equivocation) von Nachricht und Signalfolge, durch die die Nachricht codiert wird, um überhaupt übertragen werden zu können. Diese Ungewißheit bedeutet Entscheidungsfreiheit des Empfängers gegenüber dem Sender. Sie ist gleichbedeutend mit einer Korrektur der Nachrichtenquelle durch den Empfänger. Die unerwünschte Ungewißheit ist dagegen jene durchschnittliche Ungewißheit, die das empfangene Signal betrifft, wenn die gesandte Nachricht bereits bekannt ist. In diesem Fall wird die Entscheidungsfreiheit nicht größer, da die Nachricht im vor44

41

Vgl. Shannon - Weaver, The Mathematical Theory of Communication, S. 19; bzw. deutsche Übersetzung, S. 29. Ebenda, S. 19; deutsche Ubersetzung, S. 30.

Die drei Stufen der Semiotik

23

aus bestimmt ist. Die im voraus bekannte Nachricht kann jedoch nicht mehr verbessert und korrigiert, sondern nur in der vorgegebenen Weise rekonstruiert werden. Bei dem idealen Fall der störungsfreien Übertragung sinkt diese unerwünschte Ungewißheit auf Null. Man kann somit zwar ohne paradoxe Konsequenzen sagen, daß damit auch der Informationsgehalt gleich Null ist, weil eine bereits bekannte Nachricht auch im alltagssprachlichen Gebrauch keine Information enthält. Andererseits wird jedoch auch deutlich, daß dieser semantischpragmatisdie Informationsgehalt unabhängig vom Sinken oder Steigen des statistischen Informationsgehalts ist, der nach der Zahl der Alternativentscheidungen gemessen wird. Daraus ergibt sich, daß die mathematische Theorie der Kommunikation, die von Shannon ausschließlich als eine Theorie der Übertragung (transmission) der Information konzipiert wurde, bereits in der Interpretation Weavers eine Erweiterung erfährt, die sich in einem vorsystematischen Sinn auf jene Aspekte bezieht, die in systematischer Weise nur mit Hilfe einer semiotischen Explikation des Informationsbegriffs dargestellt werden können.

2. Die semiotische Explikation des Informationsbegriffs und die Analyse des Informationsgehalts

Die Semiotik verdankt ihre Entstehung der Notwendigkeit, daß eine systematisch differenzierende und zugleich integrierende Betrachtungsweise für jene Prozesse gewonnen werden mußte, die ganz allgemein den Bereich der menschlichen Erkenntnis ausmachen. In diesem Zusammenhang hat Charles W. Morris eine grundsätzliche Unterscheidung getroffen1, durch welche die Semiotik als eine allgemeine Theorie der Zeichen2 in drei Teilbereiche zerfällt, und zwar in : 1. Syntaktik, welche die Beziehung der Zeichen untereinander betrifft, 1

2

Vgl. Ch. W. Morris, Formal and Empirical Sciences and Scientific Empirism, in: Erkenntnis, 5. Bd., 1935, S. 6 ff. Ch. W. Morris, Foundations of the Theory of Signs, in: Intern. Encyclopedia of Unified Science, Vol. I, Nr. 2, Chicago 1938.

Die drei Stufen der Semiotik

23

aus bestimmt ist. Die im voraus bekannte Nachricht kann jedoch nicht mehr verbessert und korrigiert, sondern nur in der vorgegebenen Weise rekonstruiert werden. Bei dem idealen Fall der störungsfreien Übertragung sinkt diese unerwünschte Ungewißheit auf Null. Man kann somit zwar ohne paradoxe Konsequenzen sagen, daß damit auch der Informationsgehalt gleich Null ist, weil eine bereits bekannte Nachricht auch im alltagssprachlichen Gebrauch keine Information enthält. Andererseits wird jedoch auch deutlich, daß dieser semantischpragmatisdie Informationsgehalt unabhängig vom Sinken oder Steigen des statistischen Informationsgehalts ist, der nach der Zahl der Alternativentscheidungen gemessen wird. Daraus ergibt sich, daß die mathematische Theorie der Kommunikation, die von Shannon ausschließlich als eine Theorie der Übertragung (transmission) der Information konzipiert wurde, bereits in der Interpretation Weavers eine Erweiterung erfährt, die sich in einem vorsystematischen Sinn auf jene Aspekte bezieht, die in systematischer Weise nur mit Hilfe einer semiotischen Explikation des Informationsbegriffs dargestellt werden können.

2. Die semiotische Explikation des Informationsbegriffs und die Analyse des Informationsgehalts

Die Semiotik verdankt ihre Entstehung der Notwendigkeit, daß eine systematisch differenzierende und zugleich integrierende Betrachtungsweise für jene Prozesse gewonnen werden mußte, die ganz allgemein den Bereich der menschlichen Erkenntnis ausmachen. In diesem Zusammenhang hat Charles W. Morris eine grundsätzliche Unterscheidung getroffen1, durch welche die Semiotik als eine allgemeine Theorie der Zeichen2 in drei Teilbereiche zerfällt, und zwar in : 1. Syntaktik, welche die Beziehung der Zeichen untereinander betrifft, 1

2

Vgl. Ch. W. Morris, Formal and Empirical Sciences and Scientific Empirism, in: Erkenntnis, 5. Bd., 1935, S. 6 ff. Ch. W. Morris, Foundations of the Theory of Signs, in: Intern. Encyclopedia of Unified Science, Vol. I, Nr. 2, Chicago 1938.

24

2. Die semiotisdie Explikation

2. Semantik, welche die Beziehung der Zeichen zu den Objekten betrifft, 3. Pragmatik, welche die Beziehung der Zeichen zum Benutzer der Zeichen betrifft. Morris hat dabei die Semiotik jedoch nicht als eine gänzlich neue, eigene wissenschaftliche Disziplin, sondern vielmehr als eine Betrachtungsweise angesehen, die den erkenntnistheoretischen Empirismus mit dem logisdien Formalismus auf pragmatische Weise verknüpfen soll3. Er folgt damit der pragmatischen Grundhaltung, die bereits vor ihm in bezug auf eine Theorie der Zeichen von Charles S. Peirce vertreten wurde: „Der Pragmatismus hat einfach die Logik in einem weiteren Sinn als empirisch aufgefaßt, nämlich die Logik als allgemeine Untersuchung des ganzen Prozesses der Reflexion (allgemeine Semiotik) und nicht nur als Systematisierung der formalen Seite dieses Prozesses. Dieser Unterschied ist nicht so wichtig wie die Übereinstimmung in der Behandlung der formalen Wissenschaften mit Hilfe des Begriffes der Sprache; der eine interessiert sich in erster Linie für die Struktur wirklicher und möglicher Sprachen; der andere für die Beziehung der Symbole zu den empirischen Daten und zu dem Zusammenhang des ganzen Verhaltens. Diese Interessen ergänzen sich; die beiderseitigen Ergebnisse können nicht in Widerstreit zueinander geraten." 4 Der Begriff „Semiotik" ist aus einer solchen pragmatischen Auffassung der formalen Logik, die für die Erkenntnistheorie selbstverständlich ist, hervorgegangen. Denn schon John Locke hat die erkenntnistheoretisch relevante Gebrauchslogik, die nicht mit beliebigen Zeichen, sondern nur mit solchen operiert, die als Stellvertreter der Dinge verstanden werden, ausdrücklich als „Semiotik" bezeichnet: „Das dritte Gebiet kann vielleicht als ,Semeiotiké' oder als die Lehre von den Zeichen bezeichnet werden. Da nun die wichtigsten hiervon die Wörter darstellen, so wird dieses Wissensgebiet auch zutreffend ,Logike', Logik, genannt. Ihre Aufgabe besteht darin, die 5

4

Auf die Gleichsetzung der gesamten „Philosophie" mit der Theorie der Zeichen, wie sie Morris in : Signs, Language and Behavior, N e w York 1946, Bd. 1, S. 58 f., vertritt, soll an dieser Stelle nicht eingegangen werden. Vgl. Erkenntnis, Bd. 5, S. 15 f. (deutsche Zusammenfassung des Beitrags von Morris durch die Schriftleitung).

Die drei Stufen der Semiotik

25

Natur der Zeichen zu untersuchen, die der Geist verwendet, um sich die Dinge verständlich zu machen oder anderen sein Wissen mitzuteilen. Denn von den Dingen, die der Geist betrachtet, ist — abgesehen von ihm selbst — keines dem Verstände gegenwärtig. Daher ist es notwendig, daß er noch etwas anderes als Zeichen oder Stellvertreter des Dinges, das er betrachtet, zur Verfügung hat, und das sind die Ideen. Nun ist der Schauplatz der Ideen, der die Gedankenwelt eines Menschen bedeutet, dem Blick eines anderen nicht unmittelbar zu enthüllen. Auch kann er nirgendwo anders hin verlegt werden als in das Gedächtnis; das aber ist kein besonders zuverlässiger Aufbewahrungsort. Deshalb sind sowohl für den Austausch unserer Gedanken mit anderen als auch für ihre Aufzeichnung zu unserem eigenen Gebrauch gewisse Zeichen für unsere Ideen notwendig. Diejenigen Zeichen nun, die den Menschen am zweckdienlichsten erschienen und infolgedessen allgemein verwendet werden, sind artikulierte Laute. Deshalb bildet die Betrachtung der Ideen und Wörter als der hauptsächlichsten Hilfsmittel der Erkenntnis einen nicht zu unterschätzenden Teil der Erwägungen dessen, der das menschliche Wissen in seinem gesamten Umfang überschauen will. Wenn wir sie gründlich abwägen und gehörig untersuchten, so würden sie uns vielleicht eine andere Art von Logik und Kritik liefern als die, die uns bisher bekannt ist." 5 Eine derartige Logik der Zeichenprozesse, die als Erkenntnisvorgänge eine dreifache Relation besitzen, da die Zeichen imstande sein müssen, Reaktionen hervorzurufen, die ihrerseits wiederum fähig sein müssen, für dasselbe Objekt als Zeichen zu dienen, muß auch Peirce mit seiner geplanten „Logic Considered as Semeiotic" im Sinn gehabt haben®. Deutlicher als Locke und anschaulidier als Peirce und Morris hat aber vom informationstheoretischen Standpunkt aus Collin Cherry die integrierende Funktion der Semiotik in einer sdiematischen Darstellung ihrer sukzessiven Abstraktionen zum Ausdruck gebracht:

Vgl. J. Locke, Untersuchung über den menschlichen Verstand, H a m burg 1962, S. 4 3 0 f. ® Vgl. Brief an Lady Victoria Welby vom 12. Oktober 1904, in: Collected Papers 8, S. 321 ff. Deutsche Übersetzung: C. S. Peirce, Die Festigung der Uberzeugung und andere Schriften, hrsg. von E . Walther, Baden-Baden 1965, S. 165 f. 5

26

2. Die semiotische Explikation

Die drei Stufen der Semiotik (schematische Darstellung der sukzessiven Abstraktionen)

Dieses Schema zeigt deutlich, daß die drei Teilbereiche der Semiotik keine voneinander abgetrennten Untersuchungsfelder sind, sondern in einem unauflösbaren Zusammenhang stehen, der lediglich in methodischer Abstraktion auseinandergelegt werden kann. Stufenweise wird, ausgehend vom allgemeinsten, intuitiven Verständnis der Zeichenprozesse als pragmatischer, auf den Benutzer bezogener Vorgänge, zunächst in einem ersten Schritt vom Benutzer abstrahiert, wodurch die objektive, „unpersönliche" Semantik entsteht, um dann in einem weiteren Schritt auch von der „Bedeutung" der Zeichen abstrahieren zu können, wodurch die reine Syntaktik entsteht, die weder zu den Personen, die die Zeichen benützen, noch zu den Dingen, die die Zeichen bedeuten, eine Beziehung hat. Auf dieser letzten Abstraktionsebene ist die mathematische Kommunikationstheorie Shannons formuliert. Begreift man sie als Beitrag zur Semiotik, dann ist sie nach Collin Cherry „im wesentlichen eine syntaktische Theorie", die aber, wie aus dem von ihm vorgeschlagenen Schema klar hervorgeht, „grundlegend zu sein scheint für jede Untersuchung der semantischen oder pragmatischen Aspekte der Information" 7 . Dieser Auf7

Cherry, Kommunikationsforsdiung, S. 264.

Syntaktischer Informationsbegriff

27

fassung entspricht zwar die von Weaver in seinem einführenden Beitrag zu Shannons mathematischer Theorie der Kommunikation getroffene Unterscheidung von drei Problemebenen: 1. Wie genau (accurately im Sinne von berechenbarer Genauigkeit) können die zur Kommunikation verwendeten Symbole übertragen werden? (Das technische Problem) 2. Wie genau (precisely im Sinne von definitorischer Deutlichkeit) übermitteln die gesandten Symbole die gewünschte Bedeutung? (Das semantisdie Problem) 3. Wie wirksam beeinflußt die empfangene Bedeutung das Verhalten in der gewünschten Weise? (Das Problem der Effektivität) Aus der Gegenüberstellung dieser Problemebenen zu ihren Entsprechungen in den semiotischen Teilbereidien geht jedoch auch hervor, daß im Unterschied zu der völligen Identität der beiden anderen Problemebenen mit der Semantik und Pragmatik das technische Problem der Übertragungstechnik nur negativ als rein „syntaktisches" gekennzeichnet werden kann, da es sich nicht auf semantische und pragmatische Erwägungen bezieht. Deswegen hat auch Cherry vor einer Identifizierung der von Weaver angegebenen drei Problemkreise der Shannonschen Kommunikationstheorie mit den drei Stufen der Semiotik gewarnt 8 . Es ist daher unzulässig, den Shannonschen Informationsbegriff auf einen „syntaktischen Informationsbegriff" 9 zu reduzieren. Denn das im positiven Sinn Spezifische des Informationsbegriffs der mathematischen Kommunikationstheorie ist nicht die Reduktion auf die bloß syntaktische Beziehung der Zeichen untereinander, sondern seine statistische Grundlage, die wiederum auf der binären Kodierung beruht. Der binäre Kode, der, wie seine Bezeichnung bereits sagt, nur zwei Zeichen kennt, bietet prinzipiell die Möglichkeit einer rein quantitativen Analyse nicht nur der besonderen technischen Kommunikationssysteme, mit denen sich die Nachrichtentechnik beschäftigt, sondern aller möglicher konkreter Kommunikationsformen in allen Bereichen, von denen es sinnvoll ist zu 8

Vgl. ebenda, S. 284. • Wie es ζ. B. Fleditner tut, der allerdings auch auf die statistische Grundlage verweist, in: Grundbegriffe der Kybernetik, Stuttgart 1972, S. 73 ff.

28

2. Die semiotisdie Explikation

sagen, daß in ihnen Informationen übertragen werden. Als ein Teilgebiet der mathematischen Statistik oder ein neuer „Zweig" der Wahrscheinlichkeitsrechnung10 ist daher audi die Shannonsche Theorie zum Beispiel von Α. N. KolmogorofF, A. M. Jaglom u. a. weitergebildet worden 11 . Durch die quantitativ statistische Analyse von konkreten Kommunikationsformen ergibt sich aber eine nicht nur für die empirische Erfassung des menschlichen Erkenntnisprozesses, sondern audi für seine rein theoretische Reflexion bedeutsame Möglichkeit, Gesetzmäßigkeiten ausfindig zu machen, durch welche die verschiedenartigsten Untersuchungsgebiete miteinander in Beziehung gebracht werden können. So läßt sich die mathematischstatistische Theorie der Informationsübertragung nicht nur bei der Analyse der Sinnesorgane, sondern audi bei der Untersuchung des menschlichen Gehirns anwenden, wodurch das ganze Nadirichtensystem, das der Mensch als organisdies Lebewesen darstellt, einer quantitativen Analyse bezüglich seiner Fähigkeit, Informationen zu empfangen und zu verarbeiten, zugänglich wird. Für die Erkenntnistheorie ist jedoch, wie nodi ausführlicher im nächsten Kapitel gezeigt werden soll, die Möglichkeit, Erkenntnis informationstheoretisdi als Systemverhalten zu interpretieren, von grundsätzlicherer Relevanz als die numerisdien Ergebnisse über die „Kanalkapazität" dieses Systems, bei denen es sich immer nur um mehr oder weniger rohe Abschätzungen handeln kann 12 . Daß mit dem mathematisch-statistischen Informationsbegriff der Nachrichtentechnik in seiner positiven Bedeutung die „syntaktische Dimension" noch in viel grundlegenderer Weise hintergangen werden kann, wird dadurch deutlich, daß auch die natürliche Sprache informationstheoretisdi als eine „konkrete Nachrichtenform" betrachtet werden kann. Derartige Unter-

10

11

12

Als einen „stochastisdien" Prozeß, als Markoff-Kette, hat ja bereits Shannon selbst die Funktion der diskreten Nachrichtenquelle aufgefaßt. Vgl. Shannon - Weaver, The Mathematical Theory of Communication, S. 45 ff.; deutsche Ubersetzung, S. 55 ff. Vgl. A. N. KolmogorofF, Theorie der Nachrichtenübermittlung, in: Arbeiten zur Informationstheorie I, Berlin 1957; A. M. Jaglom und I. M. Jaglom, Wahrscheinlichkeit und Information, 3. Aufl., Berlin 1967. Vgl. H. Zemanek, Elementare Informationstheorie, Wien-München 1959, S. 64 ff.

Semantisdier Informationsbegriff

29

suchungen, die Shannon1® selbst mit Bezug auf die englische Sprache durchgeführt hat, sind von K. Kupfmiiller für die deutsche, von Kolmogoroff, Jaglom-Jaglom u. a. für die russische und von H . Hannson für die schwedische Spradie unternommen worden. Ebenso hat man Vergleiche zwischen verschiedenen Sprachen gezogen, wie etwa zwischen Englisch und Deutsch, und eine Reihe von Untersuchungen durchgeführt, die weit über den ursprünglichen Bereich des Kodierungsproblems hinausführen, dem sie ihre Entstehung verdanken (Mandelbrot, Berry, Cherry). Ein genaues Äquivalent dieser mathematisch-statistischen Analyse, die die Ebene der linguistischen Konzeption des SyntaxBegriffs hintergeht, bildet die formal-logische Konzeption von Syntax und Semantik. Denn auch dabei geht es um die „Genauigkeit", zwar nicht im Sinne einer berechenbaren Genauigkeit, die bei der Übertragung der Information die entscheidende Rolle spielt, sondern um die definitorische Genauigkeit, die eine rein logische Sache ist. Während der am technischen Übertragungsproblem interessierte Nachrichtentechniker mit einem binären Kode operiert, durch den die natürliche Kommunikationsform, die Sprache, zu einem rein statistischen Problem wird, operiert der Logiker ebenfalls mit einer künstlichen Metasprache, durch welche die natürlichste Kommunikationsform der menschlichen Erkenntnis, die jeweilige Objektsprache, präzisiert werden soll. Einen entscheidenden Ansatz zu einer solchen Theorie der semantischen Information haben bekanntlich Bar-Hillel und R. Carnap geliefert. Ihre Theorie ist weniger bedeutsam wegen ihrer möglichen Anwendbarkeit, die von vielen ihrer Kritiker bezweifelt wird, als vielmehr dadurch, daß sie in streng systematischer Weise einen Aspekt des Informationsbegriffs herausarbeitet, der nur allzu leicht mit pragmatischen Überlegungen vermischt wird. Denn der Begriff „Semantik" wird häufig dazu verwendet, „Theorien der Bedeutung" zu bezeichnen, wobei der umgangssprachliche Begriff „Bedeutung" (meaning) nicht vom pragmatischen Aspekt des Benutzers abstrahiert, für den die Information oder die sie repräsentierende Zeichenfolge etwas bedeutet. Es ergibt sich daher die Notwendigkeit, das grobe Einteilungskonzept der Semiotik auch bezüglich des semantischen Bereichs zu differenzieren. ls

C. E. Shannon, Prediction and Entropy of Printed English, in: Bell System Techn. J. 30, 1951, S. 50—64.

30

2. Die semiotische Explikation

In der allgemeinen Semiotik 14 , die als solche audi nach Morris nicht mehr sein kann als eine Hilfsvorstellung zur systematischen Differenzierung und Integrierung komplexer Problemstellungen, wird kein Unterschied zwischen empirischer Syntax und Semantik auf der einen Seite und reiner Syntax und Semantik auf der anderen Seite gemacht. Die rein formale Logik abstrahiert dagegen von den empirischen Aspekten von Syntax und Semantik, die in der deskriptiven Sprachwissenschaft behandelt werden, und beschränkt sich auf die reine Syntax und Semantik, die die Konstruktion künstlicher Sprachen zum Ziel haben 15 . Für den Aufbau solcher künstlicher Sprachsysteme gibt es viele Varianten. Denn dieser geschieht nicht durch Verbote, sondern durch Festsetzungen im Sinne des von Carnap betonten Toleranzprinzips: „Jeder mag seine Logik, das heißt seine Sprachform, aufbauen, wie er will. Nur muß er deutlich angeben, wie er es machen will." 16 Syntaktischer und semantischer Aufbau der formalen Sprache laufen einander so lange parallel, so lange dieser Aufbau rein formalen Charakter hat. Es werden zunächst Zeichentabellen aufgestellt, die syntaktische Verknüpfungszeichen angeben und in semantischer Hinsicht eine Zusammenstellung aller jener deskriptiven Zeichen darstellen, aus denen die Ausdrücke der Objektsprache gebildet werden. Dann werden im Bereich der logischen Syntax die Verknüpfungsregeln aufgestellt. In diesen Bereich fallen alle Varianten des formalen Schließens nicht nur im Sinne der Deduktion und Ableitbarkeit, sondern auch der Induktion, soweit diese formal gültig dargestellt werden kann. Dem Bereich der syntaktischen Verknüpfungsregeln entspricht in der Semantik der Bereich der Formregeln, in denen festgelegt wird, welche Zusammenstellungen von Zeichen zulässige Ausdrücke der Objektsprache bilden. Die semantische Konstruktion einer künstlichen Sprache bleibt so lange im Bereich der rein 14

Der Begriff „Semiotik" wurde zur gleichen Zeit, als Morris ihn definierte, in einem rein formallogisdien Sinn, aus dem die Pragmatik ausgeschlossen ist, von H . Hermes verwendet: Semiotik. Eine Theorie der Zeichengestalten als Grundlage für Untersuchungen von formalisierten Sprachen, in: Forschungen zur Logik und zur Grundlegung der exakten Wissenschaften 5, Leipzig 1938.

15

Vgl. dazu die grundlegenden Werke von R. Carnap, Logische Syntax der Sprache, Wien 1934, und: Introduction to Semantics, Cambridge-Mass. 1946. Carnap, Logisdie Syntax, S. 45.

ie

Semantischer Informationsbegriff

31

formalen Logik, so lange diesem Zeichensystem eine extensionale Deutung gegeben wird, das heißt, so lange die Prädikatausdrücke nur als Klassen von Individuen und die Aussagen lediglich als Formeln gedeutet werden, denen kein inhaltlicher Behauptungssatz, sondern nur einer der beiden möglichen Wahrheitswerte, wahr oder falsch, zugeordnet wird. Von dieser bloß extensionalen Semantik ist die intensionale zu unterscheiden, die eigene intensionale Interpretationsregeln aufstellt, welche die Beziehungen der deskriptiven Zeichen zu den Ausdrücken der Objektsprache, die selbst Sinn und Bedeutung 17 haben, regeln. Diese intensionale Semantik hat in der logisdien Syntax keine Entsprechung mehr. Sie ist nicht mehr allein Angelegenheit der reinen formalen Logik, sondern vor allem der Erkenntnistheorie, in der die Probleme der intensionalen Semantik mit der Pragmatik verknüpft sind. So wie es keine Erkenntnistheorie ohne Subjekt gibt, so gibt es auch keine Lehre von der Bedeutung der Zeichen ohne den Benutzer dieser Zeichen. Von diesem erkenntnistheoretischen Standpunkt aus ist daher auch die Einführung eines eigenen Bereichs, der als Ergänzung der bloß formalen extensionalen Semantik gelten könnte, die sich lediglich mit dem Verhältnis von Zeichen als logischen Symbolen und Ausdrücken der Objektsprache als Namen oder Bezeichnungen für eine Klasse von individuellen Dingen beschäftigt, nicht zulässig, wenn dieser Bereich in unproblematischer Weise die Beziehung zwischen Zeichen und Objekten selbst betreffen soll18. Denn gerade diese Beziehung ist das eigentliche Grundproblem der Erkenntnistheorie, das ohne Berücksichtigung des erkenntnistheoretischen Subjekts, des 17

19

Die Fregesdie Unterscheidung von Sinn und Bedeutung, die der Unterscheidung von intensionaler und extensionaler Semantik entspricht, hat sidi nicht durchgesetzt, da die Umgangssprache Sinn und Bedeutung gleichsetzt. Vgl. G. Frege: Sinn und Bedeutung, in: Funktion, Begriff und Bedeutung, Göttingen 1962. Von G. Klaus als „Sigmatik" bezeichnet und im Unterschied zur extensionalen Semantik als eine semiotische Disziplin definiert, die sich mit der „Relation von Zeichen und den Objekten der Widerspiegelung" beschäftigt. Allerdings liefert Klaus zu dieser Definition auch eine legitime erkenntnistheoretische Grundlage. Denn „Widerspiegelung" wird als Begriff der Abstraktionstheorie verstanden, wobei vom realen Bezugssystem, in dem die Widerspiegelung stattfindet, nicht abgesehen werden kann. Vgl. G. Klaus, Semiotik und Erkenntnistheorie, Berlin 1973.

32

2. Die semiotisdie Explikation

Benutzers und Erzeugers der Zeichen, nicht gelöst werden kann. Denn es ist die Tätigkeit des Erkenntnissubjekts als des konkreten „materiellen" Systems, das Informationen aufnimmt und verarbeitet, durch welche diese Beziehung hergestellt wird. Und es handelt sich dabei um den klassischen erkenntnistheoretischen Wahrheitsbegriff der Adäquation des Denkens an den Gegenstand und nicht um den rein formalen Begriff der Wahrheit, der nur eine formale Festsetzung sein kann. Daher ist audi der semantische Wahrheitsbegriff Tarskis ein rein formaler Wahrheitsbegriff der extensionalen Semantik, der allein für künstliche, formalisierte Sprachen gültig ist und keine Lösung der erkenntnistheoretischen Problematik darstellt. Die Theorie der semantischen Information von Bar-Hillel und Carnap ist eine rein formale Explikation des Informationsbegriffs im Sinne der extensionalen Semantik unter Ausklammerung jeglichen Bezugs auf erkenntnistheoretisch-pragmatische Probleme. Sie ist keine syntaktische Theorie der Verknüpfung oder Verarbeitung von Zeichen und Zeichenreihen zu Informationen im Sinne der automatischen Informationsverarbeitung. Sie hat es weder mit der Verarbeitung noch mit der Übertragung von Informationen zu tun, sondern dient vor allem der Klärung eines bestimmten Aspekts des Informationsbegriffs, des Aspekts der definitorischen Klarheit, der weder von der mathematisch-statistischen Kommunikationstheorie noch von der Erkenntnistheorie, der Psychologie oder der Kybernetik in angemessener Weise behandelt werden kann, jedoch überall dort von Relevanz ist, wo semantische Präzisierung im Sinne von Formregeln stattfindet. Das ist in allen Bereichen wissenschaftlicher Information der Fall. D a es im Zusammenhang mit der Explikation des Informationsbegriffs nicht um die formalen Durchführungsmethoden geht, mit Hilfe derer der semantische Informationsbegriff dargestellt werden kann, sondern nur um die systematische Differenzierung der verschiedenen Aspekte des Informationsbegriffs im allgemeinen, soll hier lediglich die zur Shannonschen Theorie unterschiedliche Zielsetzung hervorgehoben und eine allgemeine Charakteristik dieses Unterschieds gegeben werden. Die allgemeine Zielsetzung einer Theorie der semantischen Information haben Bar-Hillel und Carnap selbst in expliziter Abhebung von der Shannonschen Kommunikationstheorie in folgender Weise formuliert: „Die mathematische Theorie der Kommunikation, auf die audi oft als Theorie (der Trans-

Semantisdier Informationsbegriff

33

mission) der Information verwiesen wird, ist, so wie sie heutzutage praktiziert wird, nicht am Gehalt der Symbole, deren Information sie mißt, interessiert. Die Maße, so wie sie zum Beispiel von Shannon definiert werden, haben nichts mit dem, was diese Symbole symbolisieren, sondern nur mit der Frequenz ihres Vorkommens zu tun. Die Wahrscheinlichkeiten, die in den ,definientia' der Definitionen der verschiedenen Begriffe in der Kommunikationstheorie vorkommen, sind gerade diese Häufigkeiten, absolut oder relativ, manchmal vielleicht nur Absdiätzungen dieser Häufigkeiten. Diese absichtliche Beschränkung des Wirkungskreises der statistischen Kommunikationstheorie war von großem heuristischen Wert und ermöglichte es dieser Theorie, wichtige Resultate in einer kurzen Zeit zu erreichen. Unglücklicherweise geschah es jedoch oft, daß ungeduldige Wissenschaftler verschiedener Bereiche die Terminologie und Theoreme der Kommunikationstheorie auf Bereiche anwandten, in denen der Ausdruck .Information' in vorsystematischer Weise in semantischem Sinn, das heißt einem Sinn, der Gehalte oder ,designata' der Symbole mit einbezieht, oder sogar in pragmatischem Sinn, das heißt einem Sinn, der die Benutzer dieser Symbole mit einbezieht, gebraucht wurde. Es kann kein Zweifel darüber bestehen, daß die Erhellung dieser Begriffe der Information eine sehr bedeutende Aufgabe ist. Die Definitionen der Information und der Menge der Information, die in der vorliegenden Kommunikationstheorie gegeben werden, bedeuten jedoch keine Lösung dieser Aufgabe. Das Übertragen dieser Definitionen auf Gebiete, in denen solche semantischen oder pragmatischen Begriffe gebraucht werden, mag bestenfalls einen heuristischen Wert haben, doch schlimmstenfalls ist es absolut i r r e f ü h r e n d . . . Die Gehalte der Symbole werden entscheidend in die Definition der grundsätzlichen Begriffe dieser Theorie einbezogen und eine Anwendung dieser Begriffe und der Theoreme mit Bezug auf Gebiete, die Semantik enthalten, wird damit garantiert. Aber Vorsichtsmaßnahmen werden immer noch zu treffen sein, daß diese Begriffe und Theoreme nicht voreilig auf Gebiete wie Psychologie und andere soziale Wissenschaften angewandt werden, in denen die Benutzer der Symbole eine wesentliche Rolle spielen. Es ist jedoch zu erwarten, daß der semantische Begriff der Information zu einer besseren Annäherung für eine zukünftige Erklärung eines psychologischen Begriffs der Information dienen wird als der Begriff, von dem die Kommunikationstheorie handelt. Die fundamen3

Oeser, Band 2

34

2. Die semiotisdie Explikation

talen Begriffe der Theorie der semantischen Information können in einer einfachen Weise auf der Grundlage der Theorie der induktiven Wahrscheinlichkeit definiert werden." 1 · Gerade die Grundlegung der Theorie der semantischen Information auf dem Begriff der induktiven Wahrscheinlichkeit ermöglicht es, bei der Durchführung dieser Theorie, wie sie von BarHillel und Carnap allerdings nur ansatzweise geliefert wird, ein der statistischen Kommunikationstheorie durchaus entsprechendes Korrelat eines Maßes der semantischen Information aufzustellen. Zu beachten ist freilich in diesem Zusammenhang, daß der induktive Wahrscheinlichkeitsbegriff im Unterschied zum statistischen lediglich von einem rein formal aufgebauten, künstlichen Sprachsystem abhängt, das jeweils als eine „mögliche Zustandsbesdireibung" eines möglichen Universums zu betrachten ist. Wenngleich die Anwendbarkeit einer derartig abstrakten Theorie der Information im formal-semantischen Sinn kaum einsichtig erscheint, gibt dodi eine abschließende Bemerkung der beiden Autoren die Möglichkeit, diese semantische Theorie der Information als ein Teilgebiet der Wissenschaftstheorie, nämlich als eine „negative Heuristik", zu interpretieren. Eine solche „negative Heuristik" kann auf Grund einer rein formalen Präzisierung des Maßes des semantischen Informationsgehalts ein Instrument für die Beurteilung von Hypothesen bezüglich der Schätzung ihres Wahrscheinlichkeitsgrads liefern: „Es entstehen oft Situationen, in denen wir nicht wissen, ob ein bestimmtes Ereignis geschehen ist oder geschehen wird; wir wissen nur, daß genau ein Ereignis aus einer Klasse von sich ausschließenden Ereignissen geschehen ist oder geschehen wird. Die Aussagen, die diese Ereignisse beschreiben, übermitteln jeweils eine gewisse Menge an Information über das verfügbare Beweismittel. Es ist daher sinnvoll, nach einem Durchschnitt der Menge der Information, die durch diese Aussagen übermittelt wird, zu fragen. Wenn sich diese Aussagen auf zukünftige Ereignisse beziehen, so spricht man über die Menge der Information, von der man erwarten kann, daß sie im Durchschnitt übermittelt wird." 20 Die Auffassung der Theorie der semantischen Information als einer metatheoretischen forschungslogischen Grundlage im Sinne einer Planungs- und Testtheorie liegt nicht nur, wie bereits aus" Y. Bar-Hillel - R. Carnap, Semantic Information, in: The British Journal for the Philosophy of Science, Vol. IV, 1954, S. 147 f. ** Ebenda, Semantic Information, S. 153.

Analyse des Informationsgehalts

35

führlich gezeigt wurde, dem Konzept der „induktiven Logik" überhaupt zugrunde, sondern diese Deutung wird von BarHillel und Carnap in diesem Zusammenhang audi ausdrücklich betont: „Es scheint, daß die Theorie der semantisdien Information fruchtbar in verschiedenen Gebieten angewendet werden kann, zum Beispiel in der Theorie der Planung von Experimenten und in der Testtheorie." 21 Es ist aber andererseits klar, daß damit nur die rein formale Seite des wissenschaftlichen Forschungsprozesses berücksichtigt wird, weil auf diese Weise nur ein negatives Auswahlkriterium bei mehreren alternativen Möglichkeiten angegeben werden kann. Eine positive Begründung f ü r die Aufstellung oder Bevorzugung einer Hypothese und die Erstellung einer Versuchsanordnung ist dagegen eine empirisdi-pragmatische Angelegenheit und keine der formalen Logik. Eine Theorie des pragmatischen Informationsbegriffs in der Bedeutung, in der er auch vorwiegend in der Alltagssprache gebraucht wird, läßt sich in allgemeiner Weise nidit darstellen. Dieser pragmatische Informationsbegriff, der in seiner intuitiven Verwendung alle anderen Aspekte mit einschließt, ist der Undefinierte Grundbegriff der Informationstheorie im Sinne ihrer allgemeineren, nidit nur auf das technisdie Übertragungsproblem eingeengten Bedeutung. Aus diesem Grunde hat audi MacKay vorgeschlagen, den Informationsbegriff in seinem alltagsspradilichen Sinn beizubehalten und ihn durch die Explikation der verschiedenen Begriffe von Informations-Gehalt (information-content) nach dem selektiven, strukturellen und metrischen Informationsgehalt zu differenzieren 22 . Der selektive Informationsgehalt wird durch die Shannonsdie Kommunikationstheorie bestimmt. Der strukturelle und metrische Informationsgehalt ist ein Problem der Theorie der wissenschaftlichen Information (theory of scientific information), in der es möglich ist, den pragmatischen Informationsbegriff im Sinne einer operationalen Theorie zu präzisieren, da er auf einen bestimmten Gegenstandsbereich bezogen ist, f ü r dessen objektive Erfassung Gesetze angegeben werden können. Im Unterschied zu Brillouin räumt MacKay der inhaltlichen Bedeutung (meaning) der Information einen Platz in der Informationstheorie ein 28 . Es geht dabei jedoch 21

Ebenda, Semantic Information, S. 156. Vgl. MacKay, Information, Mechanism and Meaning, S. 18. " Vgl. ebenda, Kap. 7: The Place of "Meaning" in the Theory of Information, S. 79 ff. 22

3*

2. Die semiotische Explikation

36

um „Bedeutung" nicht im rein formal-logisdien Sinn der extensionalen Semantik, sondern um „Bedeutung" im Sinne der intensionalen Semantik, deren Informationsgehalt durdi die Nähe oder das Angepaßtsein der Begriffe an die Dinge oder realen Verhältnisse bestimmt ist. Diese erkenntnistheoretische Auffassung des inhaltlichen Informationsgehalts im Sinne von „meaning" wird außerdem noch dadurch verdeutlidit, daß MacKay die Theorie der wissenschaftlichen Information als eine „deskriptive Informationstheorie" von der rein formalen Theorie der semantischen Information abhebt, der er keine eigene, vom übrigen Bereich der Informationstheorie abtrennbare Position zubilligt. Faßt man die Analyse des Informationsgehalts zusammen, so ergibt sich folgendes Schema, das, verglichen mit der semiotischen Explikation des Informationsbegriffs, sowohl Entsprechungen als audi weitergehende Differenzierungen und Unterschiede aufweist: „Information" als Undefinierter Begriff der Alltagssprache

= Kenntnis übet Sachverhalte und Vorgänge slDlislisch-selektim Informalionsgehall (Hartley, Shannon. Wienet)

semontischer Informationsgehalt (Bar-Hillel, Carnap)

= HaB für statistische Wahrscheinlichkeit

= Maß für logische Wahrscheinlichkeil

deskriptiver Informationsgehalt (Maritar) metrischer

struktureller

= a posteriori

= o priori

Die informationstheoretische Umkonstruktion der Erkenntnisund Wissenschaftstheorie muß alle diese Differenzierungen berücksichtigen, da diese beiden Disziplinen alle Bereiche möglicher Interpretationen des „Informationsgehaltes" erfassen. Die Analyse des „deskriptiven Informationsgehaltes" wissenschaftlicher Erkenntnis, wie sie MacKay geliefert hat, bildet bereits einen Bestandteil einer informationstheoretischen Auffassung der Wissenschaftstheorie, wie sie im dritten Band der vorliegenden Arbeit dargestellt werden soll. Damit wird eine Möglichkeit eröffnet, den an und für sich stets subjektiv blei-

Der Systembegriff

37

benden pragmatischen Aspekt des Informationsgehalts oder Informationswertes (value), der immer an den Benutzer der Information gebunden ist, zu präzisieren und zu verobjektivieren. Denn wissenschaftliche Erkenntnis will „objektive Erkenntnis" sein. „Objektivität" der Erkenntnis bedeutet aber nicht die Eliminierung des konkreten erkennenden Subjekts, denn wissenschaftliche Hypothesen und Theorien sind stets Produkte der Tätigkeit eines konkreten realen Erkenntnissubjekts, sondern „Objektivität" kann nur Allgemeingültigkeit, Intersubjektivität oder bestenfalls Transsubjektivität bedeuten. Sie kann nicht durch metaphysische Hypostasierung eines neuen Seinsbereichs, einer Welt der objektiven Probleme und Problemlösungen24, sondern allein durch die Verobjektivierung des erkenntnistheoretischen Subjekts erreicht werden. Eine derartige Verobjektivierung des Erkenntnissubjekts und seiner Tätigkeit, des Erkenntnisprozesses, war seit jeher das eigentliche Ziel der Erkenntnistheorie in allen ihren historischen Formen und Extrempositionen. Die informationstheoretisdie Auffassung des Erkenntnisprozesses bietet nun eine in vielen Ansätzen in der Geschichte der Erkenntnistheorie vorausgeahnte Möglichkeit der Verobjektivierung, die den Vorteil einer allgemeinen, interdisziplinären Terminologie besitzt. Damit wird audi die ebenfalls verobjektivierende Betrachtungsweise erfahrungswissensdiaftlicher Untersuchungen des Erkenntnisprozesses im Bereich der Biologie, Psychologie und in indirekter Weise audi im Bereich der Nachrichtentechnik und Automatentheorie mit der Erkenntnistheorie korrelierbar. Denn in allen diesen Bereichen beruht die Verobjektivierbarkeit der Erkenntnis auf der Möglidikeit, Informationsprozesse als Systemverhalten zu interpretieren.

3. Der Informationsprozeß als Systemverhalten Von allen jenen allgemeinen Betrachtungsweisen, die im Zusammenhang mit der Behandlung des Problems der Verarbeitung, Speicherung und Übertragung von Information aufgetreten sind, ist die Systemtheorie die umfassendste, grundlegendste und älteste. Eine begriffsgeschichtliche Analyse des System" Vgl. K. Popper, Objektive Erkenntnis, Hamburg 1973, S. 172 ff.

Der Systembegriff

37

benden pragmatischen Aspekt des Informationsgehalts oder Informationswertes (value), der immer an den Benutzer der Information gebunden ist, zu präzisieren und zu verobjektivieren. Denn wissenschaftliche Erkenntnis will „objektive Erkenntnis" sein. „Objektivität" der Erkenntnis bedeutet aber nicht die Eliminierung des konkreten erkennenden Subjekts, denn wissenschaftliche Hypothesen und Theorien sind stets Produkte der Tätigkeit eines konkreten realen Erkenntnissubjekts, sondern „Objektivität" kann nur Allgemeingültigkeit, Intersubjektivität oder bestenfalls Transsubjektivität bedeuten. Sie kann nicht durch metaphysische Hypostasierung eines neuen Seinsbereichs, einer Welt der objektiven Probleme und Problemlösungen24, sondern allein durch die Verobjektivierung des erkenntnistheoretischen Subjekts erreicht werden. Eine derartige Verobjektivierung des Erkenntnissubjekts und seiner Tätigkeit, des Erkenntnisprozesses, war seit jeher das eigentliche Ziel der Erkenntnistheorie in allen ihren historischen Formen und Extrempositionen. Die informationstheoretisdie Auffassung des Erkenntnisprozesses bietet nun eine in vielen Ansätzen in der Geschichte der Erkenntnistheorie vorausgeahnte Möglichkeit der Verobjektivierung, die den Vorteil einer allgemeinen, interdisziplinären Terminologie besitzt. Damit wird audi die ebenfalls verobjektivierende Betrachtungsweise erfahrungswissensdiaftlicher Untersuchungen des Erkenntnisprozesses im Bereich der Biologie, Psychologie und in indirekter Weise audi im Bereich der Nachrichtentechnik und Automatentheorie mit der Erkenntnistheorie korrelierbar. Denn in allen diesen Bereichen beruht die Verobjektivierbarkeit der Erkenntnis auf der Möglidikeit, Informationsprozesse als Systemverhalten zu interpretieren.

3. Der Informationsprozeß als Systemverhalten Von allen jenen allgemeinen Betrachtungsweisen, die im Zusammenhang mit der Behandlung des Problems der Verarbeitung, Speicherung und Übertragung von Information aufgetreten sind, ist die Systemtheorie die umfassendste, grundlegendste und älteste. Eine begriffsgeschichtliche Analyse des System" Vgl. K. Popper, Objektive Erkenntnis, Hamburg 1973, S. 172 ff.

38

3. Der Informationsprozeß als Systemverhalten

begriffs 1 reicht ebenso weit zurüdt wie diejenige des Informationsbegriffs. Während jedodi der Informationsbegriff immer nur als ein abstrakter, erkenntnistheoretisdier Begriff mit dem logisdien Status eines Metaprädikats verstanden werden konnte, ist der Systembegriff von Anfang an sowohl auf materielle, reale Systeme als auch auf abstrakte Gebilde anwendbar gewesen. Die Etymologie dieses aus dem Griediisdien stammenden Wortes bedarf keiner besonderen Untersuchung, denn sie ist ohne weiteres aus der Ableitung des Wortes σύστημα von συνίστημι verständlich, aus der auch die ursprüngliche Bedeutung von „System" als das „Zusammengesetzte" oder das „Gebilde" resultiert. In dieser Grundbedeutung wurde der Systembegriff bei vielen antiken Autoren verwendet. Wahrscheinlich ist er in medizinisch-biologischem Zusammenhang, nämlich im Corpus Hippocraticum, zum ersten Mal überhaupt aufgetaucht 2 . Aristoteles überträgt den Systembegriff, den Piaton bereits im politisch-gesellschaftlichen Bereich gebraucht hat 8 , auch auf den Menschen: „Was nun vom Staate wie von jedem anderen zusammengesetzten Gebilde (σύστημα) gilt, nämlich daß das, was an ihm den wesentlichen Kern ausmacht, ihn im vollsten Sinne darstellt, das gilt ebenso auch vom einzelnen Menschen."4 In dieser Verwendung des Systembegriffs durch Aristoteles ist bereits jene präzisierte Bedeutung erreicht, die über den allgemeinen, gewöhnlichen Sprachgebrauch hinausgeht. System ist dann nicht mehr nur irgendein zusammengesetztes Gebilde, bei dem die Art und Weise des Zusammengesetztseins keine Rolle spielt, sondern System bedeutet ein Gebilde, dessen einzelne Teile durch eine bestimmte Ordnung des Zusammengesetztseins ein Ganzes bilden. In diesem Sinne kann der ganze Kosmos als ein einziges System oder ein System von 1

2 s

4

Vgl. A. von der Stein, Der Systembegriff in seiner geschichtlichen Entwicklung, in: System und Klassifikation in Wissenschaft und Dokumentation, hrsg. von A. Diemer, Meisenheim a. Gl. 1968, S. 1 ff. Vgl. ebenda, S. 2. Ζ. B. als Bezeichnung für das Bündnis der drei Dorerstaaten. Vgl. Nomoi 686 b. Vgl. Stein, Der Systembegriff in seiner geschichtlichen Entwicklung, S. 3. Aristoteles, Nikomadiische Ethik, übersetzt von A. Lasson 1909, S. 206. Vgl. Stein, Der Systembegriff in seiner geschichtlichen Entwicklung, S. 3.

Der Systembegriff

39

Systemen verstanden werden. So haben sdion Aristoteles und die Stoiker, vor allem aber die großen Astronomen der Neuzeit das Weltall als Systema mundi aufgefaßt. Ptolemaios und die griechischen Astronomen hatten außer dem Wort σύστημα noch andere inhaltsgleiche Ausdrücke der griechischen Sprache zur Verfügung. So enthält das Hauptwerk des Ptolemaios im griechischen Titel das Wort σύνταξις (Zusammenstellung), dem später die Bezeichnung μεγάλη (große) hinzugefügt wurde, aus deren Steigerung später die arabische Verstümmelung „Almagest" hervorging 5 . Damit wird bereits der doppeldeutige Charakter des Systembegriffs sichtbar, der einerseits das materielle Gebilde, andererseits das systematische Wissen über dieses Gebilde im Sinne eines Abbildes meint. Martianus Capeila, der durch seine Wiederaufnahme der ägyptischen Hypothese des Sonnensystems als ein Vorläufer des Copernicus zu betrachten ist, hat den Systembegriff auch ausdrücklich in der Musiktheorie verwendet 8 , womit er der antiken griechischen Tradition folgt. Alle diese Aspekte des Systembegriffs hat Johannes Kepler in seiner Harmonice mundi vereinigt 7 . In seinem System der Welt, das er nodi im antiken Sinn im Gegensatz zu Giordano Bruno als geschlossene, von der Fixsternsphäre begrenzte Kugel ansieht, sind die Vorstellungen von der Welt als belebtem Organismus (anima mundi) und als Maschine (machina mundi) austauschbare Begriffe, denn der Wirkungszusammenhang, der alle Elemente der Welt verbindet, ist für ihn der gleiche. Dieser Wirkungszusammenhang beherrscht als eine ewige, prästabilierte Harmonie den Gesamtbereich des Wirklichen, und er ist auch, wie Kepler in seinem Marswerk betont, der Grund für die Erkennbarkeit der Welt: „Die göttliche Stimme, die die Menschen zu astronomischen Forschungen auffordert, ist in Wahrheit in der Welt selbst deutlich zu vernehmen, nicht mit Worten und Silben, sondern durch die Tatsachen 5

β

7

Vgl. Ptolemäus, Handbuch der Astronomie, übersetzt von K. Manitius, Leipzig 1912, S. IV. Vgl. E. Oeser, Copernicus und die ägyptische Hypothese, in: Phil. Nat. Bd. 14, 1973, S. 276 ff. Martianus Capella, De nuptiis Philologiae et Mercurii IX, 954. Vgl. Stein, Der Systembegriff in seiner geschiditlidien Entwicklung, S. 6. Vgl. E. Oeser, Kepler. Die Entstehung der neuzeitlichen Wissenschaft, Göttingen 1971, und: Die philosophische Bedeutung der Weltharmonik Keplers, in: Phil. Nat. Bd. 13, 1971, S. 98 ff.

40

3. Der Informationsprozeß als Systemverhalten

selbst und die Verwandtschaft des menschlichen Verstandes und der Sinne mit der Gliederung der Himmelskörper und ihrer Zustände." 8 Gegenüber dieser Auffassung des Systembegriffs, wie ihn Kepler und auch noch Newton, der den das System zusammenhaltenden Wirkungszusammenhang, die Gravitation, audi als Lebenskraft 9 interpretiert, vertreten haben, bedeutet die spätere Verwendung des Begriffs in der Astronomie eine mechanistisch-deterministische Einschränkung. Bei Laplace ist das „système du monde" durch eine absolut determinierende Gesetzmäßigkeit bestimmt. Der Grund, warum dieses System der Welt nicht vollständig im abstrakten System der Wissenschaft von der Mechanik des Himmels abbildbar ist, liegt nach Laplace lediglich in einem Mangel an Information. Einem allwissenden Geist, das heißt einem vollständig informierten Beobachter, würden jedoch „Zukunft und Vergangenheit offen vor Augen liegen" 10 . Denselben Charakter des Ungeschichtlichen und Starren erhält der Systembegriff auch in abstrakt mathematisch-logischen Kontexten. Als ein solcher ist er bereits bei den Stoikern aufgetreten, nämlich als „Inbegriff" der Glieder eines logischen Schlusses11. Zumindest aber seit Chr. Wolff wird „System" ausdrücklich als ein deduktiver, formal korrekter Ableitungszusammenhang verstanden. Dieser axiomatisch-deduktive Systembegriff liegt auch der Feststellung Freges zugrunde, daß nämlidi zwischen Geschichte und System der Wissenschaft streng zu unterscheiden sei, weil der Mensch es in der Geschichte mit Entwicklung zu tun habe, im System aber mit Starrheit. In seiner abstrakt-logischen Bedeutung ist damit der Systembegriff ausschließlich auf den starren Strukturzusammenhang reduziert, der keine Veränderung, keine Bewegung in Raum und Zeit, kennt. Ein entwicklungsgeschichtlich älteres Korrelat zu diesem Systembegriff im Bereich der materiellen, realen Systeme bildet sowohl die Ptolemäische als audi die Copernikanische Planetengeometrie. Denn Ptolemaios und Copernicus haben beide an dem Dogma der kreisförmigen, konstant bleibenden 8

Vgl. Oeser, Kepler, S. 103. • Vgl. I. Newton, Philosophiae naturalis principia mathematica, Sdiolium generale. 10 P. S. de Laplace, Essai philosophique de probabilité, Paris 1840, S. 4. 11 Sextus Empiricus, Pyrrhoneioi Hyporyposeis II, 173. Vgl. Stein, Der Systembegriff in seiner gesdiiditlidien Entwicklung, S. 5.

Der Systembegriff

41

Bewegung festgehalten. Eine in sich selbst zurückkehrende Bewegung, die keine Veränderung in der Geschwindigkeit aufweist, ist jedoch überhaupt keine Bewegung. Nidit nur der Systembegriff der antiken Astronomie, sondern audi der formallogische Systembegriff der Neuzeit sowie derjenige der Gegenwart, soweit er noch an Hilberts Grundlegungsversuch des axiomatisch-deduktiven Systems orientiert ist, haben ihr Vorbild in den reinen Strukturzusammenhängen der euklidischen Geometrie. Während bei der Verwendung des abstrakten Systembegriffs in mathematisch-logischen Zusammenhängen die charakteristische Eigenschaft der Starrheit des Strukturzusammenhangs notwendig erhalten bleiben muß, ist sie in der Behandlung der realen Systeme physikalischer und biologischer Art wieder verloren gegangen. Ausgangspunkt dieser neuen, nicht mehr auf starre Strukturzusammenhänge gegründeten Konzeption des Systembegriffs ist eine Veränderung in der physikalischen Grundlagentheorie, in der Mechanik, gewesen. Diese Veränderung hat sich zuerst in der Wärmelehre vollzogen und zu einer statistischen Auffassung der Mechanik geführt. Es ist bekanntlich Ludwig Boltzmann gewesen, der die statistische Methode in diesem Bereich eingeführt hat, welcher dann, unabhängig von Boltzmann, von Willard Gibbs systematisch und explizit zur statistischen Mechanik ausgearbeitet worden ist12. Diese statistische Auffassung der Mechanik ist insofern von prinzipieller erkenntnistheoretischer Relevanz, als Boltzmann, wenn er, wie noch ausführlich dargestellt werden soll, von einem „Mechanismus" der Erkenntnis spricht, von der statistischen Mechanik und nicht von der klassischen deterministischen Mechanik ausgeht 13 . Die entscheidende Veränderung, die in dieser neuen Methode für die Mechanik liegt, ist nicht so sehr durch das statistische Verfahren selbst, als vielmehr durch die Art und Weise seiner Verwendung bestimmt. In der statistischen Mechanik wird nicht die Häufigkeit der Atome bestimmter Energie in einem System berechnet, sondern die Häufigkeit von Systemen bestimmter räumlicher Verteilung und Energieverteilung in einem Ensemble. Berechnungen über Flüssigkeiten und FestVgl. E. Broda, Ludwig Boltzmann — Mensch, Physiker, Philosoph, Wien 1955, S. 62 ff. " Vgl. L. Boltzmann, Populäre Schriften, Leipzig 1905.

42

3. Der Informationsprozeß als Systemverhalten

körper, bei denen die Atome in intensiver Wechselwirkung stehen, sind oft überhaupt nur noch in diesem Verfahren der statistischen Mechanik möglich14. Dadurch wird ein wesentlicher erkenntnistheoretischer Unterschied zur klassischen Mechanik sichtbar: Während die klassische Mechanik von den Elementen ausgeht — Massenpunkte in der Newtonschen Mechanik, Atome in der Gaskinetik —, um von daher den „Zustand" eines realen Systems als Strukturzusammenhang zu erkennen, wird im Rahmen der statistischen Mechanik theoretisch von einer Vielheit von möglichen Systemen ausgegangen, deren Häufigkeitsverteilung das reale System bestimmt. Obwohl Boltzmann ein überzeugter Anhänger der Atomistik gewesen ist, hat er nicht die statistische Analyse der Elemente eines Systems zur Grundlage seiner Überlegungen gemacht, sondern er hat vielmehr einen systemtheoretischen Standpunkt im heutigen Sinn eingenommen, was erkenntnistheoretisch dadurch zur Geltung kommt, daß er die Vorrangigkeit der Theorie gegenüber der empirischen, experimentellen Erfahrung betont. Die dynamische Funktion der Theorie im wissenschaftlichen Erkenntnisprozeß wird von ihm dadurch hervorgehoben, daß er die Theorie als den „Leitstern" aller Erfahrungserkenntnis und zugleich als deren Vollendung bezeichnet. Sie ist für ihn die „Ausführung dessen im großen, was sich bei der Bildung jeder Vorstellung im kleinen in uns vollzieht" , s . Boltzmann ist auch der erste gewesen, der darauf aufmerksam gemacht hat, daß die Wiedererkennbarkeit eines individuellen Teilchens keine Selbstverständlichkeit ist18, sondern von der Gesetzmäßigkeit innerhalb eines Systemzusammenhangs abhängt. Boltzmanns Verfahren, mit den Mitteln der Statistik die Gleichgewichtsverteilung eines Systems zu berechnen, hat zu einer „statistischen Statik" geführt, die eine neue Art von Dynamik, eine „statistische Dynamik", ermöglicht, deren Grundgesetze der älteren analytischen Mechanik starrer Körper fremd waren. Nadi Boltzmann ist die Gleidigewichtsverteilung, deren Berechnung ein Problem der statistischen Statik 14 15

16

Vgl. Broda, Ludwig Boltzmann, S. 63. Vgl. L. Boltzmann, Über die Bedeutung von Theorien, in: Populäre Schriften, S. 77. Vgl. Broda, Ludwig Boltzmann, S. 64 und die auf S. 65 abgedruckte briefliche Mitteilung Sdirödingers an den Autor: „Niemand hat vor Boltzmann für nötig gehalten zu definieren, was man unter demselben materiellen Punkt versteht."

Der Systembegriff

43

ist, der wahrscheinlichste Zustand. Die statistische Dynamik beschäftigt sich mit der Berechnung des Übergangs eines »Ungleichgewichts" in ein Gleichgewicht. Ein soldier Übergang ist ein Übergang von einem weniger wahrscheinlichen Zustand in den Zustand größter Wahrscheinlichkeit. Dieser Vorgang ist prinzipiell nicht umkehrbar. Diese neue Auffassung der Mechanik ist, wie Schrödinger auf Grund der Boltzmannsdien Überlegungen ausgeführt hat, dem biologischen Systembegriff keineswegs fremd. Die alte Mechanik der starren Körper und Massenpunkte hat nur Systeme als zeitlose, in sich zurückkehrende „Kreisprozesse" beschreiben können. Die Irreversibilität der Zustandsveränderungen, die in der neuen, statistischen Mechanik berechnet werden, ergibt dagegen auch die Möglichkeit, physikalische und biologische Systeme wieder unter einem einheitlichen dynamischen Aspekt zu betrachten. Boltzmann hat selbst darauf hingewiesen, daß auch der Kampf der Lebewesen gegen den Tod nichts anderes ist als ein Kampf gegen den irreversiblen Prozeß des Übergangs vom unwahrscheinlichen zum wahrscheinlicheren Zustand. Jedes System hat einen Ordnungszusammenhang, und als solches ist es ein zeitlich bestimmbares und begrenzbares dynamisches Gebilde, das zu existieren aufhört, wenn es diese Ordnung durch irreversible Vorgänge verliert. Die Ordnung eines realen Systems ist daher nicht ein zeitloser Strukturzusammenhang, sondern ein dynamischer, einseitig gerichteter Wirkungszusammenhang: „Boltzmann hat nun durch den berühmtesten seiner Lehrsätze, das sogenannte Η-Theorem, die logische und quantitative Verbindung zwischen der Einseitigkeit der Thermodynamik und der Einseitigkeit der statistischen Mechanik hergestellt. Er fand eine eindeutige Beziehung zwischen der Entropie, die die Einseitigkeit der Makro-Welt kennzeichnet, und der Wahrscheinlichkeit, die die Einseitigkeit der Mikro-Welt kennzeichnet." 17 Damit verlieren auch die Gesetze der klassischen, deterministischen Physik und Astronomie ihren absoluten Charakter; sie werden zu statistischen Gesetzen, die letzten Endes „auf der statistisch faßbaren Tendenz der Materie, in Unordnung überzugehen, beruhen" 18 . Während die dieser Ansicht zugrundeliegende Regel, der berühmte zweite Satz der Thermodynamik (das Entropieprinzip), 17 18

Vgl. Broda, Ludwig Boltzmann, S. 71. A. Sdirödinger, Was ist Leben, 2. Aufl., München 1951, S. 97.

44

3. Der Informationsprozeß als Systemverhalten

bereits bei Clausius zu Spekulationen über die zukünftige Entwicklung des Weltalls im Sinne des Wärmetods geführt hat, hat sich Boltzmann gerade auf Grund seiner statistischen Auffassung von dieser „abgeschmackten Annahme" distanzieren können. Sie spielt auch bei Schrödinger keine Rolle, dem es ja in diesem Zusammenhang vor allem darum geht, „die Auswirkung des Entropieprinzips auf das großmaßstäbliche Verhalten eines lebenden Organismus" 19 darzustellen. Bedeutete die statistische Mechanik bereits einen ersten Schritt hin zur Aufhebung des Systembegriffs als eines starren, zeitlosen Strukturzusammenhangs, der auf Zustandsveränderungen im Sinne von geschichtlicher Entwicklung nicht anwendbar ist, so wurde die eigentliche Neuformulierung des Systembegriffs vor allem in der Biologie getroffen. Es ist jedoch kein Zufall, daß die Idee einer „allgemeinen Systemtheorie" durch einen Biologen ausgeführt worden ist. L. von Bertalanffy hat selbst darauf hingewiesen, daß die Idee einer „allgemeinen Systemtheorie", wie er sie selbst als interdisziplinäre Betrachtungsweise einzuführen versuchte, älter ist als die Kybernetik Wieners, als Shannons und Weavers Kommunikationstheorie und auch als von Neumanns und Morgensterns Spieltheorie. Während alle diese Arbeiten in den Jahren nach dem letzten Weltkrieg veröffentlidit worden (1947 bis 1949) und gleichsam als Produkte der Kriegstechnik anzusehen sind, ist die Systemtheorie von allen militärisch-technischen Anwendungen völlig abtrennbar 20 . Bertalanffy hat vielmehr die Forderung nach einer allgemeinen Systemtheorie, nach seinen eigenen Angaben 21 , zuerst im Jahre 1938 in Vorlesungen an der Universität Chicago erhoben, sie aber erst nach dem Kriege (1947) publiziert. Der Ausgangspunkt der allgemeinen Systemtheorie liegt jedoch noch weiter zurück, und zwar in einer „organismischen Auffassung der Biologie"22, als deren 18 20

21

22

Ebenda, S. 98. Vgl. L. v. Bertalanffy, General Systems Theory. Foundations, Development, Applications, New York 1968, Introduction. Vgl. L. v. Bertalanffy, Allgemeine Systemtheorie und die Einheit der Wissenschaften, in: Atti de XII Congresso Internazionale di Filosofia (Venezia 12.—18. Settembre 1958), Firenze 1960, Voi. 5, S. 58. L. v. Bertalanffy, Biologische Gesetzlichkeit im Lichte der organischen Auffassung, in: Trav. IX e Congrès Intern, de Philosophie, Paris 1937, VII, S. 158.

Systemtheorie

45

Weiterentwicklung und Verallgemeinerung sie nach Bertalanffy zu verstehen ist. Die allgemeine Systemtheorie hat bei Bertalanffy einen doppeldeutigen Charakter. Sie ist zunächst der Versuch, ein einheitlidies Weltbild zu liefern, das „auf der Isomorphic der Gesetzmäßigkeiten und Schichten der Wirklichkeit beruht" 23 . In diesem Sinne ist sie eine induktive Verallgemeinerung aller erfahrungswissenschaftlichen Erkenntnis über das „System der Natur", das selbst aus mehreren Systemen besteht, die wiederum kleinere Systeme in sich enthalten. Wenn Bertalanffy diese Auffassung bereits in der Schichtenlehre Nicolai Hartmanns 24 vorgebildet sieht, dann wird deutlich, daß es sich bei diesem Aspekt der Systemtheorie um ein ontologisdies Konzept handelt. Wissenschaftstheoretisch gesehen hat diese Auffassung der Systemtheorie jedoch bestenfalls heuristischen Wert, da sie zur eigentlichen und grundsätzlicheren Bedeutung der Systemtheorie als eines metatheoretischen Konzepts führt. In dieser abstrakten Bedeutung der Systemtheorie hat sidti jedoch die Problemstellung grundlegend geändert: Es geht nicht mehr um die induktive Verallgemeinerung erfahrungswissensdiaftlidier Erkenntnis zu einem einheitlichen Weltbild, nicht mehr um das „System der Natur", sondern um die „Natur der Systeme"2*, das heißt um die erkenntnistheoretische, logische und wissensdiaftstheoretische Explikation des Systembegriffs. Erst in diesem Sinn kann die Systemtheorie jenen Rang einnehmen, den ihr Bertalanffy zubilligt, wenn er in ihr alle interdisziplinären

25

24

25

Vgl. Bertalanffy, Allgemeine Systemtheorie und die Einheit der Wissenschaften, S. 59. Vgl. L. v. Bertalanffy, Das biologische Weltbild, Bern 1949, S. 183. Audi K. Lorenz beruft sich in seinen systemtheoretischen Überlegungen auf N . Hartmann, der mit dieser Auffassung unbegründete Einheitsspekulationen sowohl im Sinne des mechanistischen Reduktionismus als audi des vitalistischen Panpsydiismus vermeidet. Andererseits erkennt jedoch Lorenz, daß die Sdiichtenontologie Hartmanns nur ein statisches Modell des Systems der Natur ist, das der evolutionistisdien Betrachtungsweise fremd ist. Vgl. K. Lorenz, Die Rückseite des Spiegels, Versuch einer Naturgeschichte des menschlichen Erkennens, München-Zürich 1973. Diese Doppeldeutigkeit des Systembegriffs in seinem materiellrealen sowie in seinem formal-abstrakten Sinn wurde auch von P. Weiss in seinem Wiener Vortrag am 13. Juni 1974 „Das System der Natur und die Natur der Systeme" besonders betont.

46

3. Der Informationsprozeß als Systemverhalten

Betrachtungsweisen, wie Informationstheorie, Kybernetik und Spieltheorie, integriert sieht. Der Unterschied der Systemtheorie als eines metatheoretischen Konzepts zu allen anderen abstrakt-formalen Analysen des Systembegriffs besteht darin, daß es sich bei der Systemtheorie um eine operationale Theorie handelt, in der nur solche formale Strukturzusammenhänge berücksichtigt werden, die als Modelle realer Systeme interpretiert und als Analogiemodelle untereinander verwendet werden können. Diese operationale Anwendbarkeit der Systemtheorie beruht aber zum Teil auf ihrer „induktiven" Entstehungsweise. Denn sie ist, wie im folgenden gezeigt werden soll, ein verallgemeinertes Abstraktionsprodukt aus der tatsächlichen erfahrungswissenschaftlichen Erkenntnis mit dem Ziel, trotz Vereinheitlichung den fadispezifisdien Methodenpluralismus zu bewahren. Bertalanffy hat die Idee einer allgemeinen Systemtheorie ausdrücklich als eine Alternative zu der im Wiener Kreis vertretenen Idee der „Einheitswissenschaft" verstanden, die auf einer mechanistischen Reduktionslehre basiert. Die Einheit der Wissensdiaft im Sinne der allgemeinen Systemtheorie ist dagegen, wie der Name bereits besagt, induktive oder genauer kumulative Verallgemeinerung. Bertalanffy vermeidet eine Identifizierung seiner Auffassung mit den „biologistischen" Auffassungen des Vitalismus (Driesch) und Holismus (Smuts, Mayer-Abich), die er als naturphilosophisdie Spekulation ablehnt 26 . Die „organismische" Betrachtungsweise sieht er vielmehr in völlig adäquater Weise durch Schrödinger vertreten; und zwar durch dessen Ansicht, „daß die lebende Materie wahrscheinlich bisher unbekannte andere physikalische Gesetze in sich birgt, weldie jedoch, wenn sie einmal offenbar geworden sind, einen ebenso integrierenden Teil dieser Wissensdiaft bilden werden wie die ersteren" 27 . Wenn Schrödinger die audi von der statistischen Interpretation der physikalischen Gesetzmäßigkeiten her gesehene rätselhafte Stabilität des lebendigen Organismus auf den „Kunstgriff" des Organismus zurückführt, fortwährend Ordnung aus seiner Umwelt aufzusaugen 28 , dann hat er damit jenen Aspekt 28 27

28

Bertalanffy, Das biologische Weltbild, S. 185. Zitierung Schrödingers (1946) durch Bertalanffy, in: Das biologische Weltbild, S. 171. Vgl. Schrödinger, Was ist Leben, S. 104. Und vgl. E. Oeser, System, Klassifikation, Evolution, Wien-Stuttgart 1974, S. 123.

Systemtheorie

47

ausgesprochen, der die organismische Systemtheorie von der klassischen Auffassung des Systembegriiis am deutlichsten unterscheidet: Während es sich früher bei der Verwendung des SystembegrifFs in den verschiedensten Bereichen der Wissenschaften bis ins 19. Jahrhundert hinein fast ausschließlich nur um eine Theorie der geschlossenen Systeme handelte 29 , wird die allgemeine Systemtheorie nach Bertalanffy primär als eine „Theorie der offenen Systeme" betrachtet. Die Auffassung der Organismen als offener Systeme erweitert die systemtheoretische Betrachtungsweise. Sie bildet nicht nur die Grundlage einer physiologischen Interpretation des Organismus als eines dynamischen Fließgleichgewichts, sondern führt zu einer „dynamischen Morphologie", die es zuläßt, auch die „Evolution des Lebendigen als System zu verstehen" 80 . Damit ist jedoch ein entscheidender Schritt getan. Denn die Evolutionstheorie umfaßt nicht nur den vormenschlidien Bereich der lebendigen Systeme, sondern schließt den Menschen als natürliches System in die Erklärung mit ein. Auf diese Weise verschwindet auch die Unanwendbarkeit des naturwissenschaftlichen Systembegriffs auf den Menschen, der im 18. Jahrhundert, als de la Mettrie seine berüchtigte These, daß nämlich Menschen „im Grunde genommen nur senkrecht in die Höhe gereckte Tiere und Maschinen sind" 31 , formulierte, noch unauflöslich mit einer mechanistisch-materialistischen Weltanschauung belastet war. Eine „Theorie der Systembedingungen der Evolution" dagegen ermöglicht es, das System „Mensch" sowohl in seiner physikalisch-chemisch-biologisch analysierbaren materiellen Beschaffenheit zu verstehen als auch sein Verhalten zu begreifen, ohne dabei kurzschlüssige Gleichsetzungen zu vollziehen oder in bloß vagen Analogien verbleiben zu müssen. M

30

1,1

Eine Ausnahme bildet vielleicht Joh. Heinrich Lambert, der in seinen Fragmenten zur „Theorie des Systems", von ihm audi „Systematologie" genannt, bereits von Systemen mit „Beharrungsstand" und „Gleichgewicht" spricht sowie von „wechselseitiger Abhängigkeit" von Systemen untereinander. Vgl. Logische und philosophische Abhandlungen, hrsg. von J. Bernoulli, Bd. 2, Berlin-Leipzig 1787, S. 385—413. Wiederabdruck in: System und Klassifikation in Wissenschaft und Dokumentation, hrsg. von A. Diemer, S. 165 ff. R. Riedl, Die Ordnung des Lebendigen, Systembedingungen der Evolution, Hamburg-Berlin 1975. Vgl. J. O. de la Mettrie, Der Mensch eine Maschine, Leipzig 1875,

48

3. Der Informationsprozeß als Systemverhalten

Dadurch gewinnen audi die Ergebnisse der biologischen Verhaltensforschung eine entscheidende Bedeutung für die Analyse des menschlichen Erkenntnisprozesses als eines Systemverhaltens, das somit keineswegs mehr ein gänzlich unbekanntes Problem darstellt, sondern in den „ratiomorphen" Verhaltensstrukturen der Lebewesen im vormenschlichen Bereich ein Korrelat hat 32 . Der eigentliche Sinn einer „evolutionären Erkenntnistheorie" besteht daher nicht im Aufweis von selbstverständlichen Ähnlichkeiten im Bereich der Wahrnehmungserkenntnis, wie sie durch sinnesphysiologische Untersuchungen bereits im 19. Jahrhundert eruiert worden sind, sondern in der Erklärung des rationalen Verhaltens des Menschen durch den Mechanismus der Evolution, der auf Selektion und Mutation beruht. Audi das rationale Verhalten des Menschen in allen seinen Formen, als Erkennen, Lernen, Denken oder auch als Wissenschaft, ist ein Auswahl- und Entscheidungsprozeß, der nach bestimmten Mustern oder Strukturen abläuft, die selbst wiederum das Ergebnis eines langen phylogenetischen Entwicklungsprozesses sind. Mit Recht kann diese evolutionstheoretisch begründete Auffassung des erkennenden Verhaltens als die einzig mögliche empirische Erklärung für das alte Rätsel und Grundproblem der Erkenntnistheorie gelten: nämlich für die Frage, warum unsere Erkenntnis der Wirklichkeit entspricht 3 '. Erkenntnis kann dabei gedeutet werden als Anpassung der Lebewesen an ihre Umwelt, und Unangepaßtheit bedeutet dann den Tod und Irrtum die Ausmerzung des irrenden Individuums. Die Erkenntnistheorie, die in diesem empirischen Argument eine Stütze, aber keine Lösung findet, muß das Problem auf einer anderen Ebene der Abstraktion behandeln. Auf dieser Ebene fällt die Systemtheorie der Biologen mit der Informationstheorie der Techniker zusammen. Bereits BertalanfFy hat daher die Kybernetik als ein Teilgebiet der Systemtheorie betrachten können. In dieser allgemeinen Bedeutung wird nun die Systemtheorie zu einer metatheoretischen Konzeption, die 3!

35

Diese Auffassung wurde in der Verhaltensforschung durch K. Lorenz, in der Evolutionstheorie durch R. Riedl in unabhängiger, aber völlig übereinstimmender Weise begründet und systematisch dargestellt. Vgl. Lorenz, Die Rückseite des Spiegels, und Riedl, Die Ordnung des Lebendigen, S. 285 und S. 331 ff. Vgl. Riedl, Die Ordnung des Lebendigen, S. 331 ff.

Systemtheorie

49

sich auf derselben abstrakten Stufe befindet wie Erkenntnistheorie, Logik und Wissenschaftstheorie. BertalanfFy sieht daher in der Systejntheorie einen ersten Schritt zur Mathesis universalis, von der Leibniz träumte: einen ersten Schritt zum umfassenden und die verschiedenen Wissenschaften einschließenden Zeichensystem34. Im Unterschied zur formalen Logik, die infolge des ihr zugrundeliegenden Systembegriffs nur statische Verhältnisse in Strukturzusammenhängen abbilden kann, vermag die Systemtheorie dynamische Prozesse und Veränderungen als bloße Folgerungen aus dem formalen Charakter eines Systems abzubilden. Als operationale Theorie muß die Systemtheorie jedoch, wie bereits angedeutet, zwei grundsätzliche Bedingungen erfüllen: 1. Die formalen Strukturzusammenhänge, die in ihr als Bedingungen des Systems betrachtet werden, müssen als Modelle realer Systeme interpretiert werden können. 2. Diese Modelle wiederum müssen sich zueinander auf Grund ihrer nomologischen Isomorphic, das heißt ihrer gleichartigen Gesetzmäßigkeit, wie Analogiemodelle verhalten können. Die Systemtheorie als metatheoretisches Konzept ist also keine rein formallogisdie Disziplin, denn der Modellbegriff, der in ihr verwendet wird, ist nicht derjenige der reinen Semantik oder der logischen Modelltheorie, sondern hat vielmehr eine anschauliche, pragmatische Bedeutung. Modell heißt in der Systemtheorie primär ein allgemeines, planungstheoretisches Konzept, das jedoch nur dann sinnvoll und brauchbar ist, wenn es zugleich auch eine Anweisung zur Verwendung formaler Methoden enthält. In diesem Modellbegriff der Systemtheorie ist daher audi notwendig das Repertoire aller jener formalen Methoden eingeschlossen, mit denen das planungstheoretische Konzept ausgeführt werden kann. Ist das nicht der Fall, dann handelt es sich lediglich um eine bloß theoretische Spekulation ohne jeden praktischen Anwendungswert. Die Bedeutung des Modellbegriffs der Systemtheorie fällt also durchaus mit seiner in den empirischen Erfahrungswissenschaften gebräuchlichen Verwendung zusammen. Wenn in diesen Bereichen von „mathematischen" oder „theoretischen Modellen" gesprochen wird, so geht es dabei stets um interpre** Vgl. Bertalanffy, Das biologische Weltbild, S. 187. 4 Oeser, Band 2

50

3. Der Informationsprozeß als Systemverhalten

tierte Theorien, die einen Teilaspekt der Realität wiedergeben. Solche Theorien haben immer instrumentellen Charakter, das heißt, es lassen sich mit ihrer Hilfe Voraussagen machen. Das Spezifische des systemtheoretischen Aspekts liegt aber darin, daß es sich bei diesen Modellen um Analogiemodelle handelt. Solche Analogiemodelle haben grundsätzlich den Sinn, theoretisches Wissen über Strukturzusammenhänge von einem Gegenstandsbereich auf einen anderen Gegenstandsbereich zu übertragen. Das ist dann notwendig, wenn es um Bereiche von Gegenständen mit einem hohen Komplexitätsgrad geht, bzw. um Gegenstandsbereiche, die nicht in direkter, sondern nur in indirekter Weise der empirischen Erfahrung zugänglidi sind. Systemtheoretische Überlegungen sind also überall anwendbar, aber sie sind nicht in allen Bereichen und nicht bei jedem Problemlösungsverfahren explizit notwendig. In jenen Bereichen aber, in denen von Übertragung, Regulierung oder Verarbeitung von Informationen die Rede ist, handelt es sidi um komplexe Wechselwirkungen, die nicht einfach in isolierbare lineare Kausalketten auseinandergelegt werden können. Das heißt jedoch auch, daß die Verfahrensweisen der bisherigen formalen Logik nicht ausreichen, ein Informationssystem in seiner dynamischen Prozeßstruktur abzubilden. Mit dieser grundsätzlichen Einsicht in den Charakter des Informationsprozesses als eines auf Rückwirkung und Wechselwirkung beruhenden Systemverhaltens lassen sidi audi von vornherein die klassischen Fallgruben erkenntnistheoretisdier Extrempositionen vermeiden. Denn ein systemtheoretisches Modell des Erkenntnisprozesses kennt keine Gegenüberstellung von Subjekt und Objekt und keine lineare Beziehung zwischen beiden, die in dem Augenblick festgelegt würde, in welchem man sich auf eine konkrete Interpretation eines dieser beiden Begriffe einließe. Denn wenn man diese beiden spekulativen Begriffe der traditionellen Philosophie in der Erkenntnistheorie konkretisiert, ergibt sich notwendig jene Alternative von „Rationalismus" und „Empirismus", die beide als reine Extrempositionen historisch gar nicht aufgetreten sind, weil sie zu unhaltbaren Konsequenzen geführt hätten. Der Rationalismus sieht die Quelle aller Erkenntnis im menschlichen Geist, im Ich oder Bewußtsein, und ist damit von vornherein subjektivistisch, auch wenn er zu einer spekulativen Theorie des objektiven Geistes wird und somit die Erkenntnistheorie negiert. Der Empirismus in seiner klassischen Form betrachtet

Systemtheorie

51

dagegen die Sinneswahrnehmung als die Quelle der Erkenntnis. Indem er jedoch Objektivität lediglich als reine passive Rezeptivität charakterisiert, muß er entweder auf einer Vorstufe des Erkenntnisprozesses stehen bleiben, die es, wie die empirischen Forschungsergebnisse der Sinnes- und Gehirnphysiologie gezeigt haben, gar nicht gibt, oder er muß ebenfalls in den Subjektivismus fallen, der sich durch die Verwendung der Terminologie einer vorwissensdiaftlidien Psydiologie (Vorstellung, Gedanke) äußert. Dieser naive, sensualistisdie Empirismus, der auf der klassischen Reflexionstheorie beruht, ist nach der Entdeckung des Reafferenzprinzips durch E. von Holst und H . Mittelstaedt 35 nicht mehr haltbar. Denn die Objektivität der Wahrnehmung, auf die sich bisher jede sensualistisdie Erkenntnistheorie gestützt hat, hat sidi damit als ein komplizierter Prozeß von Kontroll- und Rückmeldungsmedianismen erwiesen, der mit dem Begriffsapparat einer „biologischen Kybernetik" 3 · darstellbar ist. Audi die Versuche, den menschlichen Erkenntnisprozeß nicht als lineare Kette, sondern als Wechselwirkung oder genauer gesagt als einen durdi Rückkoppelung geregelten Informationsprozeß zu betrachten, sind bisher durdi eine Verknüpfung der Begriffe Erkenntnistheorie und Kybernetik gekennzeichnet. In den folgenden Betrachtungen sollen jedoch die Bezeichnungen „kybernetische Anthropologie" 87 , „kybernetische Erkenntnistheorie" 88 und „kybernetische Systemtheorie" 3 · vermieden werden. Denn bei dem Begriff „Kybernetik", der nach Wieners ursprünglichem Gebrauch die „Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine" betrifft, läßt sich die formale Seite von der inhaltlichen nicht trennen. Die „allgemeine Kybernetik" stellt immer eine induktive Verallgemeinerung dar, die sukzessiv die Doppeldeutigkeit dieses 55

Ε. v. Holst und H. Mittelstaedt, Das Reafferenzprinzip (Wechselwirkungen zwischen Zentralnervensystem und Peripherie), in: Die Naturwissenschaften 37, 1950, S. 464 ff. " Vgl. B. Hassenstein, Kybernetik und biologische Forschung, in: Handbuch der Biologie I, S. 717. ®7 K. Steinbuch, Automat und Mensch. Auf dem Wege zu einer kybernetischen Anthropologie, Berlin-Heidelberg 1961, 4. Aufl. 1971. ,β H. Stadiowiak, Denken und Erkennen im kybernetischen Modell, Wien-New York 1965, S. IV. " G. Klaus, Kybernetik und Erkenntnistheorie, Berlin 1965, 4. Aufl. 1972.

4*

52

3. Der Informationsprozeß als Systemverhalten

Begriffs zur Mehrdeutigkeit erweitert. In der „kybernetischen Erkenntnistheorie" beispielsweise bleibt daher audi zumeist unklar, was eigentlich theoretische Argumentation und was das Ergebnis erfahrungswissenschaftlicher Untersuchungen des menschlichen Erkenntnisprozesses ist. Dadurch wird aber aus der „kybernetischen Erkenntnistheorie" ein „Monstrum", das aus der Vereinigungsmenge verschiedener Wissenschaftsgebiete und Terminologien zusammengesetzt ist40. Erkenntnis als Informationsprozeß und Systemverhalten zu betrachten, überschreitet keinesfalls den klassischen Bestand der erkenntnistheoretischen Terminologie, denn, wie bereits ausführlich dargelegt wurde, „System" und „Information" sind genuine Begriffe der traditionellen Erkenntnislehre. Die Ausklammerung des Begriffs „kybernetisch" aus der Erkenntnistheorie bedeutet keineswegs die Ignorierung jener erfahrungswissenschaftlichen Resultate, die unter dieser Bezeichnung in der Biologie und der Nachrichtentechnik geliefert worden sind. Diese Resultate sind vielmehr als Kontrollmöglichkeiten für die Erkenntnistheorie anzusehen, deren Terminologie jedoch nicht unnötigerweise erweitert werden sollte, da sonst Unklarheiten über ihre Problemstellungen und Problemlösungsverfahren entstehen könnten. Das Problem der Erkenntnistheorie ist die Wahrheit der Erkenntnis. Ihr Problemlösungsverfahren ist kein empirisches, sondern ein rein theoretisches. Erkenntnistheoretische Probleme können daher weder mit den empirischqualitativen Begriffen der Beobachtungssprache noch mit den präzisierten quantitativen, metrischen Begriffen mathematisch formulierter Erfahrungswissenschaft ausgedrückt werden, sondern müssen mit rein theoretischen Begriffen formuliert werden. Diese Begriffe sind jedoch nicht „spekulativ", sie haben vielmehr in der erfahrungswissenschaftlichen Terminologie Äquivalente. Solche Äquivalente sind bereits für die Begriffe „System" und „Information" aufgewiesen worden. Diese Begriffe haben in der Erkenntnistheorie den logischen Status von Metaprädikaten, das heißt, sie sind theoretische Eigenschaften von empirischen Eigenschaften oder Verhältnissen. Sie sind als solche 40

Auf diese Unklarheit bei der Verwendung des Begriffs „Kybernetik" als Vereinigungsmenge und Durchschnitt haben unter anderen H. Zemanek und P. Goldsdieider aufmerksam gemacht, in: Computer. Werkzeug der Information, Berlin-Heidelberg-New York 1971, S. 176.

Systemtheorie

53

übertragbar und verwendbar in allen erfahrungswissenschaftlichen Untersuchungsbereichen, in denen sie ausdrücklich auch in dieser Bedeutung angewendet werden, und zwar genau dann, wenn es nicht um empirische Sachverhalte, sondern um Methodenfragen geht, das heißt, wenn es nicht um inhaltliche Erkenntnisse, sondern um die Art und Weise ihrer Erkennbarkeit geht. Dann wird der Erfahrungswissenschaftler zu einem externen Beobachter, der nicht nur die Dinge, die er erkennen will, sondern auch sich selbst und die Tätigkeit des Erkennens beobachtet. Die Erkenntnistheorie ist vollständig in der Metasprache des externen Beobachters formuliert. Diese Metasprache kann selbst nicht mehr durch eine andere Metasprache hintergangen werden, denn sonst würde diese Methode in einen unendlichen Regreß von formalen künstlichen Sprachen ausarten. Die letzte, nicht hintergehbare Sprache ist für den Erkenntnistheoretiker die natürliche Sprache, und zwar als eine für sich verständliche Primärsprache. Eine solche Sprache beruht nicht auf Definitionen, sondern auf pragmatisch-operationalen Festsetzungen, die keineswegs bloße Konventionen, sondern Ergebnis eines historischen Prozesses sind, der, wie Whewell sagt, keinen Zufall kennt 41 und sich deshalb auch rational rekonstruieren läßt. Nicht eine formale Semantik, sondern eine historischpragmatische Analyse der Grundbedeutungen im Sinne einer „rationalen Etymologie" konstituiert die primäre Metasprache. Ein vergleichbares Beispiel für den konstruktiven Aufbau einer Terminologie, die zugleich exakt wie selbstverständlich ist, bilden die Begriffe der anschaulichen euklidischen Geometrie, die alle eine operational, pragmatische Grundlage haben, wie zum Beispiel der Begriff „ebene Fläche", der durch Schleifen von Gegenständen „hergestellt" werden kann 42 , oder der Begriff „Kreis", der an der Tätigkeit des Ziehens eines Kreises demonstriert werden kann. Ebenso läßt sich die Terminologie der Erkenntnistheorie more geometrico als konstruktive Disziplin aufbauen. Die Grundbegriffe der Erkenntnistheorie sind jedoch nicht solche, die der Bestimmung des Subjekts und Objekts dienen, nicht die Begriffe „Ich", „Seele", „Bewußtsein" und „Gegenstand", sondern die Begriffe „System" und „Informa41 42

Vgl. W. Whewell, Novum Organon Renovatum, London 1858. Vgl. H. Dingler, Das Experiment. Sein Wesen und seine Geschichte, München 1928, S. 56 ff.

54

3. Der Informationsprozeß als Systemverhalten

tion", die keine metaphysisch-ontologische Vorentscheidung enthalten. Ausgangspunkt ist der Systembegriff, dessen Etymologie des wissenschaftlichen Sprachgebrauchs auf folgende definitorische Festsetzung zurüdiführt: System ist eine Menge von Elementen, die untereinander durch bestimmte Beziehungen (Relationen) in einem Zusammenhang stehen. Zu dieser klassischen Definition des Systembegriffs, die sich seit der Antike nicht verändert hat, tritt jedoch eine grundsätzliche Unterscheidung: die Unterscheidung zwischen offenem und geschlossenem System. Es ist eine der wesentlichsten Einsichten der allgemeinen Systemtheorie, die sich in allen Bereichen ihrer möglichen Anwendung bestätigt hat, daß es so etwas wie ein geschlossenes System nicht gibt. Ein geschlossenes System im strengen Sinn ist sowohl logisch als auch ontologisdi eine Unmöglichkeit. Als logisches System wäre es ein System formaler Selbstbegründung, und ein solches ist durch das Gödelsche Theorem ausgeschlossen. Als reales, materielles System wäre es ein System, das mit seiner Umgebung in keinerlei Wirkungszusammenhang stünde; als solches wäre es jedoch nicht nur nicht erkennbar, sondern überhaupt nicht existent. Es sind daher alle Systeme in irgendeiner Weise als offene Systeme zu betrachten. Aus dieser Überlegung ergibt sich ein systemtheoretisches Grundmodell, das nicht nur 1. aus dem System selbst, sondern auch 2. aus der Umgebung besteht. Die Umgebung ist selbst wiederum notwendig als ein System oder als System von Systemen strukturiert. Um das System von seiner Umgebung unterscheiden zu können, muß zwischen System und Umgebung 3. eine Grenze vorhanden sein. Diese Grenze zwischen dem System und seiner Umgebung wird durch die Randelemente bestimmt. Die Randelemente, die die Grenze der Oberfläche eines Systems bilden, werden nicht wegen ihrer räumlichen Lage, sondern wegen ihrer Beziehung zur Umgebung so bezeichnet. Ein Randelement eines Systems muß also zur Umgebung des Systems mindestens eine Beziehung haben. Daraus ergibt sich, daß der Begriff der Umgebung relativ zu den Randelementen bestimmt ist. Die Umgebung eines Systems ist damit nicht eine „Umgebung an sich", sondern immer nur eine Umgebung für das System beziehungsweise für dessen Randelemente, die zur Umgebung in Beziehung stehen.

Das systemtheoretische Modell

55

Die allgemeinste Beziehung zwischen System und Umgebung ergibt sich durdi den Informationsfluß, der sich zwischen beiden abspielen muß. Dieser Vorgang des Informationsflusses kann allgemein als Kommunikation bezeichnet werden. Das klassische Modell eines Kommunikationssystems hat Shannon geliefert. Es ist ein denkbar einfaches Modell, denn es kennt nur zwei Instanzen und einen starren Kanal, der diese beiden Instanzen miteinander verbindet. INFORMATION SOURCE TRANSMITTER

RECEIVER

DESTINATION

NOISE SOURCE

Das Shannonsche Diagramm eines „allgemeinen Kommunikationssystems" ist eine schematische Darstellung der Informationsübertragung zwischen technischen Instanzen. Denn sowohl bei der Informationsquelle (information source) als auch bei dem Bestimmungsort (destination), an den die Nachricht (message) als Zeichenfolge gerichtet ist, abstrahiert man von der Tätigkeit eines Benutzers der Information. Das wird von Shannon selbst dadurch klargestellt, daß er in den Erläuterungen zu seinem Diagramm angibt, daß der Bestimmungsort eine „Person" oder ein „Ding" sein kann. Der pragmatisdi-semantische Aspekt, der sich auf den Empfänger als Benutzer bezieht, spielt in der Übertragungstechnik keine Rolle. Entscheidend ist allein der Empfänger als technische Instanz (receiver), der von Shannon als Rückwandler charakterisiert wird. Der Empfänger im technischen Sinn vollzieht nichts anderes als jene inverse Operation des Dekodierens, um dabei die eigentliche Nachricht wieder herzustellen. Invers wird diese Operation in bezug auf die Operation der ebenfalls rein technischen Instanz des Senders genannt, der die Nachricht nach einem bestimmten Kode zu Signalen umformt, um sie in einem Kanal, einem rein passiven Medium, zum Empfänger übertragen zu können. Damit ergibt sich als bloße Plausibilitätsüberlegung der von Wiener in mathematischer Beweisform dargestellte Satz, daß

56

3. Der Informationsprozeß als Systemverhalten

sich die Information bei einem Übertragungsprozeß durch keine Operation über den Gehalt hinaus vergrößern läßt, den sie an der Quelle hatte 48 . Es ist vielmehr so, daß die Information auf dem Weg vom Sender zum Empfänger abnimmt, da es keinen ungestörten Kanal gibt. Systemtheoretisch gesehen handelt es sich bei der Störquelle um eine unerwünschte Einwirkung der Umgebung auf das Kommunikationssystem. Nun hat aber Shannon nachgewiesen, daß es durch geeignete Kodierung möglich ist, bei einem gestörten Kanal einen bestimmten, statistisch berechenbaren Teil des Informationsgehalts richtig, das heißt ungestört zu übertragen. Der Sender (transmitter) hat also nach Shannon die Aufgabe, durch eine geeignete Kodierung die eigentliche Informationsquelle dem Kanal in statistischem Sinn anzupassen 44 . Der maximale Wert der Rate der tatsächlichen Übertragung wird durch die bekannte Shannonsche Formel zur Bestimmung der Kanalkapazität ausgedrückt: C = Max (H (x) — H y (x)) Vereinfacht ausgedrückt 45 heißt das: Η (χ) ist ein Maß für die Information vor der Übertragung; H y (x) ist ein Maß für die nach der Übertragung verlorengegangene Information; im theoretischen Fall eines störungsfreien Kanals wäre also H y (x) = 0. In der Nachrichtentechnik geht es jedoch nur darum, daß die verlorengegangene Information ein bestimmtes Maß nicht überschreitet. Dieses technische Problem ist zugleich ein Problem der Wirtschaftlichkeit der Kodierung. Denn das Shannonsche Theorem besagt, daß sich zwar durch geeignete Kodierung die Kanalkapazität erhöht, daß damit aber zugleich auch eine Verzögerung in der Übertragung auftritt, gewissermaßen als Preis für die Beseitigung der Störung. Denn der die Sicherheit der Übertragung erhöhende Kodierungsaufwand ist mit einem höheren Zeitaufwand verbunden. Shannon selbst hat aber eine weitere Möglichkeit der Erhöhung der Sicherheit der Übertragung angeführt, die nicht nur in der Wahl einer geeigneten Kodierung, sondern in der Einführung eines zweiten, korrigierenden Kanals besteht. 45

44

45

Vgl. Wiener, Kybernetik (Kap. 5: Zeitreihen, Information und Kommunikation), S. 91. Vgl. Shannon - Weaver, The Mathematical Theory of Communication, S. 70 ff.; deutsche Ubersetzung, S. 82ff. Ebenda.

Das systemtheoretische Modell

57 CORRECTION DATA

SOURCE

TRANSMITTER

RECEIVER

CORRECTING DEVICE

Dieses Diagramm eines korrigierenden Systems zeigt deutlich eine Erhöhung des Grads der Komplexität. Das einfache Modell des Kommunikationssystems wird durch die Hilfsannahme (auxiliary device) eines externen Beobachters, der den gesamten Übertragungsprozeß (welcher das, was gesendet, und das, was empfangen worden ist, einschließlich der Störung umfaßt) überblicken und korrigieren kann, verdoppelt. Erst durch eine solche systemtheoretische Erweiterung, die das ursprünglich starre Schema der Shannonschen Kommunikationstheorie überschreitet, wird die Bedeutung des Shannonschen Theorems für erkenntnistheoretische Fragestellungen einsichtig. Denn eine bloße Übertragung des einfachen Modells des Kommunikationssystems, bei dem zwei Instanzen durch einen starren Kanal verbunden sind, führt zu unhaltbaren Simplifizierungen, welche die klassischen Irrtümer des sensualistischen Empirismus wieder aufleben lassen anstatt sie zu korrigieren. Die grobe Analogie von Sender und Empfänger, Erkenntnisgegenstand und Erkenntnissubjekt und die Auffassung von der Erkenntnistätigkeit als „Umkodieren von Information" 48 reicht zur Klärung erkenntnistheoretischer Fragestellungen nodi nicht aus. Denn das Erkenntnissubjekt stellt keine echte „Kommunikationsverbindung" mit der ihm unbekannten Außenwelt her. Es empfängt weder Zeichen oder Signale als physikalische Verkörperungen von Nachrichten noch Wörter, Bilder oder Symbole. Der Erkenntnisprozeß als Informationsgewinnung ist vielmehr als eine Art von Informationsübertragung anzusehen, bei der es keine kooperative Informationsquelle, dafür aber 4

* J.Peters, Information und Signal, in: K. Steinbuch und S.Moser, Philosophie und Kybernetik, München 1970, S. 170 f.

58

3. Der Informationsprozeß als Systemverhalten

um so mehr „Kanäle" gibt. Allerdings wird dabei unter „Kanal" etwas viel Allgemeineres als in der Shannonschen Kommunikationstheorie verstanden. Ein verallgemeinerter Begriff des Kanals ist in der Kybernetik entwickelt und von W. Ross Ashby als eine „bestimmte verhaltensmäßige Beziehung zwischen zwei Punkten" definiert worden. „Wenn zwei Punkte so zueinander in Relation stehen, dann besteht zwischen ihnen ein Kanal, ganz unabhängig davon, ob irgendeine materielle Verbindung zwischen ihnen festgestellt werden kann." 47 Entscheidend für die Erkenntnistheorie ist daher nicht die grobe Analogie des Shannonschen Modells des Kommunikationssystems mit der Subjekt-Objekt-Relation, sondern die eindeutige und klare Beziehung, die das Shannonsdie Fundamentaltheorem zum Problem der Wahrheit der Erkenntnis besitzt. Das Shannonsche Theorem besagt nämlich im weitesten Sinn, daß in einem kompliziert gekoppelten System die Möglichkeit besteht, durch ein bestimmtes Verhalten die Korrektheit der Informationsgewinnung zu sichern48. Mit dieser Interpretation ist die Analyse des Informationsprozesses bereits in jenen erweiterten Rahmen getreten, den MacKay der Informationstheorie im eigentlichen Sinn vorbehalten will: „Die allgemeine Informationstheorie hat es mit dem Problem, Veränderungen im Wissen zu messen, zu tun. Ihr Schlüssel ist die Tatsache, daß wir mit Hilfe von Bildern, logisdien Aussagen, symbolischen Modellen usw. darstellen können, was wir wissen. Wenn wir Information empfangen, bewirkt sie eine Veränderung im symbolischen Bild oder der Darstellung (representation), die wir benutzen könnten, um das zu beschreiben, was wir wissen. Repräsentationen entstehen gewöhnlich auf zwei unterschiedliche Weisen. Der Unterschied zwischen diesen beiden Arten madit das Wesen von einer der bedeutendsten Unterscheidungen in der Informationstheorie aus — zwischen der Theorie der Kommunikation auf der einen Seite und dem, was wir aus Mangel an einem besseren Ausdruck die Theorie der wissenschaftlichen Information nennen können, auf der anderen Seite. Sowohl ein Kommunikationsprozeß als auch ein wissenschaftlicher Beobachtungsprozeß 47

48

W. R. Ashby, Einführung in die Kybernetik, Frankfurt/M. 1974, S. 263. Zu dieser Interpretation des Shannonschen Theorems vgl. ebenda, S. 277 f.

Das systemtheoretische Modell

59

hat das Auftauchen einer Repräsentation im .RepräsentationsRaum' des Empfängers oder Beobachters zur Folge. Was aber die Kommunikation kennzeichnet, das ist . . . die Tatsache, daß die produzierte Repräsentation eine Nachbildung einer Repräsentation ist (oder es sich zur Aufgabe macht, eine solche zu sein), die im Geist des Absenders bereits gegenwärtig ist. Kommunikation ist die Aktivität, Repräsentationen nachzubilden." 4 · „Es muß klar sein, daß, wenn jemand wünscht, den Begriff ,Theorie der Information* ausschließlich für Shannons statistische Theorie der Kommunikation zu benutzen, er natürlich nicht daran gehindert werden kann, aber er muß sich dann klar machen, daß wir hier etwas Weiteres diskutieren, für das er einen eigenen Namen prägen muß. Mit der Theorie der Information meinen wir allgemein die Theorie der Prozesse, durch welche Repräsentationen entstehen, zusammen mit der Theorie jener abstrakten Merkmale, die einer Repräsentation und demjenigen, was sie repräsentiert, gemeinsam sind. Die Information ist dasjenige, was wesentlich war, um das Herstellen einer Repräsentation zu rechtfertigen." 50 Eine derartige Definition der Informationstheorie beseitigt nicht nur den Bezug der Nachrichtentechnik auf die zwischenmenschliche Kommunikation, sondern hebt auch den Bezug zur Physik auf 51 . Die Informationstheorie wird damit zu einer allgemeinen Grundlagendisziplin, in der der Informationsbegriff durch keine fixen Bezüge zu bestimmten Wissensgebieten relativiert ist, sondern lediglich durch seinen Bezug zum Begriff des Systems oder zu einer abstrakten Theorie der Systeme bestimmt ist („information as a system-relative concept" 52 ). Erst damit ist die von Wiener ohne weitere Begründung aufgestellte These von der Eigenständigkeit des Informationsbegriffs sachlich gerechtfertigt und der Weg frei zu einer objektiven Interpretation der menschlichen Erkenntnis als eines Informationsprozesses. 4

* MacKay, Information, Mechanism and Meaning, S. 42. Ebenda, S. 80. 51 Vgl. J. Peters, Physikalische Grundgesetze in ihrem Einfluß auf die Übertragung und Verarbeitung von Informationen, Interner Bericht der GMD 01/75-3-10, Bonn 1975, S. 4. 52 A. W. Holt zitiert nach C. A. Petri, Interpretation of Net Theory, Interner Bericht der GMD 75-07, Bonn 1975, S. 8.

50

60

4. Der informationsverarbeitende Automat

4. Der informationsverarbeitende A u t o m a t als Analogiemodell kognitiver Funktionen Die erkenntnistheoretische Analyse der Informationsgewinnung war schon immer nur sehr schwer von empirischen Untersuchungen, die sich auf die damit verbundenen Vorgänge physikalischer und physiologischer Art beziehen, auseinanderzuhalten. Gänzlich ununterscheidbar scheint sie jedoch schon aus historischen Gründen von der experimentellen Wahrnehmungs- und Denkpsychologie zu sein, mit der sie einen großen Teil ihrer Fachterminologie gemeinsam hat. Wenngleich es in der Geschichte der Erkenntnistheorie prinzipiell klar gewesen ist, daß es nicht um die empirische Beschreibung, sondern um die Rechtfertigung von Erkenntnissen bezüglich ihres Wahrheitsgehaltes geht, stützt sich doch jeder konkrete Versuch der Bewältigung dieses Problems auf Erklärungsmodelle, die den empirischen Erfahrungswissenschaften entlehnt sind. Der eigentliche Grund für dieses Vorgehen liegt in der scheinbar widersinnigen, weil zirkulären Fragestellung nach der Erkenntnis der Erkenntnis, die eine direkte Lösung dieses Problems nicht möglich erscheinen läßt. Diese Fragestellung wurde deshalb auch in der Erkenntnistheorie grundsätzlich in indirekter, metaphorischer Weise formuliert. So spricht Aristoteles vom menschlichen Verstand als einer unbeschriebenen Schreibtafel, auf der so lange nichts geschrieben steht, so lange nicht die Sinnesempfindungen ihre Eindrücke hinterlassen haben 1 . In der empiristischen Erkenntnistheorie der Neuzeit verwendet John Locke 2 neben der von Aristoteles übernommenen Metapher v o m unbeschriebenen weißen Papier (white paper) eine Projektionsmetapher, die letztlich auf die geometrische Strahlenoptik Newtons zurückzuführen ist: Der menschliche Verstand gleicht dabei einem euklidisch ebenen Spiegel, auf dem die Lichtstrahlen nach den Gesetzen der Reflexion und Brechung des Lichts unverzerrte Bilder der Wirklichkeit wiedergeben. Durch die weitere Entwicklung der optischen Apparate hat man diese Analogie noch auf die Funktion des Gedächtnisses erweitern können, wie etwa Lenins Widerspiegelungstheorie zeigt, die bereits diese Funk1 2

Aristoteles, De Anima 429 b, 30 ff. J.Locke, An Essay Concerning Human Understanding, 18. Aufl., London 1788, II, 1, § 25.

Klassische Analogiemodelle

61

tion der Aufbewahrung von „widergespiegelten" Bildern mit dem Vorgang des Photographierens vergleicht 3 . Solche Metaphern haben in der physiologischen Wahrnehmungstheorie wegen der Kompliziertheit ihres Untersuchungsgegenstands den besonderen Wert einer heuristischen Fiktion. Ein Beispiel dieser Art findet sich etwa bei Helmholtz, der ein Wesen annimmt, das nur aus einem Auge besteht; eine Fiktion, die auf die klassische Sage v o m Zyklopen zurückgeht, der nur ein Auge in der Mitte der Stirn besitzt. Neben dieser Fiktion verwenden Helmholtz und andere Physiologen auch die Vorstellung eines Menschen mit mikroskopischen Augen 4 . Berühmter und älter als diese Fiktionen aus der sinnesphysiologischen Wahrnehmungstheorie ist jedoch die Statue Condillacs, der den sensualistischen Empirismus Lockes nicht nur übernommen, sondern sogar verschärft hat. Der eigentliche Sinn und Zweck dieser Fiktion, die das Thema des „Traité des sensations" bildet, ist der Nachweis des Ursprungs aller Erkenntnisse aus der Sinneserfahrung. U m diese Reduktion plausibel machen zu können, entwirft Condillac das Bild eines Menschen, dessen Seele ohne alle Vorstellungen ist; er läßt ihn von einer Marmorhülle mit verschließbaren Öffnungen umgeben sein, so daß man auf dessen Seele Eindrücke beliebig eindringen lassen oder von ihr abwenden kann. Damit gewinnt Condillac die Möglichkeit, den komplexen Prozeß der Erfahrungserkenntnis durdi sinnliche Wahrnehmung in Einzelteile zerlegen zu können, um sie anschließend wieder zusammensetzen zu können. Er beschränkt die Statue in ihren Fähigkeiten zuerst auf den Geruchsinn, dann auf den Gehörsinn, dann auf den Geschmack, dann auf den Gesichtsinn und schließlidi nur auf den Tastsinn. Nach Teilanalysen, durdi die die rezeptive Leistung eines jeden Sinnesorgans isoliert wird, versucht Condillac, durdi Kombination der verschiedenen Sinnesleistungen das komplizierte Gewebe der mensdilidien Wahrnehmungserkenntnis zu erfassen, indem er sich die jeweiligen Zugänge zum Innern dieser Statue je nach Bedürfnis entweder geöffnet oder geschlossen denkt. Selbstverständlich war sich Condillac, ebenso wie später seine Nachfolger, der Simplifizierung bewußt, die mit einem der-

s 4

Lenin, Materialismus und Empiriokritizismus, Berlin 1964. Eine Sammlung derartiger Fiktionen hat H. Vaihinger in seiner „Philosophie des Als Ob" zusammengestellt. Vgl. 8. Aufl., Leipzig 1922, S. 262.

62

4. Der informationsverarbeitende Automat

artigen Modell notwendig verbunden ist. Doch ist selbst die Unrichtigkeit bzw. Unmöglichkeit mancher sich daraus ergebender Konsequenzen, wie etwa das Vorhandensein von Spradie nodi vor dem „geöffneten Ohr", für Condillac kein Grund, den heuristischen Wert solcher Fiktionen anzuzweifeln: „Wenn ich diese Statue beobachte, so geschieht es weniger, um mich dessen zu versichern, was in ihr vorgeht. Ich kann mich darin täuschen, daß ich ihr Operationen zuschreibe, deren sie noch nicht fähig ist, allein dergleichen Irrtümer bleiben ohne weitere Folgen, wenn sie den Leser in den Stand setzen zu beobachten, wie sich jene Operationen in ihm selbst vollziehen." 5 Condillacs Statue ist daher weniger als ein Lehrstück materialistischer Metaphysik zu betrachten; sie will vielmehr — ebenso wie die klassischen Analogien, wie Schreibtafel, weißes Papier oder Spiegel — eine Anleitung zur Selbstbeobachtung liefern, die primär die Lösung erkenntnistheoretischer Fragestellungen zum Zweck hat. Wurde mit derartigen Analogiemodellen nur die rezeptive Funktion des Erkenntnissubjekts dargestellt, mit der sich alle Untersuchungen der empiristischen Tradition der Erkenntnistheorie fast ausschließlich befaßt haben, so ändern sich mit der entgegengesetzten erkenntnistheoretischen Extremposition, dem Rationalismus, auch die Modellvorstellungen. Der Ausgangspunkt der rationalistischen Erkenntnistheorie liegt in der Aristotelischen Lehre vom tätigen Verstand (νους ποιητικός) begründet, mit der Aristoteles erst seine Erkenntnislehre zu einer einheitlichen Theorie® entfalten kann. In dieser einheitlichen Theorie kommt der Lehre vom leidenden Verstand (νους παθητικός), der durch das Analogiemodell der „unbeschriebenen Schreibtafel" umschrieben wird, nicht die systematische Priorität zu, denn es ist der tätige Verstand, durch den überhaupt rationale Erkenntnis im eigentlichen Sinn zustande kommt. Nach Aristoteles selbst und nach der arabischen Aristotelestradition (Averroes) ist der tätige Verstand ontologisdi-metaphysisch durch seine Unsterblichkeit ausge5

E. B. de Condillac, Traité des Sensations, 1754, I, X, 6, zitiert nach Vaihinger, Die Philosophie des Als Ob, S. 363 f. * Die Aristotelische Erkenntnislehre und ihre Weiterentwicklung wurde vom Verfasser ausführlich dargestellt in: Begriff und Systematik der Abstraktion, I.Teil: Aristoteles, Wien-München 1969, S. 102 ff.

Klassische Analogiemodelle

63

zeichnet, während der leidende Verstand mit dem Körper zugrunde geht. Die kognitive Funktion des intellectus agens wird von Aristoteles mit der erhellenden Wirkung des Lichtes verglichen. Der neuzeitliche Rationalismus hat in diesem Zusammenhang eine konkretere Analogie gefunden. Bereits Descartes unternimmt den Versuch, den Menschen nicht nur bezüglich seiner körperlichen Lebensfunktionen, die den Gesetzen der Mechanik gehordien, sondern audi in bezug auf seine Erkenntnisfähigkeit mit einem Automaten zu vergleichen. Da er jedoch primär nicht erkenntnistheoretisch, sondern ontologisdi-metaphysisdi argumentiert, kommt er letztlich zu einem negativen Ergebnis. Denn audi wenn der Mensch, ebenso wie das Tier, als eine Maschine betrachtet wird, in der die Seele „wie der Steuermann im Schiff" wohnt, um die Glieder zu bewegen, so reicht doch dieses — im heutigen Sprachgebrauch — „kybernetische" Bild nicht aus, um die Funktion des Bewußtseins zu erklären. Nach Descartes wäre man zwar nicht imstande, Maschinen, welche die Organe und die äußere Gestalt eines Affen oder irgendeines anderen vernunftlosen Tiers hätten, von wirklichen Tieren zu unterscheiden; im Falle von Maschinen, die den Körper und die Handlungen des Menschen nachahmen, gibt es jedoch zwei untrügliche Unterscheidungsmerkmale: „Das Erste ist, daß sie niemals Worte oder andere von ihnen gemachte Zeichen würden brauchen können, wie wir es tun, um anderen unsere Gedanken mitzuteilen. Denn es läßt sich wohl begreifen, wie eine Maschine so eingerichtet ist, daß sie Worte hervorbringt . . . nicht aber, daß sie auf verschiedene Art die Worte o r d n e t . . . Und das Zweite ist, daß, wenn sie auch viele Dinge ebenso gut oder vielleicht besser als einer von uns machten, sie doch unausbleiblich in einigen anderen fehlen und dadurch zeigen würden, daß sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln. Denn während die Vernunft ein Universalinstrument ist, das in allen möglichen Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere Disposition haben, und deshalb ist es moralisch unmöglich, daß in einer Maschine verschiedene Organe genug sind, um sie in allen Lebensfällen so handeln zu lassen, als unsere Vernunft uns zu handeln befähigt." 7 7

R. Descartes, Abhandlung über die Methode (Discours de la Méthode), Mainz 1948, S. 133.

64

4. Der informationsverarbeitende Automat

Es ist ohne weiteres ersichtlich, daß mit dieser negativen Charakteristik alles dessen, was nach Descartes Maschinen nicht zu tun vermögen, genau die Merkmale des modernen Computers als eines informationsverarbeitenden Automaten dargestellt werden. Der englische Mathematiker A. M. Turing, der die Frage, ob „Maschinen denken können", in unserem Jahrhundert in analoger Weise aufgegriffen hat, mußte daher auch konsequenterweise jeden Unterschied zwischen Verhaltensweisen und Leistungen von Menschen und Maschinen verneinen. Bereits im 18. Jahrhundert, in dem die Automatenbaukunst mit Vaucansons Flötenspieler und den Sprechmaschinen des Baron Kempelen einen Höhepunkt erreichte, ist an Descartes' Auffassung Kritik geübt worden. So schreibt de la Mettrie, der Verfasser von „L'homme machine" (1748): „Ich glaube, daß Descartes ein in jeder Beziehung achtungswerter Mann wäre, wenn er, in einem nicht aufklärungsbedürftigen Jahrhundert geboren, den Wert der Erfahrung und Beobachtung und die Gefahr, sich von ihnen zu entfernen, gekannt hätte." 8 Die eigene Meinung, daß „die Menschen im Grunde genommen nur senkrecht in die Höhe gereckte Tiere und Maschinen sind", führt de la Mettrie nicht auf die mögliche technische Realisierung von Automaten zurück, sondern versucht, mit evolutionstheoretischen Argumenten und embryologischen Beobachtungsergebnissen den von Descartes aufgestellten Gegensatz von Mensch und Tier zu beseitigen. Als Konsequenz aus der Beseitigung dieses Gegensatzes ergibt sich dann notwendig auch nach der kartesianischen Lehre von der rein maschinellen Natur der Tiere die Gleichsetzung von Mensch und Maschine. Dadurch aber, daß de la Mettrie die Gleichartigkeit des Ursprungs von Mensch und Tier sowie deren materiell-stoffliche Gleichartigkeit mit künstlich konstruierten Maschinen betont, verliert seine gesamte Untersuchung den Charakter einer Analogiebetrachtung und wird zu einer materialistischen Metaphysik. Seine Berufung auf die zeitgenössische naturwissenschaftliche Forschung ist jedoch in diesem Punkt unberechtigt. Denn die anschaulichen Modelle, mit denen die Naturwissenschaftler seit jeher gearbeitet haben, sind grundsätzlich als Analogiemodelle zu verstehen, die aus einer Übertragung von Erkenntnissen eines Sachgebiets auf ein anderes entstanden sind. So ist zum Beispiel die Entdeckung des Blutkreislaufs durch Harvey 8

De la Mettrie, Der Mensdi eine Maschine.

Klassische Analogiemodelle

65

durch die Anwendung eines hydraulischen Analogiemodells zustande gekommen, ohne daß jedoch diese Analogie zwischen Herz und Pumpe bei ihm zu einer mechanistischen Auffassung der lebendigen Natur geführt hätte. Von solchen rein funktionalen Analogiemodellen sind sowohl die Automaten des 18. Jahrhunderts, wie etwa die Ente und der Flötenspieler von Vaucanson sowie die Spielautomaten von Vater und Sohn Jaquet-Droz, als audi die kybernetischen Modelle des 20. Jahrhunderts, zum Beispiel die künstlichen „Schildkröten", „Motten", „Wanzen" und „Mäuse", zu unterscheiden. Denn diese beziehen sich nicht nur auf funktionale Gleichheiten, sondern zum Teil audi auf Ähnlichkeiten zwischen dem strukturellen Aufbau von lebendigen Systemen und technischen Gebilden. Das Erfassen der Beziehung zwischen Funktion und strukturellem Aufbau bildet die Grundlage für die Konstruktion von Apparaten, die diese Funktionen nachahmen können. So war auch die Kenntnis der Beziehungen zwischen Körpergewicht, Spannweite der Flügel und Muskelkraft der Vögel die Voraussetzung für die Konstruktion technischer Flugapparate. Die technische Realisierung von kybernetischen Modellen für einfache, beobachtbare Verhaltensweisen von Lebewesen kann jedoch nur auf Grund eines fundamentalen Mißverständnisses des Sinnes und der Bedeutung von Analogiemodellen zur Gleidisetzung von Lebewesen und Maschinen führen. Denn selbst dann, wenn es nicht nur um rein funktionale, sondern auch um strukturelle Analogien geht, handelt es sich lediglich um Ähnlichkeiten zwischen gänzlich verschiedenen Dingen. Wenngleich es theoretisch denkbar ist, alle Funktionen lebendiger Systeme, wie sie etwa durch die einzelnen Organe ausgeführt werden, durch künstliche, technische Gebilde mit ähnlichem strukturellen Aufbau bewältigen zu lassen, würde die Koppelung dieser künstlichen Organe zu keinem selbständigen Lebewesen, sondern vielmehr zu einem System führen, dessen Kompliziertheit den eigenen Zusammenbruch zur Folge hätte. Zur Gleichsetzung von künstlich erzeugten technischen Gebilden mit Lebewesen gibt es im Grunde nur einen Weg: die synthetische Erzeugung von Leben aus anorganischer Materie; das heißt jedoch nichts anderes als die Wiederholung der biologischen Evolution. Obwohl sich theoretisch kein Argument angeben läßt, das die künstliche Herstellung des Elementarorganismus, der lebendigen Zelle, grundsätzlich unmöglich 5

Oeser, Band 2

66

4. Der informationsverarbeitende Automat

macht, ist es der experimentellen Forschung bisher nur gelungen, organische Moleküle zu erzeugen, die von Lebewesen im eigentlidien Sinn, die die Eigenschaften der Selbsterhaltung und Fortpflanzung besitzen, noch weit entfernt sind®. Mit der künstlichen Herstellung von Lebewesen wäre aber auch der Modellcharakter dieses Produkts aufgehoben, da es sich dann nicht mehr bloß um Ähnlichkeiten des strukturellen Aufbaus, sondern um die Gleichartigkeit der stofflichen Substanz handelt. Wie weit man jedoch von der Herstellung des fiktiven Homunculus entfernt ist, kann man an der aus der empirischen Erfahrung stammenden Einsicht ermessen, daß bereits die Zahl aller Operationen, durch die eine experimentelle Synthese des Lebens aus unbelebter Materie zustande kommen könnte, die zeitlich begrenzte Leistungsfähigkeit experimenteller Forschung überhaupt zu überschreiten scheint. Daraus ergibt sich, daß die Diskussion um die künstlich erzeugte Menschenmaschine, um den Roboter oder Homunculus und um die sogenannten „Elektronengehirne", nur eine Diskussion um Scheinprobleme ist. Denn selbst die Koppelung von informationsverarbeitenden Maschinen und Beobachtungsapparaten führt nicht zu einem einheitlichen selbständigen Erkenntnissubjekt, das dem menschlichen Bewußtsein gleichwertig ist, sondern ist nichts anderes als die Koppelung von bestimmten Funktionen. Die Tatsache, daß mit derartigen Beobachtungs- und informationsverarbeitenden Apparaten ungleich bessere Leistungen zustande kommen können, als es die menschlichen Rezeptoren und das menschliche Gehirn jemals vermögen, bildet dazu keinen Gegensatz. Denn zur Leistungssteigerung kognitiver Funktionen sind alle derartigen Apparate geschaffen worden. Für die erkenntnistheoretische Problemstellung ist die seit Descartes immer wieder gestellte Frage nach dem „Bewußtsein der Maschinen" völlig bedeutungslos. Denn jeder informationsverarbeitende Automat ist in seiner abstrakt erkenntnistheoretischen Bedeutung unabhängig von seiner technischen Realisierbarkeit als ein rein funktionales Analogiemodell jener Operationen anzusehen, die im menschlichen Denken ablaufen. Die rein theoretische Rekonstruktion von erkenntniserweiternden Informationsprozessen, wie sie in der wissenschaftlichen und alltäglichen Erkenntnis vonstatten gehen, war bisher die einzige Möglichkeit zur Lösung und Behandlung erkenntnistheoretischer • Vgl. Oeser, System, Klassifikation, Evolution, S. 142 f.

Klassische Analogiemodelle

67

Fragen. Die Erkenntnistheorie hatte deshalb immer einen zirkulären Charakter. Mit der Realisierung von automatischen Informationsverarbeitungssystemen ist jedoch der Kreis theoretischer Selbstreflexion durchbrochen und ein konkreter Weg zur Überwindung jener grundsätzlichen Schwierigkeiten gewiesen, die Erkenntnis des Erkenntnisvorgangs scheinbar unmöglich gemacht und zu katastrophalen Argumentationen in der Erkenntnistheorie geführt haben, die einer Selbstvernichtung gleichkommen. Die Simulierung von erkenntniserweiternden Informationsprozessen in Automaten, welche den Phänomenen des „Erkennens" und „Lernens" analog sind, liefert Beispiele für die Verobjektivierung von Erkenntnisprozessen und kann somit als Beweis für die Möglichkeit einer gesicherten Selbstreflexion im Sinne objektiver Erkenntnis betrachtet werden. Schon lange vor der technischen Realisierung solcher Automaten hat L. Boltzmann die Rettung der menschlichen Erkenntnis vor dem Subjektivismus in der Konstruktion einer erkennenden Maschine ohne Bewußtsein gesehen: „Wir wollen uns eine Maschine als möglich denken, die so wie unser Körper aussieht und sich auch so verhält und bewegt. In ihrem Inneren soll ein Bestandteil sein, welcher durch die Wirkung des Lichtes, des Schalls usw. mittelst Organen, die genau wie unsere Sinnesorgane und die damit verknüpften Nerven gebaut sind, Eindrücke empfängt. Dieser Bestandteil soll die weitere Fähigkeit haben, Bilder dieser Eindrücke zu bewahren und durch Vermittlung dieser Bilder Nervenfasern so anzuregen, daß sie Bewegungen erzeugen, die ganz den Bewegungen unseres Körpers gleichen. Unbewußte Reflexbewegungen wären dann natürlich solche, deren Innervationen nicht so tief ins Zentralorgan eindringen, daß daselbst Erinnerungsbilder entstehen." 10 Mit dieser „fingierten Maschine" beabsichtigt Boltzmann ausdrücklich keine Reduktion der Erkenntnisoperationen auf die zu seiner Zeit geltenden Gesetze der deterministischen Mechanik. Er versteht unter „Maschine" nichts weiter als „ein System, das aus denselben Bestandteilen nach denselben Naturgesetzen aufgebaut ist wie die unbelebte Natur" 1 1 , wobei er an die Gesetze der statistischen Mechanik im Rahmen der Thermodynamik denkt; ein Bezug, der ja auch später tatsächlich von den Be10 11

5*

Boltzmann, Populäre Schriften, S. 183. Ebenda.

68

4. Der informationsverarbeitende Automat

griindern der Informationstheorie hergestellt wird. Die „ideale N a t u r " des Menschengeistes wird nach Boltzmann durch solche Analogien nicht tangiert: „Wir erklären es nur für möglich, daß dieselben Gedankensymbole und Gesetze, mittelst deren wir die besten Bilder der Vorgänge in der unbelebten Natur erhalten, in verwickelten Verbindungen auch die einfachsten und klarsten Bilder der psychischen Vorgänge geben können." 1 2 Waren Boltzmanns Überlegungen zu einer dem menschlichen Erkenntnisvermögen analogen informationsverarbeitenden Maschine noch durch keinerlei technische Realisierungen gestützt, so bauen dagegen schon die ersten Ansätze zu einer Automatentheorie von Α. M. Turing und J . von Neumann trotz ihres hypothetisch-prognostischen Charakters bereits auf dem faktischen Vorhandensein komplizierter Rechenmaschinen auf. Die Automatentheorie hat sich zwar die Leistungssteigerung und Erweiterung der Leistungsfähigkeit der Rechenautomaten über die Bewältigung bloßer Rechenprobleme hinaus zum Ziel gesetzt, um aber diese praktische Aufgabenstellung bewältigen zu können, müssen auch erkenntnistheoretische Probleme gelöst werden. Denn der informationsverarbeitende Automat ist in Analogie zum Menschen gebaut und nicht umgekehrt. Die Frage Turings, ob eine Maschine denken kann, enthält daher, wie bereits Popper 1 3 festgestellt hat, eine Falle: Eine Widerlegung der positiven Antwort auf diese Frage kann nämlich nur darin bestehen, daß ein beobachtbares menschliches Verhalten oder eine Leistung angegeben werden kann, zu der ein informationsverarbeitender Automat grundsätzlich nicht fähig ist. Kann man ein derartiges Verhalten positiv in detaillierter Weise nachweisen, so hat man damit schon eine abstrakte Anweisung für den Bau der Maschine, die diese Leistung vollbringen kann, niedergelegt, gleichgültig, ob deren technische Realisierung tatsächlich durchführbar ist oder nicht. Turing schlug zur Klärung seiner Fragestellung ein Experiment vor, das sich allein auf die Leistungsunterschiede zwischen menschlicher Intelligenz und Rechenmaschine bezieht: Man stelle sich einen Mann vor, der über Fernschreiber mit zwei Räumen (oder „schwarzen Kästen") in Verbindung steht; in dem einen befindet sich ein Mensch, in dem anderen eine Maschine. Kann 12 13

Ebenda, S. 185. Vgl. Popper, Objektive Erkenntnis, S. 250.

Automatentheorie

69

der Mann am Fernschreiber nach genügend umfangreichem Nachrichtenaustausch nicht angeben, in welchem Raum sich sein menschlicher Partner und in welchem sich die Maschine aufhält, so dürfe man mit gutem Recht von der Maschine behaupten, sie könne denken14. Mit dieser black-box-Methode greift Turing jene alte erkenntnistheoretische Argumentationsweise auf, die auch Condillacs Fiktion der Marmorstatue zugrunde liegt und sich letzten Endes auf Piatons Höhlengleichnis zurückführen läßt. Piaton ist wohl der erste gewesen, der diese Vorstellung zur Analyse des Erkenntnisprozesses verwendet hat. Während er jedoch das Gleichnis von den Gefangenen in der Höhle, die nur die Schatten der wirklichen Dinge an der Höhlenwand sehen, als anschauliches Hilfsmittel zur Erläuterung seiner Ideenlehre benützt, wird diese Analogie später gerade zur Widerlegung Piatons wieder aufgegriffen. Die Gründe für diese Widerlegungsversuche der Platonischen Ideenlehre sind sehr verschiedenartiger Natur. Bei den Kirchenvätern und den arabischen Philosophen des Mittelalters sind es vorwiegend theologische Gründe, die sich auf die Notwendigkeit der Offenbarung Gottes beziehen, ohne die es keine Erkenntnis der letzten Wahrheiten gibt. Nach Arnobius15 ist es unmöglich, daß ein Mensch, der die ersten Jahrzehnte seines Lebens in einem schwach beleuchteten, unterirdischen Gemach verbracht hat und plötzlich ins Freie gelassen wird, irgendetwas über die Welt oder Gott wissen kann. Auch die Araber Avempace und Abubacer benützen diese Fiktion, um die „Leitung des Einsamen" durch Gott zu demonstrieren, durch die für den Menschen die stufenweise Entwicklung seiner intellektuellen Fähigkeiten unabhängig von Institutionen und Meinungen der Gesellschaft möglich wird. Unter Berufung auf die „belle conjecture d'Arnobe" hat dann de la Mettrie dieses anschauliche Argumentationsmittel auf seine Überlegungen über den Menschen als Maschine übertragen16. Die Argumentationsstruktur aller dieser Versuche ist bis zu Turings moderner Version grundsätzlich stets die gleiche geblieben: Der Erkenntnisprozeß wird 14

16 18

Vgl. A.M.Turing, Can a Machine Think?, 1.Abschnitt, The Imitation Game, in: J . R . N e w m a n (Hrsg.), The World of Mathematics, New York 1965, S. 2099 f. Adversus Gentes II, S. 20. J. O. de la Mettrie, Histoire naturelle de l'âme, 1745. Vgl. Fr. Lange, Geschichte des Materialismus, 1866.

70

4. Der informationsverarbeitende Automat

nicht auf Grund eines vorausgesetzten substantiellen Wissens über das Erkenntnissubjekt oder das Erkenntnisobjekt beurteilt, sondern lediglich aus der Verhaltensweise des zugrunde liegenden Bezugssystems erschlossen. Nachdem Turing die Maschine, die in diesem „imitation game" die Rolle des Menschen übernimmt, mit den Merkmalen des digitalen Computers versehen hat, stellt er eine Reihe von möglichen Einwänden auf, die auf Grund von theologischen oder ethischen Vorurteilen gegen die Identifizierung von Mensch und Maschine erhoben werden können. Erst mit dem Hinweis auf das Gödelsche Unvollständigkeitstheorem kommt Turing zur Behandlung der logisch-erkenntnistheoretischen Seite des Problems. Denn mit der These von der Unvollständigkeit und relativen Unbeweisbarkeit jedes axiomatisch-deduktiven Systems ist auch der Einwand gegen die Möglichkeit der automatischen Gewinnung von neuer Erkenntnis verknüpft. Dieser Einwand geht historisch auf die Zeit der Erfindung des ersten Rechenautomaten durch Babbage zurück und ist von Lady Lovelace formuliert worden; er lautet: „Die analytische Maschine erhebt keinen Anspruch, etwas selbst hervorzubringen. Sie kann nur das tun, was wir ihr zu vollbringen befehlen." 17 Dieser klassische Einwand hat bereits durch E. A. Poe, auf den Shannon 18 und Brillouin 19 hinweisen, eine genauere Präzisierung erfahren. Der berühmte Verfasser scharfsinniger Kriminalgeschichten widmete der Entlarvung des rätselhaften Schachspielautomaten, der von dem Baron Kempelen 1769 gebaut und von dem Schausteller Maelzel in den Hauptstädten Europas und Amerikas ausgestellt wurde, eine eigene Abhandlung. Darin versucht er, die prinzipielle Unmöglichkeit einer Maschine nachzuweisen, die unvorhersehbare, nicht im voraus determinierte Entscheidungen trifft und sich somit von der analytischen Rechenmaschine Babbages unterscheidet. „Arithmetische oder algebraische Berechnungen sind ihrem Wesen nach bestimmt. Wenn gewisse Daten gegeben werden, müssen gewisse Resultate 17

Countess of Lovelace, Translator's Notes to an Article on Babbage's Analytical Engine, in: Scientific Memoirs, ed. R.Taylor, Vol. 3, 1842, S. 691—731. Vgl. Turing, Can a Machine Think?, S. 2114. 18 C.E.Shannon, A Chess-Playing Machine, 1950, in: J.R.Newman (Hrsg.), The World of Mathematics, Vol.4, New York 1965, S. 2125. ** Brillouin, Science and Information Theory, S. 268 f.

Automatentheorie

71

notwendig und unausbleiblich folgen. Diese Resultate hängen von nichts ab und werden von nichts beeinflußt als von den ursprünglich gegebenen Daten, und die zu lösende Frage geht ihrer endlichen Entscheidung durch eine Aufeinanderfolge von Schritten zu, die keiner Modifikation unterliegen. Da dies der Fall ist, können wir uns ohne Schwierigkeit die Möglichkeit vorstellen, eine Mechanik zu verfertigen, die von den Daten der Fragen ausgehend richtig und unabweichlich zu der Lösung vorschreitet, da dies Vorschreiten, wie verwickelt es auch immer sein mag, doch nach ganz genau bestimmtem Plane vor sich geht. Bei dem Schachspieler liegt die Sadie durchaus anders. Bei ihm ist der Fortschritt in keiner Weise bestimmt. Kein einziger Zug im Schachspiel folgt notwendig aus einem anderen. Wir können aus keiner Stellung der Figuren zu einer Periode des Spiels ihre Stellung zu einer anderen voraussagen... Es besteht also gar keine Analogie zwischen den Operationen des Schachspielers und denen der Rechenmaschine des Herrn Babbage." 20 Wenngleich sich Turing nicht entscheiden will, ob das Schachspielen jene abstrakte Tätigkeit ist, die am besten die intellektuelle Fähigkeit des Menschen repräsentiert, so ist sie doch durch die zwei von Turing hervorgehobenen grundsätzlichen Merkmale rationaler Erkenntnis bestimmt: durch 1. das Lernen aus Erfahrung und 2. die strategische Veränderung des zugrunde liegenden Planes. Die Lösung der Frage, inwieweit diese Merkmale einer maschinellen Intelligenz zugeschrieben werden können, läßt sich nach Turing nur in einer Theorie der lernenden Automaten finden, die faktisch nichts anderes bezweckt als eine Simulierung der menschlichen Evolution im phylogenetischen wie im ontogenetischen Sinn. Für die Durchführung einer solchen Theorie liefert Turing eine Reihe höchst anschaulicher Vorschläge. Sein Ausgangspunkt ist die Fiktion einer Kind-Maschine (child machine), womit er im Grunde genommen nur die klassische tabula-rasaAnalogie der aristotelischen Tradition wiederholt. Denn er vergleicht das Gehirn des Kindes mit einem „Notizbuch, wie man es vom Papierhändler kauft: ziemlich wenig Mechanismus und eine Menge blanker Seiten" 21 . Daraus gewinnt Turing die 20

21

E. A. Poe, Maelzels Schachspieler, Werke Bd. I, übersetzt von H. Möller-Bruck - H. Lachmann, Minden 1914, in: K.Völker (Hrsg.), Künstliche Menschen, München 1971, S. 225 f. Turing, Can a Machine Think?, 7. Abschnitt: Learning Machines, S. 2119.

4. Der informationsverarbeitende Automat

72

Hoffnung, daß eine solche Kind-Maschine in einer ersten Annäherung konstruiert werden kann. „Trotzdem kann man nicht erwarten, eine gute Kind-Maschine sogleich zu finden. Man muß das Unterrichten einer solchen Maschine erproben, und man muß sehen, wie gut sie lernt. Man kann es dann mit einer anderen versuchen und sehen, ob sie besser oder schlechter ist." Nach Turing ist es offensichtlich, daß zwischen diesem Prozeß und der biologischen Evolution eine eindeutige Analogie besteht, die er durch folgende Gleichsetzungen zum Ausdruck bringt: Struktur der Kind-Masdiine = Erbliches Material Veränderungen der Kind-Maschine = Mutationen Natürliche Selektion = Urteil des Experimentierenden Der Unterschied zwischen diesem Prozeß der Entwicklung und Konstruktion einer geeigneten Maschine und der biologischen Evolution besteht jedoch vor allem darin, daß die Entwicklung einer solchen Maschine sehr viel schneller vor sich gehen kann. Denn es ist weder möglich noch sinnvoll, den allmählichen Prozeß des Lehrens auf die Maschine anzuwenden so wie auf das normale Kind. Audi wird sie zum Beispiel „nicht mit Beinen versehen sein, so daß man sie nicht bitten kann, hinauszugehen und den Kohleneimer zu füllen. Möglicherweise hat sie keine Augen. Doch wie gut auch immer diese Mängel durdi eine geschickte Technik behoben werden mögen, man kann diese Kreatur nicht in die Schule schicken, ohne daß die anderen Kinder sich darüber fürchterlich lustig machen würden." 22 Mit dieser drastischen Darstellung beendet Turing endgültig jede Spekulation über äußerliche Strukturähnlichkeiten des informationsverarbeitenden Automaten mit dem Menschen. Was nach dieser Darstellung übrig bleibt, ist ein reines Funktionsmodell, das allein auf eine bestimmte Fähigkeit des Menschen ausgerichtet ist: die Fähigkeit, Informationen aufzunehmen, zu speichern und zu verarbeiten. Soweit diese Fähigkeit mit dem Phänomen der rationalen menschlichen Erkenntnis zusammenfällt, ist damit die positive Antwort auf Turings Frage, ob eine Maschine denken kann, gegeben; sie besagt, daß jede detaillierte Angabe über die Funktionsweise des menschlichen Denkens zur Konstruktion eines abstrakten Automaten verwendet werden kann. Ungefähr zur gleichen Zeit hat auch John von Neumann diese 22

Ebenda.

Automatentheorie

73

These ausgesprochen und begründet23. Er ist zu dem Ergebnis gekommen, daß die „zukünftige logische Theorie der Automaten" von der Kenntnis jenes komplexen Verrechnungsapparates abhängt, den der Mensch mit seinem zentralen Nervensystem besitzt. Es gibt zwar audi rein physikalische Faktoren, die die Leistungsfähigkeit eines Automaten begrenzen; diese sind vor allem auf das Material zurückzuführen: Beispielsweise läßt sich ein zu großer und komplizierter Apparat nur schwer handhaben, und seine Komponenten funktionieren unzuverlässig. Der grundlegende „intellektuelle Faktor", der die Leistungsfähigkeit eines Automaten beschränkt, ist jedoch in einem Mangel der logischen Theorie zu sehen. Er besteht darin, daß die effektive Lösung eines Problems für die gesamte moderne Logik nur in dessen Bewältigung in einer endlichen Anzahl von elementaren Schritten besteht und der zeitliche Aufwand, der damit verknüpft ist, nicht beachtet wird: „Jede endliche Folge von korrekten Schritten ist prinzipiell so gut wie jede andere. Es ist dabei nicht von Belang, ob die Anzahl dieser Schritte klein oder groß ist; oder vielleicht sogar so groß, daß sie möglicherweise nicht während der Lebenszeit eines Menschen oder überhaupt in der präsumtiven Lebenszeit des Stellaruniversums, so wie wir es kennen, durchgeführt werden kann." 2 4 Im Fall eines Automaten ist jedoch nicht nur das Erreichen eines Resultats bedeutsam, sondern auch die Anzahl der Schritte, die dazu erforderlich ist, spielt eine wesentliche Rolle. Der Grund für diese zusätzliche Bedingung liegt vor allem darin, daß sich bei einer langen Kette von Operationen notwendig auch die Wahrscheinlichkeit des Irrtums kumuliert, der wiederum auf der nur bedingten Zuverlässigkeit der Einzelschritte beruht. Die Logik der Automaten muß sich daher nach von Neumann in zwei relevanten Hinsichten von dem gegenwärtigen System der formalen Logik unterscheiden: 1. Die tatsächliche Länge der „Folgen des Gedankengangs", das heißt der Folgen der Operationen, muß beachtet werden. 2S

24

J. v. Neumann, The General and Logical Theory of Automata, in: Cerebral Mechanism in Behavior, Pasadena-New York 1951, S. 1—31. Wiederabdruck in: J. R. Newman (Hrsg.), The World of Mathematics 4, S. 2070 ff. Neumann, The General and Logical Theory of Automata, Abschnitt: The Future Logical Theory of Automata, wie oben, S. 2084 ff.

74

4. Der informationsverarbeitende Automat

2. Die Operationen der Logik müssen durch Prozeduren behandelt werden, die Ausnahmen (Fehlfunktionen) mit niedriger, aber nicht Null-Wahrscheinlichkeit erlauben. Die Erfüllung dieser Forderungen führt dann notwendig zu Theorien, die viel weniger starr sind, als es die vergangene oder gegenwärtige Logik ist, die durch ihren „Alles-oder-nichtsC h a r a k t e r " vollständig determiniert ist. Die Automatentheorie beruht dann auch nicht mehr auf den deterministischen Gesetzen der klassischen Mechanik, wie nodi die alte Theorie der Rechenmaschinen, sondern sie muß sich nach von Neumann einer Disziplin enger anschließen, die in der Vergangenheit nur wenig mit der Logik in Verbindung stand. Diese Disziplin ist die Thermodynamik in der Form, wie sie Boltzmann und Szilard verstanden haben. Denn nur mit solchen, den thermodynamischen Methoden ähnlichen, Verfahrensweisen läßt sich jenes Problem bewältigen, dessen Lösung ständig in der Tätigkeit des zentralen Nervensystems demonstriert wird: das Problem des Irrtums, der, wie von Neumann in einer seiner späteren Schriften betont, „nicht als ein von außen kommendes, fehlgeleitetes oder fehlleitendes Geschehen" betrachtet werden kann, sondern als ein „wesentlicher Teil des zu untersuchenden Prozesses" angesehen werden muß 2 5 . Ein Organismus, der mit einem zentralen Nervensystem ausgestattet ist, hat die grundsätzliche Fähigkeit der Irrtumskontrolle und Selbstkorrektur, die ohne jede Intervention von außen bewirkt, daß die Auswirkungen der Fehler möglichst klein gehalten werden, so daß der Fehler selbst damit unscheinbar wird. In der Automatentheorie sind sich jedoch alle E x perten einig, daß jede Fehlfunktion sofort entdeckt und durch eine Intervention von außen beseitigt werden muß, damit sie sich nicht in den nächsten Schritten vergrößert. Während natürliche Organismen so konstruiert sind, daß sie Fehler so unscheinbar und harmlos wie möglich machen, sind künstliche Automaten so entworfen, daß sie die Fehler so offensichtlich und so „fürchterlich als möglich" 2 8 erscheinen lassen. Denn jede Fehlfunktion stellt ein beträchtliches Risiko dar: Eine Maschine, die Vgl. J. v. Neumann, Probabilistic Logic and the Synthesis of Reliable Organisms From Unreliable Components, in : C. E. Shannon - J. McCarthy (Hrsg.), Automata Studies, Princeton 1956, S. 43. 2* Vgl. Neumann, The General and Logical Theory of Automata, S. 2086.

25

Automatentheorie

75

begonnen hat, fehlerhaft zu funktionieren, hat nur selten die Tendenz, sich selbst wiederherzustellen. Es setzt vielmehr sofort ein allgemeiner entartender Prozeß in der Maschine ein, der ohne Eingriff von außen unweigerlich zur vollständigen Degeneration führt. Natürliche Organismen können dagegen trotz Fehlfunktionen weiter operieren. Diese unerwünschte Eigenart der modernen digitalen Rechenmaschinen ist jedoch andererseits mit den Vorzügen hoher Stabilität und des Beinahe-gefeit-Seins gegen den Irrtum verknüpft, und zwar so lange die Komplexität des Systems nicht zu groß ist. In Fällen extremer Komplexität kann allerdings gerade das Gegenteil wahr sein. Das bedeutet dann, daß die „Logik eine Pseudomorphose zur Neurologie hin" vollziehen muß. Denn die Natur zeigt in der Organisation und Funktion des ZNS, daß sie nicht nur willens, sondern auch in der Lage ist, weiter in Richtung auf eine Komplizierung zu gehen, als es in der Automatentheorie mit Hilfe des digitalen Expansionssystems möglich ist. Eine Bestätigung der Auffassung von der Anpassung der Logik an die Physiologie des ZNS sieht von Neumann in dem Theorem von McCulloch und Pitts 27 , das im wesentlichen besagt, daß alles, was völlig und unzweifelhaft in Worte gefaßt werden kann, ipso facto durch ein entsprechendes endliches, formales Nervennetzwerk realisierbar ist. Ein solches formales Nervennetzwerk ist zwar als eine „Übervereinfachung" (oversimplification) des tatsächlichen Funktionierens des ZNS zu betrachten, da von allen Funktionen der Neuronen außer den logischen Schaltfunktionen abstrahiert wird, es ermöglicht aber, das Problem der Selbstkorrektur und Selbstreproduktion von Automaten in einem neuen Licht zu sehen. J. von Neumann knüpft bei der prinzipiellen Lösung aller dieser Probleme an Turings Beschreibung eines universellen Automaten an, dessen Prinzipien im Gegensatz zur komplizierten Konstruktion sehr einfach sind. Turing hat festgestellt, daß es möglich ist, eine allgemeine Beschreibung eines allgemeinen Automaten in einer endlichen Anzahl von Worten zu liefern. Diese Beschreibung enthält gewisse Leerphasen, die, wenn sie gefüllt werden, jeweils die Konstruktion eines spezifischen Automaten angeben. Von einem Automaten, der sich selbst reproduzieren kann, wird man nun notwendig erwarten müssen, daß seine Produkte von niedrigerer Komplexität als " Vgl. ebenda, S. 2089 ff.

76

5. Informationsprozesse und Informationsstrukturen

er selbst sind, das heißt, es tritt eine degenerierende Tendenz auf. Das gilt jedoch nur bis zu einer bestimmten Grenze der Komplikation. Wird diese Grenze der Komplikation überschritten, wie es beim zentralen Nervensystem der Fall ist und auch bei Automaten sein könnte, die ähnlich komplex konstruiert sind, dann hören die degenerativen Charakteristika auf, universell zu sein. An diesem Punkt werden nach von Neumann Automaten, die sich selbst reproduzieren oder sogar höhere Ganzheiten konstruieren können, möglich. Die Tatsache, daß Komplikation ebenso wie Organisation unterhalb eines gewissen Minimums degenerativ ist und jenseits dieser Grenze sich selbst unterstützend und sogar zunehmend sein kann, hat zwar ihre konkrete Realisierung nicht in der Automatentheorie selbst, aber dodi in der Theorie der Kommunikation zwischen Mensch und Automat gefunden.

5. Informationsprozesse und Informationsstrukturen Die folgenden Ausführungen stellen einen Versuch zur Systematisierung der erkenntnistheoretischen Grundlagen der automatischen Informationsverarbeitung dar. Spezifische Fragestellungen der formalen Logik wurden nur insoweit berücksichtigt, als sie für das Verständnis der erkenntnistheoretischen Fragestellungen notwendig sind. Der Grundgedanke, der durch den Begriff „Informationsprozesse", und zwar in Gegenüberstellung zu dem auf die formallogischen Grundlagen verweisenden Begriff „Informationsstrukturen", ausgedrückt werden soll, besteht in der vorweggenommenen These, daß sich die abstrakt-theoretischen Grundlagenprobleme der automatischen Informationsverarbeitung nicht allein auf die Fragen der Berechenbarkeit und Entscheidbarkeit beschränken, die sich letzten Endes auf eine allgemeine Theorie der Algorithmen zurückführen lassen. Die logische Perfektionierung der statischen Struktur von Programmen in Programmiersprachen ist nur die eine Seite der Frage nach der Möglichkeit der Automatisierung der Informationsverarbeitung. Denn sie legt nur die Anfangsbedingungen für den Ablauf der Verarbeitung fest, ohne sich direkt mit dem Prozeß der Verarbeitung selbst zu beschäftigen. Die Beschränkung auf die Festlegung der logisdien Struktur der An-

76

5. Informationsprozesse und Informationsstrukturen

er selbst sind, das heißt, es tritt eine degenerierende Tendenz auf. Das gilt jedoch nur bis zu einer bestimmten Grenze der Komplikation. Wird diese Grenze der Komplikation überschritten, wie es beim zentralen Nervensystem der Fall ist und auch bei Automaten sein könnte, die ähnlich komplex konstruiert sind, dann hören die degenerativen Charakteristika auf, universell zu sein. An diesem Punkt werden nach von Neumann Automaten, die sich selbst reproduzieren oder sogar höhere Ganzheiten konstruieren können, möglich. Die Tatsache, daß Komplikation ebenso wie Organisation unterhalb eines gewissen Minimums degenerativ ist und jenseits dieser Grenze sich selbst unterstützend und sogar zunehmend sein kann, hat zwar ihre konkrete Realisierung nicht in der Automatentheorie selbst, aber dodi in der Theorie der Kommunikation zwischen Mensch und Automat gefunden.

5. Informationsprozesse und Informationsstrukturen Die folgenden Ausführungen stellen einen Versuch zur Systematisierung der erkenntnistheoretischen Grundlagen der automatischen Informationsverarbeitung dar. Spezifische Fragestellungen der formalen Logik wurden nur insoweit berücksichtigt, als sie für das Verständnis der erkenntnistheoretischen Fragestellungen notwendig sind. Der Grundgedanke, der durch den Begriff „Informationsprozesse", und zwar in Gegenüberstellung zu dem auf die formallogischen Grundlagen verweisenden Begriff „Informationsstrukturen", ausgedrückt werden soll, besteht in der vorweggenommenen These, daß sich die abstrakt-theoretischen Grundlagenprobleme der automatischen Informationsverarbeitung nicht allein auf die Fragen der Berechenbarkeit und Entscheidbarkeit beschränken, die sich letzten Endes auf eine allgemeine Theorie der Algorithmen zurückführen lassen. Die logische Perfektionierung der statischen Struktur von Programmen in Programmiersprachen ist nur die eine Seite der Frage nach der Möglichkeit der Automatisierung der Informationsverarbeitung. Denn sie legt nur die Anfangsbedingungen für den Ablauf der Verarbeitung fest, ohne sich direkt mit dem Prozeß der Verarbeitung selbst zu beschäftigen. Die Beschränkung auf die Festlegung der logisdien Struktur der An-

76

5. Informationsprozesse und Informationsstrukturen

er selbst sind, das heißt, es tritt eine degenerierende Tendenz auf. Das gilt jedoch nur bis zu einer bestimmten Grenze der Komplikation. Wird diese Grenze der Komplikation überschritten, wie es beim zentralen Nervensystem der Fall ist und auch bei Automaten sein könnte, die ähnlich komplex konstruiert sind, dann hören die degenerativen Charakteristika auf, universell zu sein. An diesem Punkt werden nach von Neumann Automaten, die sich selbst reproduzieren oder sogar höhere Ganzheiten konstruieren können, möglich. Die Tatsache, daß Komplikation ebenso wie Organisation unterhalb eines gewissen Minimums degenerativ ist und jenseits dieser Grenze sich selbst unterstützend und sogar zunehmend sein kann, hat zwar ihre konkrete Realisierung nicht in der Automatentheorie selbst, aber dodi in der Theorie der Kommunikation zwischen Mensch und Automat gefunden.

5. Informationsprozesse und Informationsstrukturen Die folgenden Ausführungen stellen einen Versuch zur Systematisierung der erkenntnistheoretischen Grundlagen der automatischen Informationsverarbeitung dar. Spezifische Fragestellungen der formalen Logik wurden nur insoweit berücksichtigt, als sie für das Verständnis der erkenntnistheoretischen Fragestellungen notwendig sind. Der Grundgedanke, der durch den Begriff „Informationsprozesse", und zwar in Gegenüberstellung zu dem auf die formallogischen Grundlagen verweisenden Begriff „Informationsstrukturen", ausgedrückt werden soll, besteht in der vorweggenommenen These, daß sich die abstrakt-theoretischen Grundlagenprobleme der automatischen Informationsverarbeitung nicht allein auf die Fragen der Berechenbarkeit und Entscheidbarkeit beschränken, die sich letzten Endes auf eine allgemeine Theorie der Algorithmen zurückführen lassen. Die logische Perfektionierung der statischen Struktur von Programmen in Programmiersprachen ist nur die eine Seite der Frage nach der Möglichkeit der Automatisierung der Informationsverarbeitung. Denn sie legt nur die Anfangsbedingungen für den Ablauf der Verarbeitung fest, ohne sich direkt mit dem Prozeß der Verarbeitung selbst zu beschäftigen. Die Beschränkung auf die Festlegung der logisdien Struktur der An-

Planung und Formalisierung

77

fangsbedingungen des Informationsverarbeitungsprozesses wäre nur dann gerechtfertigt, wenn der Computer lediglich einen „Algorithmenmonolog" abhielte, der durch eine Kette unbedingter Maschineninstruktionen vorgeschrieben ist. Tatsächlich besteht aber ein jeder Prozeß der automatischen Informationsverarbeitung, der die Lösung eines komplexen Problems zum Ziel hat, aus einer Vielfalt von algorithmischen Strukturen und Strukturveränderungen, die durch eine Reihe von bedingten Befehlen hervorgerufen werden, mit H i l f e derer sich der informationsverarbeitende Automat gewissermaßen von selbst den richtigen Weg zur Lösung suchen muß. Die bereits technisch realisierte Möglichkeit des Dialogverkehrs macht jedoch erst vollends die Bedeutung klar, die der Planung des Gesamtablaufs der automatischen Informationsverarbeitung zukommt. Denn nur die Einsicht in die grundlegenden Gesetzmäßigkeiten der Planung, die jeder Art von erkenntniserweiternden Informationsprozessen vorausgeht, macht eine derartige Wechselwirkung zwischen Mensch und Maschine möglich und sinnvoll. Eine Theorie der Planung ist jedoch keine spezifische Fragestellung der formalisierten Logik und Algorithmentheorie, sondern ein Problem der Erkenntnistheorie, die es im Unterschied zu dieser statisch-formalen Disziplin nicht mit der logischen Struktur, sondern mit dem Prozeß der Erkenntnisgewinnung selbst zu tun hat. Dieser Prozeß der Erkenntnisgewinnung durch Informationsverarbeitung setzt sich zwar auch bei komplexen Problemen im Fall der automatischen Verarbeitung durdi den Computer notwendigerweise nur aus algorithmisdi lösbaren Teilproblemen zusammen, dem Gesamtprozeß selbst liegt jedoch nicht wiederum ein Algorithmus, sondern der Plan des Programmierers zugrunde, der im Dialogverkehr diesen Plan auch wieder verändern kann. Erkenntnistheoretisch relevante Festlegungen treten daher nicht nur als Anfangsbedingungen des automatischen Informationsverarbeitungsprozesses in Form der Erstellung des Gesamtplans auf, sondern auch im Dialogverkehr während des Informationsverarbeitungsprozesses, und gewinnen um so mehr an Bedeutung, je mehr sich der Dialogverkehr zwischen Mensch und Maschine zu einem einheitlichen Kommunikationssystem vervollkommnet. In diesem Sinne kann daher gesagt werden, daß die weitere Entwicklung der automatischen Informationsverarbeitung auch von der Lösung impliziter erkenntnistheoretischer Grundlagenprobleme abhängt.

78

5. Informationsprozesse und Informationsstrukturen

Die Erörterung der erkenntnistheoretischen Grenzfragen der automatischen Informationsverarbeitung wird um so dringlicher, je deutlicher die Rolle eingeschätzt werden kann, welche die automatische Informationsverarbeitung in der zukünftigen Entwicklung der Wissenschaft spielen wird. Denn schon jetzt kann in begründeter Weise behauptet werden, daß die Weiterentwicklung der automatischen Informationsverarbeitung von ausschlaggebender Bedeutung für die gesamte wissenschaftliche Forschung ist. Während der Datenverarbeitung im außerwissenschaftlichen Bereich der administrativen und kommerziellen Informationssysteme durch die praktischen Bedürfnisse und jeweiligen Produktionsverhältnisse natürliche Grenzen gesetzt sind oder im Falle der Personaldaten durch Datenschutzgesetze legistische Beschränkungen auferlegt sind, ist der Einsatz der automatischen Informationsverarbeitung in der Wissenschaft praktisch grenzenlos und durch keine wie immer gearteten Beschränkungen determiniert. Die konsequente Anwendung des Computers in der wissenschaftlichen Forschung führt jedoch auch zu einer wesentlichen Veränderung der inneren Struktur der empirischen Wissenschaft. Dieser Strukturwandel besteht in einer grundsätzlichen V e r schiebung ihrer Verfahrensweisen, und zwar von den experimentellen und messenden Verfahren hin zur theoretischen Berechnung. Diese Verlagerung des Schwerpunktes in der wissenschaftlichen Forschung ist jedoch nicht nur eine äußere Folge, die sich auf die Senkung des Zeitaufwands sowie der Kosten der Rechenvorgänge durch den Einsatz des Computers zurückführen läßt, sondern sie ist vielmehr auch im internen E n t wicklungsprozeß der empirischen Erfahrungswissenschaften begründet. Denn der Fortschritt der empirischen Wissenschaften, insbesondere der Naturwissenschaften, ist dadurch gekennzeichnet, daß sich die Forschungsobjekte mehr und mehr der direkten Beobachtung und Messung entziehen, wie etwa am Beispiel der Elementarteilchenphysik oder der Molekularbiologie ersichtlich wird. D i e Notwendigkeit einer Automatisierung der Verarbeitung der mit H i l f e von konstruktiven Beobachtungsapparaten gewonnenen Daten ergibt sich schon daraus, daß derartige Experimente eine sehr große Anzahl von Daten liefern, deren Auswertung mit einem unverhältnismäßig großen Zeitaufwand verbunden ist und deshalb auf den Computer abgewälzt werden muß. Daraus wird klar, daß mehr noch als von der Gewinnung neuer Daten mit H i l f e und durch Weiter-

Wissenschaftstheorie und Informatik

79

entwidklung von konstruktiven Beobaditungs- und Meßapparaten der wissenschaftliche Erfolg von der Verarbeitung dieser Daten abhängt. Denn erst die Verarbeitung der Daten führt zu neuen Informationen, auf die sich dann der eigentliche innovatorische Prozeß der Hypothesen- und Theorienbildung stützen kann. Auch das Problem der Bestätigung von Hypothesen und Theorien sowie die Entscheidung für eine bestimmte theoretische Erklärung bei einer Vielzahl von logisch gleichwertigen Alternativtheorien sind Aufgabenstellungen, an denen der Computer insofern beteiligt sein kann, als er ermöglicht, eine zwar sehr große, aber endliche Menge von Erklärungsstrukturen durchzuspielen und die mit den Einzeldaten am besten übereinstimmende auszuwählen. Nicht die Kenntnis spezieller Rechen- oder Verarbeitungsmethoden, deren Anwendung weitgehend automatisiert werden kann, wird künftighin entscheidend sein für die Lösung wissenschaftlicher Forschungsprobleme, sondern die Planung und Steuerung dieser Informationsverarbeitungsprozesse im Gesamtrahmen des Forschungsprojektes. Das nachfolgende Schema dient lediglich einer wissenschaftssystematischen Darstellung der Beziehungen und äquivalenten Forschungsziele, die zwischen Logik, Erkenntnistheorie und der auf diesen Grundlagendisziplinen aufbauenden Wissenschaftstheorie einerseits und der Informatik andererseits vorhanden sind. Damit soll jedoch keineswegs eine Über- und Unterordnung im Sinne einer deduktiven Wissenschaftsklassiftkation angedeutet werden, sondern vielmehr die Integration der Informatik in einem umfassenden Prozeß wissenschaftlicher und vorwissenschaftlicher Informationsvermittlung aufgewiesen werden. Der Kompetenzbereich der Informatik ist, in diesem Rahmen gesehen, zwar enger und konkreter als der Bereich der abstrakten Grundlagendisziplinen Erkenntnistheorie und Logik, er ist aber in gewisser Hinsicht weiter als derjenige der Wissenschaftstheorie, da es in der automatischen Informationsverarbeitung durch Maschinen um Informationen jeglicher Art geht, soweit sie sich formalisieren und systematisieren lassen, und nicht nur — wie in der Wissenschaftstheorie — um wissenschaftliche Informationen innerhalb eines bereits strukturierten Erklärungssystems. Der Einsatz von Computern richtet sich ja nach den vielfältigen praktischen Bedürfnissen vor allem auch des Wirtschaftslebens und der

80

5. Informationsprozesse und Informationsstrukturen

dort stattfindenden Produktionsprozesse. Dennoch bildet sein Einsatz in wissenschaftlichen Forsdiungsprozessen den zentralen und eigentlichen Anwendungsbereich der Informationsverarbeitung. Denn es geht dabei nicht nur um Speicherung und Vermittlung von Informationen, das heißt um die ökonomische Erleichterung von Kommunikationsprozessen, sondern prinzipiell um die Gewinnung neuer Informationen im Sinne einer Erkenntniserweiterung. Wissenschaft ist daher als sich ständig erweiterndes Informationssystem ausgezeichnet vor allen anderen Informationssystemen der vorwissenschaftlichen Praxis. Die konkrete Beziehung der Informatik zur Wissenschaftstheorie ergibt sidi daraus, daß Wissenschaftstheorie interpretiert werden kann als eine Metatheorie wissenschaftlicher Informationssysteme. Informationsprozesse

Informationsstrukturen

Erläuterungen : Erkenntnistheorie ist im Zusammenhang dieses Schemas zu betrachten als die methodische Rekonstruktion des Prozesses der Informationsgewinnung schlechthin, Logik als System von Regeln und Gesetzen von allgemein gültigen formalen Informationsstrukturen zur systematischen Darstellung der aus Einzelinformationen gewonnenen Erkenntnisse.

Wissensdiaftstheorie und Informatik

81

Wissenschaftstheorie bedeutet nidits anderes als die Erweiterung und Anwendung von Erkenntnistheorie und Logik auf wissenschaftliche Erkenntnis. Wissensdiaft unterscheidet sich von der vorwissenschaftlichen Erfahrung lediglich durch die systematische Planung und geordnete Darstellung ihrer Erkenntnisse. Den Charakter der Allgemeingültigkeit erhält wissenschaftliche Erkenntnis durch ihre Nachvollziehbarkeit und Beweisbarkeit. Wissensdiaft kann daher betrachtet werden: zum einen als Prozeß der wissenschaftlichen Erkenntnisgewinnung, das heißt als wissenschaftliche „Forschung", und zum anderen als Resultat dieses Prozesses, als wissenschaftliches Informationssystem. Daraus ergibt sich die der Erkenntnistheorie und Logik analoge Aufteilung von Logik der Forschung als einer Rekonstruktion des Prozesses der wissenschaftlichen Erkenntnisgewinnung und Wissenschaftslogik als einer Rekonstruktion der formalen Struktur wissenschaftlicher Erkenntnis in der Form einer metatheoretischen Beweistheorie. Betrachtet man die Informatik als die Theorie der Informationsverarbeitungssysteme, so ergibt sich sowohl eine deutliche Abgrenzung als auch ein klarer Zusammenhang zu den bisher genannten Disziplinen. Analog zur Erkenntnistheorie, die in allgemeinster Weise den Prozeß der Informationsgewinnung betrachtet, und zur Forschungslogik, die dies in besonderer Weise tut, sowie analog zur formalen Logik, die in allgemeinster Weise die formale, statische Struktur der systematischen Darstellung von Informationen regelt, und zur Wissenschaftslogik, die dies in besonderer Weise tut, zerfällt auch die Programmierung der automatischen Informationsverarbeitung in zwei Teilbereiche: einerseits in die Planung der Informationsverarbeitungsprozesse und andererseits in die Formalisierung der zu verarbeitenden Informationen. Wie die Einhaltung der Regeln der formalen Logik die Bedingung der Möglichkeit wahrer Erkenntnis darstellt, so ist auch die vollständige Formalisierung der der Problemstellung zugrundeliegenden Informationen notwendig. Denn bei den automatischen Informationsverarbeitungsprozessen handelt es sich immer um ein systemgebundenes Operieren mit Zeichen, welches das direkte Operieren mit Begriffsinhalten ersetzt. Die Informatik nimmt unter den Wissenschaften eine Sonderstellung ein. Während es in allen anderen Wissenschaften um die Erkenntnis eines bestimmten, mehr oder weniger genau definierten Gegenstandsbereichs geht, hat es die Informatik mit 6

Oeser, Band 2

82

5. Informationsprozesse und Informationsstrukturen

Informationen jeglicher Art zu tun. In der Informatik kann es sich daher auch nicht um bestimmte Inhalte der Informationen handeln, sondern ausschließlich um den Prozeß der Verarbeitung von Informationen nach bestimmten Regeln. Dadurch unterscheidet sich die Informatik von allen empirischen Realwissenschaften. Konkrete Probleme der Gewinnung, Darstellung und Verarbeitung von Erkenntnissen gibt es jedodi in jeder Wissenschaft. Deshalb erstredet sich audi der Anwendungsbereich der automatischen Informationsverarbeitung über alle möglichen Kompetenzbereiche der einzelnen Wissenschaften. Dennoch hat audi die Informatik einen eigenen Kompetenzbereich, der sich zwar nicht durch ein definites Sachgebiet, aber dodi durch eine Explikation ihres zentralen Grundbegriffs festlegen läßt. Zum Unterschied von der Shannonschen Kommunikationstheorie, die sich, wie bereits ausführlich dargestellt, nur mit dem Problem der sicheren Übertragung der Information beschäftigt, wird jedoch der Informationsbegrifi in der Informatik von vornherein nicht in dem eingeschränkten statistisch-mathematischen Sinn gebraucht, sondern als Undefinierter Grundbegriff eingeführt. Auch in den Deutschen Normen für die „Informationsverarbeitung" wird er daher ausdrücklich nur im umgangssprachlichen Sinn als „Kenntnis über Sachverhalte und Vorgänge" 1 benutzt. Diese Undefinierbarkeit des Informationsbegriffs im faditerminologischen Rahmen der Informatik führt auch zu jenen bekannten und vieldiskutierten Abgrenzungsschwierigkeiten zwischen Informatik und Informationswissensdiaften, die bis zum heutigen Tage international nodi nicht völlig geklärt sind. Je nachdem, ob der Begriff Informatik weiter oder enger gefaßt wird, fällt er mit dem präzis nicht faßbaren Begriff Informationswissenschaften 2 zusammen, unter den die verschiedensten Versuche einer systematischen Erfassung von Informations- und Kommunikationsprozessen subsumiert werden, unabhängig von der maschinellen oder automatischen Verarbeitung der Informationen. Andererseits ist jedodi auch die völlige Gleichsetzung von Informatik und Computer Science nicht ganz unproblematisch, da mit dieser Bezeichnung 1

ä

Vgl. D I N 44300 Informationsverarbeitung. Begriffe, Berlin, März 1972, S. 1. Vgl. W. Kunz - H. Rittel, Informationswissensdiaften, München 1972.

Wissenschaftstheorie und Informatik

83

nicht nur die Anwendung, sondern audi die technische Herstellung der informationsverarbeitenden Rechenanlage gemeint sein kann. In diesem Zusammenhang ist es bemerkenswert, daß die Definition des Begriffs Informatik (Informatique), wie sie von der Académie Française im April 1966 aufgestellt wurde, das Wort „Rechner" oder „Computer" nicht enthält: „Die Informatik ist die Wissenschaft von der — insbesondere durch automatische Maschinen ausgeführten — rationellen Bearbeitung von Informationen im technischen, wirtschaftlichen und sozialen Bereich."8 Auch die Verwendung von Maschinen wird in dieser Definition keineswegs zwingend gefordert, vielmehr sind auch andere Bearbeitungsmethoden zulässig. Dagegen muß jedoch gesagt werden, daß historisch gesehen das Aufkommen einer eigenen Informationswissenschaft mit der Entwicklung des Computers eng zusammenhängt. Erst dadurch wurde die Information und ihre Verarbeitung zum Gegenstand wissenschaftlicher Forschung. Der Begriff Informatik bleibt also an den Computer und seine Möglichkeiten der automatischen Informationsverarbeitung gebunden. Er läßt sich daher in sinnvoller und begründeter Weise auf eine „Theorie der automatischen Informationsverarbeitung" eingrenzen, womit freilich die Definitionsschwierigkeiten des Informationsbegriffs selbst noch nicht beseitigt sind. Die sadilich vorgegebene Bindung der Informatik an die tedinisdie Realisierungsmöglichkeit der informationsverarbeitenden Maschine führt jedoch zu einer präziseren Explikation des Informationsbegriffs als es die umgangssprachliche Formulierung — „Kenntnis über Sachverhalte und Vorgänge" — vermag. Obwohl auch der in der Informatik verwendbare Begriff der Information nicht auf eine bestimmte, inhaltlich eingeschränkte Bedeutung festgelegt werden kann — der Computer ist als eine universelle informationsverarbeitende Maschine zu betrachten —, ergibt sich die Möglichkeit, diesen Begriff dennoch, und zwar durch seine rein funktionalen Eigenschaften, näher zu bestimmen, da diese ihn gegenüber dem vagen, intuitiven Informationsbegriff der Umgangssprache auszeichnen. Bei der umgangssprachlichen Verwendung des Informationsbegriffs ist die Art und Weise, wie die Kenntnis über ® Ch. Berthet und W. Mercouroff, Informationsverarbeitung, Stuttgart 1974, S. 11. 6*

84

5. Informationsprozesse und Informationsstrukturen

Sachverhalte oder Vorgänge gegeben werden soll, durdi keinerlei Vorschriften determiniert. Es handelt sich dabei um Kenntnisse von sehr unterschiedlichen Graden der Klarheit, Deutlichkeit und Sicherheit, die im vorwissenschaftlichen Bereich der alltäglichen Erfahrung häufig nur in konkreten Situationen für einen individuellen Informationsempfänger ihre pragmat i s t e Bedeutung haben. Bei der automatischen Informationsverarbeitung geht es jedoch nicht wie beim menschlichen Denken in konkreten Begriffen um ein direktes Operieren mit Begriffsinhalten, sondern nur um ein stellvertretendes Operieren mit Zeichen, deren Bedeutung genau definiert sein muß. Nicht alle Kenntnisse über Sachverhalte und Vorgänge können daher der automatischen Informationsverarbeitung zugeführt werden, sondern nur solche, die sich in diskrete, formalisierbare Grundelemente zerlegen lassen, ohne dabei ihren Bedeutungswert zu verlieren. Damit scheidet ein großer Teil von Erkenntnissen intuitiver, „ganzheitlicher" Art aus, wie etwa diejenigen, die nicht nur in der vorwissenschaftlichen, sondern auch in der wissenschaftlichen Erkenntnis als produktiv-schöpferische Hypothesen eine besondere Rolle spielen. Lassen sich Informationen als Kenntnisse über Sachverhalte und Vorgänge jedoch in diskret bestimmbare Daten und Datenfolgen zerlegen, so ist eine erste Grundbedingung für ihre automatische Verarbeitung erfüllt. Die isolierten Daten als solche sind mit der aus ihnen resultierenden Information nicht gleichzusetzen. Wie sich jede Erkenntnis, selbst die einfachste Art der sinnlichen Wahrnehmung, erst aus einzelnen Daten aufbaut, so muß auch die für die automatische Verarbeitung geeignete und relevante Information schon bei ihrer bloßen Aufbewahrung und Wiedergewinnung in ihre diskreten Bestandteile zerlegt und jeweils durch Kombinierung der Daten wiederhergestellt werden. Der Bedeutungswert einer neuen Information, die durch einen Verarbeitungsprozeß entstehen soll, kommt daher auch erst im Prozeß der Verarbeitung der einzelnen Daten der vorgegebenen Informationen zustande. Umgekehrt muß aber auch gesagt werden, daß durch die Verarbeitung der diskreten Elemente einer vorgegebenen Information diese Information als solche ihren Bedeutungswert verlieren kann und somit als verbraucht gelten muß. Die Erarbeitung von neuen Informationen durch den Verbrauch von alten Informationen ist freilich nur dann möglich,

Wissensdiaftstheorie und Informatik

85

wenn alle diese Informationen aufeinander bezogen sind. In der individuellen, konkreten Erkenntnis und bei der umgangssprachlich verwendeten Explikation des Informationsbegriffs als Kenntnis über Sachverhalte und Vorgänge ist dieses zugrunde liegende Bezugssystem das konkrete erkenntnistheoretische Subjekt selbst, der Informationsempfänger, in bezug auf den in diesem Zusammenhang von „Erkenntnis" und „Information" gesprochen werden kann. Jedoch schon in der wissenschaftlich verobjektivierten Erkenntnis ist der Bedeutungswert einer Information auf einen definiten Bereich von allgemein gültigen Erkenntnisgegenständen bezogen, der die Summe aller bereits verwerteten Informationen darstellt. Eine für das individuelle, konkrete, informationsverarbeitende Subjekt neue Erkenntnis kann daher auch objektiv gesehen eine bereits bekannte, das heißt verwertete und verbrauchte Information darstellen und deshalb bedeutungslos und ohne wissenschaftlichen Erkenntniswert sein. Die automatische Informationsverarbeitung ist ex definitione als ein verobjektivierter Prozeß der Erkenntnisgewinnung zu betrachten. Das zugrunde liegende Bezugssystem ist daher auch nicht der informationsverarbeitende Automat selbst, dem man nur im übertragenen Sinn die Eigenschaften des „Lernens" und „Erkennens" zuschreiben kann, sondern ein definites Sachgebiet, das durch die gespeicherten Daten gekennzeichnet und abgegrenzt wird. Diese Grenzen können zwar ständig erweitert werden — jedoch nur im Rahmen dieses vorausbestimmten Sachgebietes. Die sachliche Zusammengehörigkeit der einzelnen diskreten Daten ist die Bedingung für die Möglichkeit ihrer automatischen Verarbeitung zu Informationen mit einem bestimmten Bedeutungswert; andernfalls würde der informationsverarbeitende Automat nur bedeutungslose Zeidienketten erzeugen. Rein theoretisch gesehen ist es zwar möglich, daß aus einer zufälligen Kombination von Zeichen, denen ganz beliebige Daten entsprechen, Informationen mit einem echten Bedeutungswert entstehen können. Aus der systematischen Ausschöpfung aller Kombinationen von Zeichen eines Alphabets lassen sich sogar alle Informationen, die bisher mit diesem Zeichenvorrat formuliert wurden, wie auch diejenigen, die sich in Zukunft noch damit formulieren werden lassen, in automatischer Weise herstellen. Lange vor der Erfindung und Realisierung der elektronischen Datenverarbeitung wurde ein derartiges Gedanken-

5. Informationsprozesse und Informationsstrukturen

86

experiment von K. Lasswitz in seiner Erzählung über die „Universalbibliothek" dargestellt. Dieses Gedankenexperiment zeigt jedoch, abgesehen von der auch für die elektronische Datenverarbeitung praktisch nicht durchführbaren Realisierung aller möglichen Kombinationen, daß sich das Problem der Auswahl von Informationen dabei nicht nur verschiebt, sondern vielmehr vervielfacht. Denn am Ende dieses zwar endlichen, aber sehr langen Verarbeitungsprozesses ergäbe sich eine Menge kombinatorischen Unsinns, aus dem sich die zufällig zustande gekommenen echten Informationen nicht herausfinden ließen. Daraus folgt, daß bereits vor und nicht erst nach dem automatischen Verarbeitungsprozeß feststehen muß, was als Information gelten kann. Dieses Problem der Festlegung der semantisch-pragmatischen Information als eines objektiven Wertes, der sich nicht auf einen bestimmten subjektiven Benutzer bezieht, sondern allgemein auf vorgegebene Wissensgebiete, ist Aufgabe der Informationssystemforschung. Information im objektiven Sinn kann dann als ein „systemrelativer Begriff" 4 definiert werden. Das heißt: Was als „wirkliche" Information im objektiven Sinn gelten kann, ist durch das bestimmte Informationssystem festgelegt, zu dem die Information in Bezug steht. Daher kann es so etwas wie eine „absolute Information" 5 , die unabhängig von einem System ist, nidit geben. Systemtheoretisch gesprochen können neue Informationen einem System immer nur aus dessen Umgebung zufließen. Ein anderes Problem wiederum ist die Einarbeitung und Verarbeitung dieser Information in rechnergestützten Informationssystemen. Wenn die Vergleiche zwischen der Theorie der automatischen Informationsverarbeitung und dem Problemlösungsverhalten des Menschen in der wissenschaftlichen Erkenntnis nicht nur eine vage Analogie und die Rede von der Wissenschaft als einem „Informationssystem" nicht nur eine allgemeine Metapher bleiben sollen, ist es notwendig, diesen Prozeß der Verarbeitung von Informationen nach bestimmten, festgelegten Strukturen genauer zu analysieren. Die technischen Realisierungsmöglichkeiten dieses Verarbeitungsprozesses sind jedoch an bestimmte Voraussetzungen gebunden, die auf den selek4

Vgl. A. W. Holt - F. Commoner, Events and Conditions ACM, New York 1970. Zitiert nach C. A. Petri, Interpretations of Net

s

Vgl. Brillouin, Science and Information Theory, S. 265 f.

T h e o r y , S. 8.

Boolesche Schaltalgebra

87

tiven Informationsbegrifi der Shannonschen Kommunikationstheorie zurückführen. Denn bei der automatischen Verarbeitung müssen alle Informationen unabhängig von ihrem pragmatischen, inhaltlichen Bedeutungswert auf diese elementare Entscheidung zurückgeführt werden. Schon die einfachsten Informationen, aus denen sich erst eine Erkenntnis über einen Sachverhalt und Vorgang zusammensetzt, sind ein sehr komplexes Gebilde, das als solches nicht von einem informationsverarbeitenden Automaten bewältigt werden kann. Dieser ist vielmehr prinzipiell auf eine elementare Entscheidung zwischen Zeichen, die physikalischen Zuständen entsprechen, eingeschränkt. In der gegenwärtigen Realisierung der automatischen Informationsverarbeitung durch elektronische Anlagen bezieht sich diese Entscheidung nur auf die Alternative zwischen zwei Zeichen (die Zeichen L und O der Booleschen Algebra), denen jeweils ein bestimmter Zustand der elektronischen Schaltung, nämlich Strom (Kontakt geschlossen) und Nicht-Strom (Kontakt offen), entspricht. Diese Alternativentscheidung zwischen zwei Zeichen aus einem Zeichenvorrat, der selbst nur aus zwei Zeichen besteht, kann im Sinne des gewöhnlichen Informationsbegriffs der Umgangssprache als die geringste Information gelten, die es überhaupt geben kann. Sie darf daher in diesem Sinn zutreffend als das letzte unteilbare, diskrete Grundelement der Information, als das „Atom der Information" 6 , betrachtet werden. In der Fachterminologie der Informatik wird dieses Grundelement der zu verarbeitenden Information als Bit7 bezeichnet. Daß diese elementare „Entscheidungsinformation" als solche keine inhaltliche Bedeutung im Sinne des gewöhnlichen Begriffs von Information besitzen kann, läßt sich schon aus der Booleschen Algebra selbst zeigen, von der ja der binäre Maschinenkode abgeleitet ist. Informationen im gewöhnlichen, umgangssprachlichen Sinn werden durch Begriffe mit einem bestimmten, abgrenzbaren Umfang ausgedrückt. Die Information ist um so genauer, je prä• Vgl. Zemanek - Goldscheider, Computer, S. 26. 7 Bit ist die Kurzform für ein Binärzeichen, d. h. für ein Zeichen aus einem Vorrat von nur zwei Zeichen, wenn es auf den Unterschied zwischen diesen Zeichen nicht ankommt. Davon ist das Kurzzeichen bit zu unterscheiden, das als Maßeinheit für die Anzahl der Binärentscheidungen verwendet wird. Vgl. D I N 44300, Nr. 7.

88

5. Informationsprozesse und Informationsstrukturen

ziser dieser Begrifisumfang angegeben ist, das heißt je präziser die Begriffe „definiert" sind. In der Booleschen Algebra bezeichnet „0 den Umfang eines Begriffs, unter den nichts fällt, 1 bedeutet den Umfang eines Begriffs, unter den alles fällt" 8 . In der Leibnizschen Kombinatorik steht dafür „non ens" und „ens". Entsprechend können auch die Booleschen Symbole inhaltlich nur als bloße Ja- und Nein-Entscheidungen interpretiert werden. Sie stellen Alternativentscheidungen zwischen zwei möglichen Zuständen oder Vorgängen, gleichgültig welchen Inhalts, dar. Diese elementaren Entscheidungsinformationen bilden die Grundlage für die automatische Verarbeitung von „Informationen" im eigentlichen und gewöhnlichen Sinn als begrifflich fixierte Kenntnis von Sachverhalten und Vorgängen. Von diesen elementaren Entscheidungsinformationen können im Unterschied zu dem gewöhnlichen, auf ein individuelles Erkenntnissubjekt (den Empfänger und Benutzer der Information) bezogenen Informationsbegriff in objektiver Weise rein funktionale Bestimmungen angegeben werden, die sich lediglich aus dem Prozeß der Verarbeitung selbst ergeben. Eine elementare Entscheidungsinformation wird bei der Entscheidung zwischen den beiden Zeichen bzw. Zuständen verbraucht, und zwar endgültig, in absoluter, nicht wiederholbarer Weise. Aus dieser Entscheidung wird eine neue Information gewonnen, die selbst wieder nur eine weitere Entscheidungsinformation darstellt, die „automatisch" zur nächsten Entscheidung führt usw. bis zum Ende des Verarbeitungsprozesses. Die „Information", die jeweils durch eine Entscheidung zustande kommt, ist nicht inhaltlich bestimmt, sie ist vielmehr nur als eine Information über den nächsten Schritt des Verarbeitungsprozesses zu verstehen, der als solcher nicht wiederholbar ist. Die „rekursive" Verarbeitung, die zum Ausgangspunkt eines Teiles der gesamten Entscheidungskette in einer „Schleife" zurückläuft, wiederholt daher nicht rückläufig bereits verbrauchte Entscheidungsinformationen, sondern setzt nur an einem bestimmten Punkt der Entscheidungskette zu einer neuen Folge von Entscheidungen an. Die Gesetzlichkeit, die diesem Prozeß elementarer Entscheidungen zugrundeliegt, ist demnach keine andere als die „rekurrierende Denkweise" der elementaren Arithmetik, die, wie 8

G. Frege, Begriffsschrift und andere Aufsätze, Darmstadt S. 99.

1971,

Begriffgesdiidite des Algorithmus

89

bereits gezeigt, die erste Form einer „mechanischen." Verarbeitung von Erkenntnissen darstellt. Der informationsverarbeitende Automat ist jedoch keine „Rechenmaschine" im klassischen Sinn, sondern eine logische Problemlösungsmaschine allgemeiner Art. Denn auf dieser elementaren Stufe der Booleschen Schaltalgebra fällt das Rechnen mit Zahlen mit dem logischen Sdilußfolgern zusammen. Aus diesem Zusammenfall von logischem Schließen und Rechnen ergibt sich audi die neue und allgemeinere Bedeutung des Begriffes „Algorithmus". 6. Der Algorithmus als grundlegendes Verfahren der automatischen Informationsverarbeitung Während es in der Algorithmentheorie um die formale Explikation der intuitiv gegebenen Begriffe der Entscheidbarkeit und Berechenbarkeit geht, wird in den folgenden Überlegungen die erkenntnistheoretische Funktion des Algorithmus im Prozeß der Informationsverarbeitung betrachtet. Wortsprachlich läßt sidi der Begriff Algorithmus definieren als eine Zusammenstellung von Vorschriften oder Operationsregeln, die mit Sicherheit in endlich vielen Schritten zur Lösung einer Klasse von Problemen geeignet sind. Algorithmisch lösbare Probleme sind daher nur solche Probleme, für die es ein allgemeines Lösungsverfahren gibt. Die algorithmische Unlösbarkeit eines Problems oder einer Aufgabenstellung besagt nicht, daß dieses Problem überhaupt nicht lösbar wäre, sondern meint nur die Unmöglichkeit, die Lösung aller Aufgaben einer gegebenen Klasse mit ein und demselben Verfahren bewältigen zu können. Schon aus diesen Gründen ist es naheliegend, die Klasse der algorithmisch lösbaren Probleme auf die Klasse der Rechenprobleme zurückzuführen. Audi historisch gesehen bilden die numerischen Algorithmen den Ausgangspunkt der allgemeinen Algorithmentheorie. Bekanntlich ist ja der Ausdruck „Algorithmus" aus dem Namen des arabischen Mathematikers Mohamed ibn Musa al Chwarismi abgeleitet, der um 820 ein Rechenbuch verfaßt hat, dessen lateinische Übersetzung mit den Worten „Dixit Algorizmi" beginnt. Der Begriff „Algorithmus" blieb auch dann bestehen, als man den Urheber dieses Verfahrens schon längst vergessen hatte. Im ausgehenden Mittelalter wurde Boëthius als der Erfinder der arabischen Ziffern angesehen. Die ältere Schreibweise

90

6. Der Algorithmus als grundlegendes Verfahren

„Algorismus" wurde dann durch die bis heute gebräuchliche Form „Algorithmus" verdrängt, die auch als eine arabisdie Umbildung des griechischen Wortes für „Zahl" (arithmos) gedeutet werden kann. Für die erkenntnistheoretische Betrachtung der automatischen Informationsverarbeitung ist die historische Tatsache bedeutsam, daß dieses Verfahren zur Lösung von Rechenproblemen keineswegs von vornherein auf eine „mechanische" Anwendung ausgerichtet war, sondern geradezu im Gegenteil als Ersatz für das ältere „mechanische" Rechenverfahren mit dem Abakus oder Rechenbrett dienen sollte. Zwischen den „Algorithmikern", die das Dezimalsystem der indisch-arabischen Ziffern benutzten, und den „Abacisten" herrschte noch im 15. Jahrhundert der schärfste Gegensatz. Wenngleich die arabischen Ziffern gelegentlich auch auf dem Rechenbrett verwendet wurden, spielten sie doch freilich nur eine Gastrolle und verschwanden bald wieder, denn ihre eigentliche Aufgabe sollte es sein, den Abakus überflüssig zu machen1, durch den man auf ein Manipulieren mit Rechensteinchen (calculi) beschränkt war. Rechenmaschinen, welche die numerischen Algorithmen der Grundrechnungsarten Addieren, Subtrahieren, Multiplizieren automatisch durchführen konnten, wurden erst im 17. Jahrhundert durch Schickard, Leibniz und Pascal zu konstruieren versucht. Der Grundgedanke, algorithmische Lösungsverfahren von einer Maschine ausführen zu lassen, ist jedoch wesentlich älter. Er geht bis ins 13. Jahrhundert auf die ars magna des Raimundus Lullus zurück. Dem katalanischen Mönch ging es aber nicht um die Konstruktion einer Rechenmaschine, sondern um ein Missionsinstrument, das in mechanischer Weise alle Wahrheiten aus den Grundprädikaten Gottes herleiten sollte. Damit folgte er einem Grundgedanken der islamischen Theologie, der von den arabischen Logikern aufgegriffen und vertreten wurde. Obwohl die Lullische Kunst nicht speziell zur Lösung mathematischer Probleme geschaffen worden war, wurde dennoch wegen ihres universalen Anspruchs auch die Behandlung numerischer oder algebraischer Algorithmen als ein Teil der ars magna angesehen. Nachdem jedoch die ars magna in der Renaissance immer mehr zu einer Geheimlehre wurde und in den Untergrund wissen1

Vgl. B. L. van der Waerden, Erwachende Wissenschaft. Ägyptische, babylonische und griechische Mathematik, Basel 1966, S. 96.

Begriffgeschichte des Algorithmus

91

schaftlicher Bemühungen verschwand, blieb der Begriff „Algorithmus" wieder auf den ursprünglichen Bereich der mathematischen Probleme beschränkt. In seiner allgemeinsten Bedeutung sollte er nicht mehr ausdrücken als ein erkenntnistheoretisches Postulat, nämlich die prinzipielle Lösbarkeit aller mathematischen Probleme, die durch den Fortschritt der Mathematik in ihrer historischen Entwicklung nahegelegt wurde. Denn der Großteil der mathematischen Forschung war seit jeher auf die Auffindung von allgemeinen Lösungsverfahren gerichtet, die sich in mathematischen Kurzformeln als generelle Vorschriften darstellen. Eine präzise allgemeine Definition des Algorithmus war jedoch aus solchen Bestimmungen besonderer Lösungsverfahren nicht zu gewinnen. Erst die metamathematische Beweistheorie sollte einen Ansatz zu einer allgemeinen Theorie der Algorithmen liefern. Denn in der „Metamathematik" geht es nach der axiomatisch-formalistischen Auffassung Hilberts prinzipiell um ein allgemeines Verfahren, durch Ableitung aus nur wenigen Axiomen die Widerspruchsfreiheit einer mathematischen Theorie, zum Beispiel der Geometrie, zu beweisen. Allerdings erwies sich die bereits von Frege aufgestellte Forderung nach einer totalen Axiomatisierung der gesamten Mathematik nach dem Prototyp der euklidischen Geometrie als undurchführbar. Denn die Zielsetzung, die Mathematik durch ein lückenloses Gerüst von Definitionen und Beweisen aus den Gesetzen und Grundbegriffen der Logik ableiten zu wollen, scheiterte schon an der Mindestforderung, daß die Axiome einander nicht logisch widersprechen dürfen. Dieser vor allem durch die sogenannten „Antinomien der Mengenlehre" deutlich gewordenen Tatsache wurde zwar in Whiteheads und Russells logizistischem Begründungsversuch Rechnung getragen, der Grundgedanke einer allgemeinen formalen Begründung der Mathematik jedoch nicht aufgegeben. Auf den Begriff des Algorithmus bezogen heißt das, daß an der Möglichkeit eines allgemeinen Verfahrens festgehalten wurde; eines Verfahrens, nach dem man in formaler Weise entscheiden könne, ob von einer beliebigen mathematischen Formel feststehe, daß sie aus den vorgegebenen Axiomen abgeleitet werden könne oder nicht. Damit hat sich jedoch die Frage nach einem allgemeinen Algorithmus auf ein effektives Verfahren der Beurteilung eingeengt, während in der Kombinatorik von Lull und Leibniz die ars iudicandi, das Beurteilungs- und Entscheidungsverfahren, immer mit der ars inve-

92

6. Der Algorithmus als grundlegendes Verfahren

niendi, der Kunst der Erzeugung von neuen Erkenntnissen, verknüpft war. Eine weitere erkenntnistheoretisdie Konsequenz für die formale Algorithmentheorie ergibt sich aus dem Resultat der Gödelschen Kritik an den „Principia Mathematica" von Whitehead und Russell, die zur Aufdeckung von formal unentscheidbaren Sätzen führte. Gödel zeigte bekanntlich an relativ einfachen Problemen aus der Theorie der natürlichen Zahlen, daß es Aussagen gibt, die sich nicht durch Ableitung aus den vorgegebenen Axiomen entscheiden lassen. Das Unentscheidbarkeitstheorem Gödels weist jedoch auch schon auf die Unmöglichkeit der positiven Formulierung des allgemeinen Algorithmus hin. Damit war der Weg angegeben, nach dem die Frage nach einer allgemeinen und doch präzisen Definition des intuitiv gegebenen Begriffs des Algorithmus beantwortet werden sollte. Er besteht in dem erkenntnistheoretisdi paradoxen Bemühen, den allgemeinen Begriff des Algorithmus durch Beweise für die algorithmische Unlösbarkeit von gewissen Problemen anzugeben. Dieses Verfahren ist jedodi deswegen gerechtfertigt, weil die Aussage, daß es keinen Algorithmus zur Lösung gewisser Probleme gebe, eine Aussage über alle möglichen Algorithmen darstellt und der in solchen Aussagen vorkommende Begriff des Algorithmus durdi die logischen Operationen, die für die Unlösbarkeitsbeweise notwendig sind, genau festgelegt wird. Die gesamte Entwicklung der allgemeinen Theorie der Algorithmen hat gezeigt, daß dieser negative Weg der einzig mögliche war 2 . In allen Versuchen, die konkret zur Lösung des logisdien Entscheidungsproblems oder des in der elementaren Arithmetik entsprechenden Problems der Berechenbarkeit durchgeführt wurden, ging es prinzipiell um die Trennung von generell lösbaren und generell unlösbaren Problemen. Eine positive Bestimmung des Algorithmusbegriffs ergibt sich also gewissermaßen auf einem Umweg dadurch, daß sich die jeweils mit verschiedenen Methoden und an versdiiedenen konkreten Problemen gewonnenen Bestimmungen von „Berechenbarkeit" als äquivalent erweisen. Ausgangspunkt waren die sogenannten „primitiv-rekursiven" Funktionen, zu denen die Mehrzahl der arithmetischen Funk2

Vgl. W. Brauer - K. Indermark, Algorithmen, rekursive Funktionen und formale Spradien, Mannheim 1968, S. 7.

Rekursionstheorie

93

tionen gehört. Der Begriff der rekursiven Funktion läßt sich erkenntnistheoretisch aus der Theorie der mathematischen Begriffsbildung erklären. Erkenntnistheoretisch gesehen, beruht die Bedeutung der Zahlbegrifie weder auf irgendwelchen Ähnlichkeiten der zählbaren Dinge nodi auf der Anzahlgleichheit bestimmter Klassen von Mengen, sondern prinzipiell auf der Funktion der Zahl im Gesamtsystem der Zahlenreihe. Die „rekurrierende Denkweise" (Skolem), durch die diese rein funktionale Bedeutung der Zahlbegriffe begründet wird, besteht in der Notwendigkeit, die Erzeugung des nächsten diskursiven Schrittes in der Zahlenreihe von dem vorhergehenden abhängig zu machen. Aus dieser Beziehung ergeben sich jene elementaren Funktionen, durch die jede Zahl bestimmt ist. Die plausibelste dieser Funktionen ist in diesem Zusammenhang die sogenannte „Nadifolgerfunktion" f (x) = χ + 1, die ja im Grunde genommen nichts anderes ausdrückt als die bekannte Begriffsbestimmung der Zahl, wonach jedes Glied der Zahlenreihe von dem benachbarten durch „Hinzufügung" bzw. das Fehlen einer „Einheit" unterschieden ist3. Verwendet man derartige elementare arithmetische Funktionen als Ausgangsfunktionen, so kann man mit Hilfe weniger allgemeiner, konstruktiver Verfahren immer kompliziertere arithmetische Funktionen aufbauen. Die Funktionen, die man aus solchen elementaren Funktionen mit Hilfe der Superposition 4 und der primitiven Rekursion 5 in endlicher Anzahl und in beliebiger Reihenfolge erhalten kann, nennt man primitiv-rekursive Funktionen. Daß dieser Begriff der primitiv-rekursiven Funktionen nicht mit dem intuitiven Begriff der Berethenbarkeit überhaupt zusammenfällt, sondern nur eine erste Annäherung war, ging bereits aus Ackermanns Konstruktion einer berechenbaren, aber nicht primitiv-rekursiven Funktion hervor·. Eine allgemeinere 3

4

5

6

Vgl. zu dieser Interpretation G. Frege, Die Grundlagen der Arithmetik, Breslau 1934, S. 69, und E. Cassirer, Substanzbegrifí und Funktionsbegriff, Berlin 1910, S. 67. Bestimmte arithmetische Funktionen werden in die Argumente anderer arithmetischer Funktionen substituiert. Eine n-stellige arithmetische Funktion wird aus zwei gegebenen Funktionen gewonnen, von denen die eine eine (n-l)-stellige und die andere eine (n+l)-stellige Funktion ist. W.Ackermann, Zum Hilbertschen Aufbau der reellen Zahlen, in: Mathematische Annalen 99, 1928.

94

6. Der Algorithmus als grundlegendes Verfahren

Definition der Berechenbarkeit, unter die audi die von Ackermann konstruierte Funktion fiel, wurde mit dem Konzept der allgemein-rekursiven Funktion (J. Herbrand und K . Gödel) geliefert. Mit der Bestimmung der allgemein-rekursiven Funktionen bzw. der partiell rekursiven Funktionen (Kleene) war nach der These von Church der intuitiv verwendete Begriff der berechenbaren arithmetischen Funktionen vollständig und präzise erfaßt. Diese These konnte deswegen ausgesprochen werden, weil es gelang, eine gänzlich andersartig gewonnene Definition des Berechenbarkeitsbegriffs (die Lambda-Definierbarkeit) mit dem Berechenbarkeitsbegriff der allgemein-rekursiven Funktionen äquivalent zu setzen. Daß diese formallogischen oder zahlentheoretischen Bestimmungen der Entscheidbarkeit und Berechenbarkeit in engem Zusammenhang mit dem Begriff der mechanischen bzw. automatischen Berechenbarkeit stehen, war schon vor der Realisierung der elektronischen Rechenanlagen durch Turings Überlegungen zu einer abstrakten Lösungsmaschine deutlich geworden. Derartige Überlegungen waren deshalb naheliegend, weil jede Definition der Berechenbarkeit, soweit sie formal expliziert wird, auf eine streng determinierte Normung der logischen Operationen hinausläuft. Es handelt sich daher um Vorschriften, welche die Durchführung in allen ihren Einzelschritten von vornherein genau festlegen, und zwar bis zu ihrem Ende. Diese Vorschriften sind nicht an einem einzigen Problem oder an besonderen Bedingungen orientiert, sondern sind allgemein an eine bestimmte Klasse von Problemen geknüpft. Die abstrabte Konstruktion einer Maschine, die in automatischer Weise, aber nach determinierenden Vorschriften zur Lösung dieser Probleme gelangt, bedeutet dann eine weitere Präzisierung des Berechenbarkeitsbegriffs. Das heißt jedoch auch, daß es bei der Konstruktion der Turing-Maschine selbstverständlich primär nicht um das Problem der technischen Realisierung der „mechanischen" Berechenbarkeit, sondern um deren logische Definition geht. Mit anderen Worten: Die präzise logische Definition der Berechenbarkeit wird durch eine Rekonstruktion der Durchführungsbestimmungen eines determinierten mechanischen Ablaufs gewonnen. Dieser Zusammenhang wurde durch Turings Nachweis der Gleichwertigkeit seines Berechenbarkeitsbegriffs mit der Lambda-Definierbarkeit von Church bestätigt. Von ebenso entscheidender Bedeutung für die logische Grundlegung der automatischen Informationsverarbeitung war der

Rekursionstheorie

95

Versudi des russischen Mathematikers A. A. Markov, eine allgemeine Theorie der Algorithmen in direkter Weise als eine Theorie der Zeidienersetzung zu formulieren. Denn die automatische Informationsverarbeitung besteht prinzipiell in einer Umformung von Zeichenreihen. Daß diese Umformung der Zeichenreihen durch Ersetzung eines Zeichens durch ein anderes Zeichen nach genau determinierten Regeln, letzten Endes durch eine elementare Entscheidung zwischen zwei physikalischen Zuständen realisiert wird, ist ein weiterer Aspekt, der sich nicht auf die logischen Grundlagen, sondern auf die technische Realisierung der abstrakten Lösungsmaschine bezieht 7 . Konkret heißt das nur, daß die Zeichen der Markovschen Algorithmen in den binären Kode übersetzt werden müssen. Während der Begriff der mechanischen Berechenbarkeit von Turing selbst noch aus der Analyse des Begriffs der numerischen Algorithmen gewonnen wurde, sind die Markovschen Algorithmen bereits aus einer allgemeinen Theorie der Algorithmen abgeleitet worden, die mathematische bzw. algebraische und logische Algorithmen umfaßt. Markov ging von der Tatsache aus, daß sich jeder Algorithmus als eine Vorschrift zur Umformung oder Veränderung von Zeichenreihen auffassen läßt. Das Rechnen mit Buchstaben in der Algebra macht diese Auffassung von vornherein plausibel. Algorithmen können daher in allgemeinster Weise als konstruktiv angebbare Zuordnungen zwischen Wörtern in abstrakten Alphabeten verstanden werden, wobei Wörter nichts anderes als beliebige endliche, geordnete Folgen von Buchstaben sind. Es handelt sich also im Prinzip wieder um den in der Geschichte der Logik durch Leibniz bereits explizit erörterten Gedanken, es müsse „eine Art Alphabet der menschlichen Gedanken ersonnen und durch Kombination der Buchstaben dieses Alphabets und durch die Analyse der aus ihnen gebildeten Wörter alles gefunden und beurteilt werden" 8 . Diese Kombinationen können jedoch nicht willkürlich ausgewählt oder dem Zufall überlassen werden, sondern sind durch bestimmte Zuordnungsregeln festgelegt. Markov konstruierte in seiner Algorithmentheorie Algorithmen als Komplexe von 7

8

Vgl. H. Zemanek, Some Philosophical Aspects of Information Processing, in: The Skyline of Information Processing, ed. by H. Zemanek, Amsterdam-London 1972, S. 100. G. W. Leibniz, Die philosophischen Schriften, hrsg. von C. J. Gerhardt, Berlin 1875—1890, Bd. VII, 185, S. 292 f.

96

6. Der Algorithmus als grundlegendes Verfahren

Zeichenersetzungsregeln und bezeichnete diese als Normalalgorithmen. Mit dem sogenannten „Normalisierungsprinzip" vertrat er eine ähnlidie These wie Church und Turing, die mit dem Satz — „Alle Algorithmen sind normalisierbar."· — am prägnantesten wiedergegeben werden kann. Damit wird jedoch nichts anderes ausgesagt als die Äquivalenz der Markovsdien Normalalgorithmen mit den rekursiven Funktionen, die dann auch später von V. K. Detlov tatsächlich nachgewiesen wurde 10 . Die Äquivalenz oder Gleichwertigkeit aller dieser Verfahren von Herbrand-Gödel, Church, Turing und Markov besagt, daß diese Verfahren aufeinander rückführbar sind und daß damit auf verschiedenen, formal möglichen Wegen eine allgemeine Theorie der Algorithmen und der Berechenbarkeit überhaupt gefunden worden ist. Turings Darstellung zeigt auch, daß die allgemeine Definition der Berechenbarkeit notwendig mit der mechanischen Berechenbarkeit zusammenfällt. Das bedeutet, daß alle algorithmisch lösbaren Probleme — und zwar nur diese — von einer Maschine bearbeitet werden können. Die Unlösbarkeitsbeweise, die vor allem für mathematische Probleme mit Hilfe der Theorie der Turing-Maschinen aufgestellt wurden, haben daher auch denselben Charakter wie die Unlösbarkeitsbeweise, die aus den äquivalenten Verfahren der Definition der Berechenbarkeit und Entscheidbarkeit gewonnen wurden. Es handelt sich nicht um die Undurchführbarkeit gewisser Aufgaben mit besonderen Hilfsmitteln, wie etwa Zirkel und Lineal, die durch andere Hilfsmittel ersetzt werden können, sondern es wird vielmehr eine negative generelle Existenzbehauptung bezüglich aller nicht nur tatsächlich gefundenen, sondern überhaupt möglichen effektiven Entscheidungsverfahren aufgestellt und sogar streng bewiesen. Diese Unlösbarkeitsbeweise, die der präzisen Definition des allgemeinen Algorithmus dienten, können zwar ebenfalls als Unlösbarkeit einer Aufgabe mit gewissen Hilfsmitteln interpretiert werden, doch scheint es, wie E. Post formulierte 11 , daß diese Hilfsmittel die einzigen sind, die dem Menschen zur Lösung dieser Aufgaben zur Verfügung stehen. ' Nach V. M. Glusdikow, Einführung in die technische Kybernetik I, München-Pulladi-Berlin 1970, S. 27. 10 V. K. Detlov, The Equivalence of Normal Algorithmus and Recursive Functions, in: AMS Transí. Ser. 2, Vol. 23. 11 Vgl. Brauer - Indermark, Algorithmen, rekursive Funktionen und formale Sprachen, S. 3.

Rekursionstheorie

97

Bei allen diesen Formulierungen der algorithmischen Unlösbarkeit, der logischen Unentscheidbarkeit oder Nichtberechenbarkeit ist jedoch zu beachten, daß es stets nur um die generelle Unlösbarkeit einer ganzen Klasse von Problemen mit Hilfe eines allgemeinen Verfahrens geht und nicht, wie bereits anläßlich der wortsprachlichen Definition des Begriffs Algorithmus betont wurde, um die Unlösbarkeit schlechthin. Denn es ist durchaus möglich, ein einzelnes bestimmtes Problem zu lösen, ohne daß es dafür ein allgemeines Lösungsverfahren gibt. Das gewöhnliche Denken und Handeln (Experimentieren) im vorwissensdiaftlichen Bereich ist voll von solchen Einzellösungen alltäglicher Probleme. Damit wird jedoch schon eine prinzipielle Grenze der medianischen Lösbarkeit bzw. der automatischen Informationsverarbeitung als solcher deutlich. Denn diese ist auf die algorithmisch lösbaren Probleme beschränkt, das heißt auf allgemeine Lösungsverfahren, die unabhängig von den konkreten, situations- und gegenstandsgebundenen Einzelbedingungen sind, nach denen sich das gewöhnliche Denken richtet. Für die präzise Verallgemeinerung eines Lösungsverfahrens gibt es jedoch nur einen Weg: die vollständige Befreiung vom gegenstandsgebundenen Denken in konkreten Begriffen der natürlichen Wortsprache, mit anderen Worten: die vollständige Formalisierung oder Kalkülisierung. Denn Verallgemeinerung besagt nichts anderes als Formalisierung. Wenngleich schon durch Turings abstrakten Begriff der mechanischen Beredienbarkeit klar geworden ist, daß alle logischen Operationen der algorithmischen Lösungsverfahren von einer Lösungsmaschine ausgeführt werden können, ist mit dieser Verselbständigung oder Automatisierung des Problemlösungsverfahrens nodi keineswegs eine Gleidisetzung mit den Begriffen des „Denkens" oder „Erkennens" vollzogen, denn dabei handelt es sidi stets um spontane Aktionen, während die Durchführung von logischen Operationen durch eine Maschine an Durchführungsbestimmungen oder Befehle gebunden ist. Die „Selbständigkeit" des informationsverarbeitenden Automaten ist daher nur eine bedingte und eingeschränkte. Daß überhaupt von „Automatisierung" und nicht nur von einer bloßen Übertragung der Durchführung der logisdien Operationen auf eine Maschine die Rede sein kann, liegt in der Tatsache begründet, daß bei der Realisierung algorithmischer Problemlösungsverfahren die Anzahl der Befehle oder Vorschriften wesentlich geringer sein kann als die Zahl der durchzuführenden Operationen. Prak7

Oeser, Band 2

98

6. Der Algorithmus als grundlegendes Verfahren

tisch bedeutet das, daß sich damit die gesamte theoretische Fragestellung nach der Möglichkeit und den Grenzen der automatischen Informationsverarbeitung auf das Problem der Befehlsübertragung auf die Maschine mit Hilfe eines geeigneten Verständigungsmittels verlegt. Konkret wurde dieses Problem bekanntlich durch die Konstruktion der sogenannten algorithmischen Sprachen gelöst. Die zugrunde liegende erkenntnistheoretische Problematik ist schon bei Betrachtung des Verwendungszwecks dieser Sprachen als Hilfsmittel zur Programmierung ersichtlich. Es handelt sich um ein Denken in algorithmischen Strukturen, das nicht zur direkten Lösung der gestellten Probleme selbst, sondern zur Abfassung von Verarbeitungsvorschriften für die Maschine führen soll. Je näher die Sprache, in der diese Verarbeitungsvorschriften abgefaßt sind, dem spezifischen konstruktiven Aufbau und der Arbeitsweise der Maschine angepaßt ist, um so direkter lassen sich die Vorschriften oder Instruktionen in Aktionen der Maschine umsetzen. Man spricht in diesem Fall von maschinennahen oder maschinenorientierten Sprachen. Sie sind stets operativ in dem Sinne, daß sie sich aus einzelnen bedeutungsisolierten Elementen zusammensetzen, welche Befehle oder Maschineninstruktionen darstellen. Allerdings sind diese Sprachen wegen ihrer Unübersichtlichkeit wenig geeignet, das Problemlösungsverfahren selbst direkt zu beschreiben. Denn das gewöhnliche logische Denken orientiert sich immer an dem Gesamtzusammenhang des Problems. Die sogenannten „problemorientierten" Programmiersprachen können deshalb auch als „benutzerorientierte" Sprachen12 bezeichnet werden. Sie dienen primär dazu, die Algorithmen, das heißt die allgemeinen logischen Problemlösungsverfahren, zu formulieren, mit Hilfe derer die besonderen, konkreten Probleme „automatisch", ohne weiteres Nachdenken über die Verfahrensweise, gelöst werden können. Die notwendige Übersetzung der in einer solchen „höheren", benutzerorientierten Sprache formulierten Programme ist mit keinen prinzipiellen Schwierigkeiten verknüpft, sondern ist eher als ein praktisches oder sogar technisches Problem zu betrachten. N u r wenn die Vorschrift zur Übersetzung vollständig in algorithmischen Strukturen abgefaßt ist, ist es möglich, daß die Maschine selbst diese Übersetzung vornehmen kann. 12

Vgl. F. L. Bauer - G. Goos, Informatik, l.Teil, Berlin-HeidelbergNew York 1971, S. 137.

Algorithmisdie Spradien

99

Diese grundlegende Bedeutung des Algorithmus als eines logischen Entscheidungsverfahrens hat jedoch dazu geführt, in der logischen Perfektionierung die Hauptaufgabe der theoretisdien Grundlagenforschung der automatischen Informationsverarbeitung zu sehen. Denn die Gesetze der formalen Logik bilden die ideale Norm jeder Informationsgewinnung und Informationsverarbeitung. Sie stellen die allgemeine conditio sine qua non für die Wahrheit einer Erkenntnis dar. Dennoch hat sich gezeigt, daß die Erfüllung dieser Normen in der Praxis der Informationsverarbeitung auf große Schwierigkeiten stößt. In der Frühzeit der Programmierung war man der Auffassung, daß bei genügender Sorgfalt das Sdireiben eines absolut fehlerfreien Programms möglich sei. Es wurde jedoch bald klar, daß man prinzipiell immer mit Fehlern rechnen muß, deren Entdeckung, Lokalisierung und Beseitigung oft zeitraubender ist als das Sdireiben des gesamten Programms selbst. Im Extremfall konnte es sogar geschehen, daß der Computer „nach einem langen Arbeitstag schließlich als einziges Resultat feststellte, das Programm sei fehlerhaft" M . Der eigentliche Grund für diese Unzulänglichkeit liegt nicht in der Fehlerhaftigkeit der logisdien Strukturen selbst, sondern in ihrer Anwendung. Jedes abstrakte, logisdi konstruierte System verliert in seiner Anwendung auf die inhaltlich bestimmten Probleme der realen Welt seine Eindeutigkeit und Geschlossenheit. Diese Grenzen der logischen Perfektionierung lassen sidi jedoch erkenntnistheoretisch genau angeben.

7. Die Grenzen der logisdien Perfektionierung der automatischen Informationsverarbeitung Daß die logisdien Grundlagen der automatischen Informationsverarbeitung lange vor der Erfindung der Computer entstanden sind, geht bereits deutlidi aus der Gesdiidite der Algorithmentheorie hervor. Nicht zu Unrecht verweist man auf Leibniz und mandimal noch weiter zurück auf die in der Gesdiidite der Logik berüditigten drehbaren Kreise des katalanischen Möndis 1S

7*

Vgl. Chr. Stradiey, Problemanalyse und Programmierung, in: Information, Computer und künstliche Intelligenz, hrsg. von K. Steinbuch, Frankfurt/M. 1970, S. 80.

Algorithmisdie Spradien

99

Diese grundlegende Bedeutung des Algorithmus als eines logischen Entscheidungsverfahrens hat jedoch dazu geführt, in der logischen Perfektionierung die Hauptaufgabe der theoretisdien Grundlagenforschung der automatischen Informationsverarbeitung zu sehen. Denn die Gesetze der formalen Logik bilden die ideale Norm jeder Informationsgewinnung und Informationsverarbeitung. Sie stellen die allgemeine conditio sine qua non für die Wahrheit einer Erkenntnis dar. Dennoch hat sich gezeigt, daß die Erfüllung dieser Normen in der Praxis der Informationsverarbeitung auf große Schwierigkeiten stößt. In der Frühzeit der Programmierung war man der Auffassung, daß bei genügender Sorgfalt das Sdireiben eines absolut fehlerfreien Programms möglich sei. Es wurde jedoch bald klar, daß man prinzipiell immer mit Fehlern rechnen muß, deren Entdeckung, Lokalisierung und Beseitigung oft zeitraubender ist als das Sdireiben des gesamten Programms selbst. Im Extremfall konnte es sogar geschehen, daß der Computer „nach einem langen Arbeitstag schließlich als einziges Resultat feststellte, das Programm sei fehlerhaft" M . Der eigentliche Grund für diese Unzulänglichkeit liegt nicht in der Fehlerhaftigkeit der logisdien Strukturen selbst, sondern in ihrer Anwendung. Jedes abstrakte, logisdi konstruierte System verliert in seiner Anwendung auf die inhaltlich bestimmten Probleme der realen Welt seine Eindeutigkeit und Geschlossenheit. Diese Grenzen der logischen Perfektionierung lassen sidi jedoch erkenntnistheoretisch genau angeben.

7. Die Grenzen der logisdien Perfektionierung der automatischen Informationsverarbeitung Daß die logisdien Grundlagen der automatischen Informationsverarbeitung lange vor der Erfindung der Computer entstanden sind, geht bereits deutlidi aus der Gesdiidite der Algorithmentheorie hervor. Nicht zu Unrecht verweist man auf Leibniz und mandimal noch weiter zurück auf die in der Gesdiidite der Logik berüditigten drehbaren Kreise des katalanischen Möndis 1S

7*

Vgl. Chr. Stradiey, Problemanalyse und Programmierung, in: Information, Computer und künstliche Intelligenz, hrsg. von K. Steinbuch, Frankfurt/M. 1970, S. 80.

100

7. Die Grenzen der logisdien Perfektionierung

Raimundus Lullus, der zum ersten Mal die Idee hatte, auf mechanische Weise Begriffe zu kombinieren, die zu einer automatischen Erkenntnisgewinnung führen sollten. Jedoch erst die moderne formalisierte Logik, wie sie seit Frege besteht, konnte eine verwertbare Grundlage f ü r die Informatik liefern. Die Bedeutung der formalisierten Logik für die Informatik ist so selbstverständlich, daß man diese Tatsadie eigentlich kaum zu erwähnen braucht. Denn jede automatische Informationsverarbeitung setzt eine unmißverständliche Sprache und somit vollständige Formalisierung voraus. N u r innerhalb formalisierter, künstlicher Zeichensprachen ist das gewöhnliche (nicht automatisch ablaufende) Operieren mit Begriffsinhalten ersetzbar durch das automatische Operieren mit Zeichen. Mit anderen Worten: Die automatische Informationsverarbeitung beruht auf der Möglichkeit, „Denkprozesse" auf „Rechenprozesse" zurückzuführen. Eine derartige Reduktion ist deshalb berechtigt, weil es sich beim „Denken" im eigentlichen und engeren Sinn, beim sogenannten „logischen Denken", das von Glauben, Meinen, Vermuten usw. unterschieden ist, stets um logische Operationen handelt, die beweisbar oder widerlegbar sein müssen. Ein effektives Verfahren, über den Wahrheitswert einer Aussage eine klare Entscheidung zu treffen, besteht in der Ableitung dieser Aussage aus anderen Aussagen, deren Wahrheitswert bereits bekannt ist. Eine derartige Entscheidung ist von der Voraussetzung abhängig, daß es nur zwei Wahrheitswerte gibt, zwischen denen die Entscheidung fällt. Die deduktive Logik ist daher auf zwei Wahrheitswerte, „wahr" oder „falsch", eingeschränkt. Eine dritte Entscheidungsmöglidikeit wird nach dem Prinzip vom ausgeschlossenen Dritten nicht zugegeben. Dieses Verfahren, eine Aussage mit Hilfe von Ableitungsbeziehungen zu beweisen oder zu widerlegen, ist dem „Rechnen" gleichwertig. Denn audi beim Rechnen handelt es sich um ein Entscheidungsverfahren, das in endlich vielen Schritten zur Lösung einer Aufgabenstellung führt. Der allgemein logische Begriff der Ableitbarkeit ist daher dem speziellen Begriff der Berechenbarkeit äquivalent. Damit wird ein genau definierter Bereich des „logischen Denkens" hervorgehoben, der für die automatische Verarbeitung geeignet ist. Die theoretischen Grundlagen dieses automatischen Verarbeitungsprozesses sind also bereits in den allgemeinen Regeln der formalisierten mathematischen Logik festgelegt. Andererseits muß jedoch daran erinnert werden, daß eben

Ableitbarkeit und Beredienbarkeit

101

diese Grundlagen nicht für die Informatik eigens geschaffen worden sind, sondern einem anderen Zweck und einer anderen Zielsetzung dienten. Die moderne formalisierte Logik, deren eigentlichen Beginn man mit Freges Begriffsschrift ansetzen kann, hat sich primär als metamathematisches Beweisverfahren konstituiert, das heißt also als ein Verfahren zur Sicherung von bereits gewonnenen Erkenntnissen. Dasselbe läßt sich auch von der Erweiterung des Anwendungsbereiches dieses Verfahrens im Sinne der Wissenschaftslogik sagen. Auch dort geht es um die formale Sicherung bzw. Präzisierung der Wissenschaftsspradie durch Begriffsexplikation und Analyse der logischen Struktur wissenschaftlicher Erklärungsformen, nicht aber um die Verarbeitung und Gewinnung von neuen Erkenntnissen. Bei der automatischen Informationsverarbeitung handelt es sich jedoch stets um die Planung von Erkenntnisprozessen im Sinne systemgebundener Operationen: systemgebunden selbstverständlich durch den technischen Apparat, etwa durch das Schaltsystem des elektronischen Apparates, der die automatischen Operationen realisiert, systemgebunden vor allem aber durch das logische System der formalisierten Sprache, das heißt durch die logische Syntax oder logische Grammatik der künstlichen Zeichensprache. Der erkenntnistheoretische Aspekt an diesem systematisch regulierten Prozeß der Informationsverarbeitung ist die methodisch geplante Entstehung von neuer Erkenntnis. Die ursprüngliche Intention des formallogischen Systembegriffs ist jedoch eine andere, nämlich nicht die Erzeugung von neuen Erkenntnissen, sondern die Rechtfertigung von bereits gewonnenen Erkenntnissen im Sinne einer Beweistheorie. Im Sinne der klassischen Logik eine ars iudicandi und keine ars inveniendi. In der Informatik geht es aber eigentlich um beides, um eine methodisch vorausgeplante Erkenntnis mit dem Charakter der Notwendigkeit des logischen Systems, das heißt um eine „automatische" Erkenntnisgewinnung, die durch den Plan oder das Programm auf ein bestimmtes Ziel eingeschränkt ist. Das leistet weder die klassische Syllogistik (als deduktives Ableitungssystem) noch die neue mathematische Logik in ihrer ursprünglichen Version. Denn auch hier ist die Zielsetzung eine andere. Die formalisierte Logik ist von Mathematikern für die Mathematik entworfen worden. Frege sieht die erfolgreiche Anwendung seiner Begriffsschrift primär auf den Gebieten mathematischer Beweisführung, wie etwa bei der Grundlegung der Differential- und Integralrechnung, und versucht von dort aus,

102

7. Die Grenzen der logischen Perfektionierung

die Anwendungsbereiche seines Verfahrens sukzessiv zu erweitern (Geometrie, Mechanik, Physik). Das logizistische Programm von Frege ebenso wie das von Russell und Whitehead ist bezogen auf den Aufbau einer formalisierten Logik zu beweistheoretischen Zwecken für die Mathematik. Noch deutlicher ist die Zwecksetzung des formalistischen Programms von Hilbert im Anschluß an die Axiomatisierung der Geometrie: Metamathematik als formalisierte Beweistheorie. Das Ziel dieser metamathematischen Beweistheorie ist der Aufbau der mathematischen Theorie als axiomatisches System im Rahmen einer formalen Sprache, die keine umgangssprachlichen Ausdrücke mehr enthält. Nur dadurch können überhaupt die Forderungen der Beweistheorie nach Vollständigkeit und Widerspruchslosigkeit behandelt werden. Als Resultat ergibt sich der Systembegriff der formalen Axiomatik zum Unterschied von der anschaulichen Axiomatik, die es sdion seit der euklidischen Geometrie gegeben hat. Die moderne, formale Axiomatik oder das axiomatische System läßt zum Unterschied von der klassischen anschaulichen Axiomatik die Forderung nach der Evidenz, der Einsichtigkeit der Axiome, fallen; die Forderung der Unabhängigkeit der Axiome des Systems voneinander bleibt bestehen. An die Stelle des Evidenzpostulats tritt das Kriterium der Widerspruchsfreiheit, das erst dann exakt formuliert werden kann, wenn ein axiomatisches System oder eine axiomatische Theorie kalkülisiert ist, das heißt total formalisiert ist. Mit dem Kriterium der Widerspruchsfreiheit ist das zweite Kriterium verknüpft: die Vollständigkeit oder Abgeschlossenheit des Systems, von der die Entscheidbarkeit einer Aussage, das heißt ihre Ableitbarkeit aus einem vorgegebenen Axiomensystem, abhängt. Auf die Schwierigkeiten dieses Programms hat Gödel in der bereits erwähnten Arbeit 1 hingewiesen. Nach dem Erscheinen dieser Schrift sprach der Mitarbeiter Hilberts, P. Bernays, sogar von einem Fiasko der Metamathematik. Daß jedoch diese Schwierigkeiten nicht unüberwindlich sind, hat die weitere Entwicklung der formalen Logik gezeigt. Denn grundsätzlich ist es möglich, eine ganze Hierarchie von logisch abgeschlossenen Systemen aufzubauen, in welchen unentsdieidbare Aussagen in dem jeweils vorgeordneten System zu entscheidbaren Aus1

K. Gödel, Ober formal unentsdieidbare Sätze der Principia Mathematica und verwandter Systeme, in: M. h. Math. Phys. 38, 1931.

Ableitbarkeit und Beredienbarkeit

103

sagen werden und Undefinierte Begriffe zu definierbaren Begriffen. Die Axiomatisierung einer Theorie zu einem logisch geschlossenen, vollständigen System, in dem die im Rahmen dieses Systems gestellten Fragen entscheidbar sind, führt nidit zu neuen Erkenntnissen, sondern nur zur Explikation von logisdien Ableitungsbeziehungen. Als Beleg dafür kann das Wort des bekannten Mathematikers Felix Klein dienen: „Wenn ein Mathematiker keine Ideen mehr hat, treibt er Axiomatik." 2 Das formalisierte, axiomatisch-deduktive System ist somit also ein im Prinzip nicht mehr erweiterungsfähiges, weil nicht mehr erweiterungsbedürftiges System. Es ist daher ein statisch-abgeschlossenes System. Auch die Erweiterung der Metamathematik durch die Wissenschaftslogik erbrachte zunächst noch keine Veränderung dieses Systembegriffs. Denn die Zielsetzung der Wissenschaftslogik war dieselbe wie die der Metamathematik, nämlich die Überprüfung und Sicherung wissenschaftlicher Aussagesysteme, und zwar nur bezüglich ihrer formalen Struktur. Wissenschaftslogik ist nach Carnaps ursprünglicher Definition Analyse der logischen Syntax der Wissenschaftssprache. Dieses rein formalistische Verfahren führt selbst zu keiner Realerkenntnis, sondern nur zu einem metatheoretisdien formalistischen System, das die bereits bekannten Erkenntnisse in einer sekundären Rationalisierung in logisch präziserer Form darstellt und dadurdi entweder logische Fehler entdeckt oder, was der eigentliche Sinn dieses Verfahrens ist, den Beweis f ü r die logische Wahrheit erbringt. Trotzdem enthält dieses Verfahren der Wissenschaftslogik schon einen grundsätzlichen Unterschied zur Metamathematik. Während es sidi in der Metamathematik um die Vorordnung eines formalen Systems vor ein anderes formales System handelt, dessen Undefinierte Grundbegriffe dadurch zu definierbaren Begriffen und dessen unbewiesene Grundsätze zu beweisbaren Sätzen werden, geht es in der Wissenschaftslogik um die Vorordnung einer formalen Metatheorie vor eine inhaltlich bestimmte Realwissenschaft, die selbst nicht in einer künstlichen Formelsprache abgefaßt ist, sondern in einer terminologisch geregelten Fachsprache, die letzten Endes auf der natürlichen !

Zitiert nadi H. Mesdikowski, Mathematiker Lexikon, Mannheim 1964, S. 141.

104

7. Die Grenzen der logischen Perfektionierung

Sprache aufgebaut ist. Die Wissenschaftslogik als eine Untersuchung der logischen Grammatik oder Syntax der Wissensdiaftssprachen ist aber nur von begrenztem Wert. Denn damit wird zwar das grundlegende formallogische Verfahren der Ableitung oder des Beweises rein syntaktisch, das heißt allein unter Bezugnahme auf die formale Struktur von Aussagen in die Wissensciiaftssprache explizit eingeführt. Die logische Folgerung, die grundlegendste logische Operation, ist damit jedoch nodi nicht in ihrer eigentlichen Bedeutung erfaßt. Abstrahiert man nicht vom Inhalt der Begriffsworte, dann ist die logische Folgerung eine einfache Operation, die sich notwendig aus Sinn und Bedeutung des Begriffs ergibt. Die logisdie Folgerung ist somit eigentlich eine „semantische" Beziehung, die als solche nicht formalisierbar ist. Die Formalisierung dieser logisdh-semantischen Beziehung kann daher nur dadurch geschehen, daß man dazu ein rein syntaktisches „Spiegelbild" in der Gestalt eines Kalküls, der nur von formalen Regeln beherrscht wird, zu konstruieren versucht. Damit wird jedoch die einfache Folgerungsbeziehung der klassischen, nichtformalisierten Logik zu einer sehr komplizierten Angelegenheit. Die im Sinne der klassischen Logik komplizierteren zusammengesetzten Gegenstände, wie ganze Urteile und Schlüsse, sind für die Kalkülisierung der Logik die einfachere Angelegenheit. Der Aussagenkalkül ist dementsprechend einfacher als der Prädikatenkalkül. Aber erst im Prädikatenkalkül erweist sich die Leistungsfähigkeit der formalisierten Logik, die darin besteht, daß die auf Inhalte angewiesene und damit mehr oder weniger willkürliche, subjektabhängige Folgerung zu einem notwendigen, objektiven, automatisch sicheren Rechenvorgang gemacht wird. Erst im Prädikatenkalkül oder „Funktionenkalkül" wird der Aufbau von Urteilen aus Begriffen in der formalisierten Logik darstellbar. Nach Darstellung von Hilbert-Ackermann läßt sich der Satz: „Cajus ist ein Mensch" symbolisch ausdrücken durch M(Cajus). Soll das Prädikat „Menschsein" allein ausgedrückt werden, dann wird das Funktionszeichen mit einer Leerstelle verwendet: M ( ). U m die Allgemeinheit von Aussagen zu kennzeichnen, kann man die Leerstelle des Funktionszeichens mit einer Variablen, zum Beispiel x, y, z, ausfüllen: Μ (χ). U m aber vollständige Allgemeinheit zu erreichen, muß man die bestimmten Prädikate durch bloße schematische Prädikatenbuchstaben ersetzen, die von manchen Logikern als „Prädikatenvariable" bezeichnet

Semantisdie Probleme

105

werden. Man erhält dadurch „atomare Formeln" von der Art Fx. Zur Aussage kann diese allgemeine logische Funktion erst wieder dadurch werden, daß die Leerstelle der logisdien Funktion, die gewissermaßen nur provisorisch durch „Individuenvariable" ausgefüllt ist, durch bestimmte Argumentwerte, das heißt Eigennamen von Individuen, wirklich ausgefüllt und der schematische Prädikatbuchstabe durch ein bestimmtes Prädikat ersetzt wird. Diese atomaren Formeln sind aber in dieser Form zu unbestimmt, als daß sie Sätze über reale Sachverhalte darstellen könnten. Es müssen daher sogenannte Quantoren eingeführt werden: ein komplexes Symbol V x für den Existenz quantor, welcher bedeutet: „es gibt mindestens ein Ding x", und ein anderes komplexes Symbol A x für: „für alle Dinge χ (in der Welt) gilt". Führt man ein logisches Symbol —> für die Negation, die durch das Wort „nicht" ausgedrückt wird, ein und für die Verknüpfung „und" ein Verknüpfungszeichen Λ, so ist der symbolische Apparat vollständig. Das Zeichen für „oder" ν und das Konditionalzeichen „wenn — dann" -> sowie das Bikonditional „dann und nur dann wenn" «-+ sind auf Λ und —ι reduzierbar. Es lassen sich dann alle Operationen ausführen, die sonst in der Wortsprache durchgeführt werden. Das eigentliche Problem der Kalkülisierung eines Erkenntnisgebietes und seiner Sprache liegt jedoch nicht in dem Operieren mit dem Zeichen selbst, das damit zu einer „technischen" Angelegenheit geworden ist, sondern in der Deutung der logischen Satzfunktion, die durch die atomare Formel Fx dargestellt wird. Das heißt also: Nidit in der Syntaktik, sondern in der Semantik. Die grundlegende Schwierigkeit besteht in dem Verhältnis von Prädikat und (Individuen-)Variabler. Die bloße Satzfunktion Fx kann zunächst nur dann zu einer Aussage werden, wenn die Variablen durch Quantoren gebunden werden. Damit wird die freie Variable, in die sonst alle möglichen Argumentwerte eingesetzt werden können, auf einen bestimmten Individuenbereich oder auf bestimmte Individuenmengen bezogen. Die entscheidende Frage in diesem Zusammenhang aber lautet: Weldie Individuenmenge bildet für ein gegebenes Prädikat das Reservoir, aus dem spezielle Werte seiner Individuenvariablen genommen werden dürfen? Was ist bei F (χ, y, . . . ) für χ, y usw. zulässig?® Die Bedeutung des Prädikats F bestimmt die 3

B. von Freytag-Löringhoff, Logik, Stuttgart 1955, S. 188.

106

7. Die Grenzen der logisdien Perfektionierung

zulässige Menge der Individuen. Die Frage aber nadi der Bedeutung des Prädikats kann nidit mehr im Rahmen des Kalküls beantwortet werden. Mit der Beantwortung dieser Frage beschäftigt sidi eben die sogenannte Semantik, die jedodi als rein logische Semantik von der deskriptiven linguistischen Semantik zu unterscheiden ist. Denn die Vermischung der logisch-erkenntnistheoretischen mit der linguistischen Fragestellung in der Spradiphilosophie hat nichts zur Klärung dieses Problems beigetragen, sondern nur zu übertriebenen Radikalisierungen der kognitiven Funktion der Sprache geführt, so daß die Sprache oft als letztes, nicht hintergehbares Fundament, auf dem alle Erkenntnis beruht, betrachtet wird. Beispiel für diese radikale These ist Whorf, nach dessen Meinung die Formen des persönlichen Denkens durch „unerbittliche Strukturgesetze" beherrscht werden, die dem Denkenden gar nidit bewußt sind. Diese Struktursdiemata sind in den natürlichen Sprachen enthalten: „Jede Sprache ist ein eigenes riesiges Struktursystem, in dem die Formen und Kategorien kulturell vorbestimmt sind, aufgrund derer der einzelne sidi nicht nur mitteilt, sondern auch die Natur aufgliedert, Phänomene und Zusammenhänge bemerkt oder übersieht, sein Nachdenken kanalisiert und das Gehäuse seines Bewußtseins baut." 4 Demgegenüber muß aber gesagt werden, daß es gerade der Sinn und die Zielsetzung von Logik und Erkenntnistheorie ist, nidit nur jene „unbemerkten" Strukturgesetze durch eine Analyse des Phänomens der natürlichen Sprache explizit zu machen, sondern audi durch Rekonstruktion und Umkonstruktion der der Sprache immanenten logischen Gesetzmäßigkeiten ein neues und besseres Werkzeug des Erkennens zu schaffen. „Statt der Grammatik blindlings zu folgen", sagte schon Frege, „sollte der Logiker vielmehr seine Aufgabe darin sehen, uns von den Fesseln der Sprache zu befreien." 5 Die Unhintergehbarkeit der natürlichen Sprache läßt sich nur insofern behaupten, als die letzte Metaspradie, in der über alle anderen logisdi verbesserten, formalisierten Spradien gesprochen werden kann, nur die natürliche Sprache selbst sein kann. Aber gerade in diesem Verfahren ist sdion das dem einzelnen vorherbestimmte Struktursystem des gewöhnlichen Denkens überwunden. Denn die 4 5

B. L. Whorf, Sprache, Denken, Wirklichkeit, Reinbek 1963, S. 53. G. Frege, Sdiriften zur Logik und Sprachphilosophie, Hamburg 1971, S. 61.

Semantisdie Probleme

107

Oberwindung der Abhängigkeit von der natürlichen Sprache geschieht durch die Formalisierung und Kalkülisierung. Aus dem bisher Gesagten wird klar, daß die Formalisierung des logischen Sdiließens zu Aussagenkalkülen nur beschränkte Möglichkeiten zur automatischen Verarbeitung komplizierter Oenkprozesse bietet, da der Aussagenkalkül nidit in den inneren Aufbau der elementaren Aussagen selbst eindringt. Mit Hilfe von Aussagenkalkülen lassen sich ohne weiteres Algorithmen aufbauen, die dann durch eine geeignete Formalisierung, wie sie Boole mit seiner Formelsprache intendierte, die auf der „Analogie zwischen logischen und arithmetischen Rechnungsarten"® beruht, durch elektronische „Rechenmaschinen" ausgeführt werden können. Denn die streng geregelte Tätigkeit des logischen Verknüpfens von Aussagen kann auch mit geeigneten Schaltungen realisiert werden, da für die Verknüpfung von Aussagen und die Zusammensetzung von Schaltungen die gleichen Gesetze aufgestellt werden können. Auf dieser Isomorphie von „Aussagenalgebra" und „Schaltalgebra" beruht die Möglichkeit der „automatischen" Informationsverarbeitung durch elektronische Maschinen. Diese Isomorphie wird dadurch erreicht, daß die elementaren logischen Operationen — Negation, Konjunktion und Alternation ( = A d junktion oder Disjunktion) —, wortsprachlich durch „nicht", „und", „oder" ausgedrückt, mit Hilfe von Schaltungen in einem elektrischen Schaltnetz simuliert werden können. Auf diese Weise wird jede automatische Informationsverarbeitung auf die elementaren Entscheidungsinformationen der Shannonschen Informationstheorie zurückgeführt, deren Grundelemente durch bestimmte physikalische Zustände realisiert sind. Da jedoch die Programmierung oder Festlegung des Verarbeitungsprozesses, das heißt das Aufstellen der Folge der Befehle für die Maschine, wegen der Unübersichtlichkeit des Verfahrens nicht im binären Maschinenkode erfolgen kann, verschiebt sich die Frage nach der logischen Perfektionierung der automatischen Informationsverarbeitung auf die Theorie der formalisierten Programmiersprachen. Es war daher naheliegend, eine Lösung dieses Problems auf der Grundlage der allgemeinen Zeichenlehre, der Semiotik, anzustreben. Mit der Übertragung der von Charles W. Morris aufgestellten Unterscheidung von Syntaktik, Semantik und Pragmatik ist jedoch zunächst nur eine • Frege, Begrifîssdirift, S. 100.

108

7. Die Grenzen der logisdien Perfektionierung

Systematisierung der zugrunde liegenden Fragestellungen, nicht aber ihre Lösung, erreicht. Es besteht vielmehr im Gegenteil durch die Übertragung der verallgemeinerten Zeichentheorie auf die Theorie der Informationsverarbeitung die Gefahr der Verdeckung von grundlegenden Problemen, die nur durch eine genauere Analyse des Gebrauchs dieser drei Einteilungsschemata sichtbar werden. So läßt sich zwar mit einer gewissen Berechtigung die Shannonsche Kommunikationstheorie mit der Syntaktik als Zeichenfigurations- oder Satzbaulehre gleichsetzen, weil es in ihr nur um die Beziehung der Zeichen untereinander, nicht aber um das semantisdie Problem der Bedeutung der Zeichen geht. D a jedoch die Realisierung von syntaktischen Regeln, die im Fall der automatischen Informationsverarbeitung letzten Endes immer auf algorithmische Strukturen zurückgeführt werden müssen, von den technischen Möglichkeiten der Nachrichtenübertragung abhängt, hat man mit dem zusätzlichen Problem der Übertragungsstörungen zu rechnen, welche die abstrakten syntaktischen Regeln ihres absoluten Sicherheitsgrades berauben und den Prozeß der Verarbeitung mit wahrscheinlichkeitstheoretischen Überlegungen zusätzlich belasten. Andererseits kann aber auch der Begriff „Semantik" im Bereich der automatischen Informationsverarbeitung nicht in dem gewöhnlichen Sinn von „Bedeutungslehre" aufgefaßt werden, die sich auf den Wahrheitsgehalt der Aussagen selbst und nicht auf ihre Verknüpfung mit anderen Aussagen bezieht. Denn in den formalisierten Sprachen ist, wie die Überlegungen Tarskis zum „semantischen" Wahrheitsbegriff zeigen, die Übereinstimmung des Denkens mit dem Gegenstand nicht mehr auf das direkte Erfassen der Ähnlichkeitsbeziehungen der Dinge untereinander zurückzuführen, sondern auf die metasprachlich erfaßbaren Beziehungen zwischen den Aussagen in einer Objektsprache und den von ihnen beschriebenen Tatsachen. Eine derartige „indirekte" Korrespondenztheorie der Wahrheit ist jedoch nichts anderes als eine Verfeinerung des kohärenztheoretischen Wahrheitsbegriffs, der nun im Sinne der Prädikatenlogik nicht mehr allein auf die Verknüpfung von Aussagen (Sätzen) gerichtet ist, sondern auf die innere Struktur der Aussage, das heißt auf die Verknüpfungen von Prädikat und Variablen, bezogen ist und damit nur ein rein syntaktisches Verfahren zur Folge hat. D a m i t wird zwar der enge Zusammenhang von Syntaktik und Semantik in den formalisierten Sprachen deutlidi, aber zugleich ver-

Algorithmische Unlösbarkeit des Prädikatenkalküls

109

sdrwindet audi die scharfe Grenze zwischen diesen beiden Bereichen. Denn die (semantische) Bedeutung ist dann nichts anderes als eine syntaktische Funktion. Da es sidi bei den Programmiersprachen um anwendungsbezogene Sprachen handelt, die stets operativ sein müssen, weil sie den Computer-Aktionen zugeordnet sind, wird auch der Unterschied von Semantik und Pragmatik undeutlich. Die eigentliche Bedeutung der Pragmatik wird erst dann sichtbar, wenn man sie von den formal lösbaren syntaktischen und semantischen Problemen trennt und sie als nichtformalisierbare erkenntnistheoretische Fragestellung ansieht. Diese Fragestellung läßt sidi bereits durdi den Hinweis auf den unterschiedlichen erkenntnistheoretischen Wert des Aussagen- und Prädikatenkalküls für die automatisdie Informationsverarbeitung genauer präzisieren. Denn die technisdi realisierte automatische Aussagenverknüpfung führt nur zu relativ trivialen Resultaten, ebenso wie die Aussagenlogik gewissermaßen nur die selbstverständliche Grundlage alles richtigen Denkens expliziert. Die Automatisierung solcher selbstverständlicher logisdier Operationen führt daher nur zu einer Entlastung des menschlichen Denkens, nicht aber zu einem verbesserten Verfahren der Erkenntnisgewinnung. Wie sidi die eigentliche Bedeutung der formalisierten, mathematischen Logik nicht in der Aussagenlogik, sondern erst in der Prädikatenlogik erweist, so bildet auch die Verwendbarkeit des Prädikatenkalküls in der automatischen Informationsverarbeitung den eigentlichen Prüfstein für ihre Leistungsfähigkeit. Die Besonderheit des Prädikatenkalküls liegt aber eben darin, daß neben den „Aussagenvariablen", die nur die beiden möglichen Werte „wahr" und „falsch" annehmen können, auch Gegenstands- oder Individuenvariable in Betracht gezogen werden müssen und somit die Frage nach einem inhaltlich bestimmten Gegenstandsbereich auftritt. Da es sich jedoch um eine Kalkülisierung, das heißt um eine totale Formalisierung handelt, kann diese Frage nur durch die quantifikatorischen Methoden der extensionalen Begriffsbildung beantwortet werden. Das heißt, daß nicht die inhaltliche Bedeutung des Prädikats, sondern die Grenze des Umfangs des Gegenstandsbereichs angegeben wird. Damit ist aber audi klar geworden, daß dieses Verfahren explizit nur auf endliche Gegenstandsbereiche bezogen sein kann. Bei einer derartigen Beschränkung reduziert sidi aber der Prädikatenkalkül seinem Wesen nadi auf den Aussagenkalkül, weil dann die Bindung durch Quantoren nichts

110

7. Die Grenzen der logisdien Perfektionierung

anderes ist als eine verkürzte Schreibart für Konjunktionen und Disjunktionen, die sich über den ganzen Gegenstandsbereich erstrecken7. Während es jedoch auf einfache Weise möglich ist, bezüglich der Aussagenkalküle ein allgemeines Verfahren oder einen Algorithmus für die Ableitbarkeit anzugeben, hat das Entscheidbarkeitsproblem des Prädikatenkalküls im allgemeinen keine Lösung. Durch die Reduktion des Prädikatenkalküls für endliche Gegenstandsbereiche mit Hilfe der gebundenen Quantoren läßt sich zwar unter der Bedingung der Vollständigkeit die Gültigkeit einer Formel, die dem Ableitungssystem angehört, beweisen, damit wird jedoch kein allgemeines Verfahren angegeben, um die Nicht-Allgemeingültigkeit einer beliebigen Formel des Prädikatenkalküls in irgendeinem Gegenstandsbereich aufzuzeigen. Daß dieser Mangel nicht zu beheben ist, wurde formal von Church bewiesen8. Für die automatische Verarbeitung ergibt sich daraus die Konsequenz, daß nur im günstigsten Fall, wenn eine Formel allgemeingültig ist, das Verfahren des Beweisens irgendwann einmal endet. Da es aber kein effektives Verfahren für die Widerlegung der Allgemeingültigkeit gibt, endet das Verfahren im ungünstigsten Fall, wenn es sich um die Nicht-Allgemeingültigkeit handelt, überhaupt nicht, sondern es kann vielmehr, wie Quine drastisch formuliert, ergebnislos „weiter- und weiterlaufen und uns für immer auf heißen Kohlen sitzen lassen."9 Damit sind die Grenzen der logisdien Perfektionierung der automatischen Informationsverarbeitung aus der immanenten Gesetzmäßigkeit der formalen Logik selbst angegeben. Es handelt sidi jedoch nidit um absolute und unüberschreitbare Grenzen. Denn obwohl es keinen universellen Lösungsalgorithmus für den Prädikatenkalkül geben kann, lassen sich dennoch partielle Lösungsprozeduren angeben, die freilich nur dann von praktischem Wert für die automatische Informationsverarbeitung sein können, wenn der automatische Verarbeitungsprozeß selbst unterbrochen und durch äußeres Einwirken in eine andere 7

Vgl. Glusdikow, Einführung in die technische Kybernetik I, S. 100. Vgl. A. Churdi, An Unsolvable Problem of Elementary Number Theory, in: American Journal of Mathematics 58, 1936, S. 345 bis 363, und: A Note on the Entscheidungsproblem, in: Journal of Symbolic Logic 1, 1936, S. 40—41,101—102. • W. v. O. Quine, Grundzüge der Logik, Frankfurt/M. 1974, S. 247. 8

Forsdiungslogik und Planungstheorie

111

Richtung gelenkt werden kann. Die technische Realisierung einer solchen Programmunterbrechung beruht auf der klaren Trennung der Eingabe/Ausgabe-Programme von den eigentlichen Rechenprogrammen. Damit ändert sich aber das Problem der mechanischen Lösbarkeit von Informationsverarbeitungsproblemen vollständig. Denn dann bildet nicht mehr ein starrer Algorithmus die unveränderbare Grundlage des Verarbeitungsprozesses, sondern es werden vielmehr durch ständige Korrektur und Umwandlung des Verarbeitungsprozesses komplexe Verfahren von Problemlösungen aufgebaut. Dem Aufbau derartiger komplexer Problemlösungsverfahren muß jedoch ein Plan zugrunde liegen. Die Erstellung eines solchen Planes ist zwar an algorithmische Teilstrukturen gebunden, kann aber selbst nicht mehr nur als ein Gegenstand der formalen Logik oder der allgemeinen Algorithmentheorie angesehen werden. Eine Theorie der Planung ist vielmehr als eine pragmatische Erweiterung der Erkenntnistheorie zu betrachten. Im Bereich der wissenschaftlichen Erkenntnis wird die Planungstheorie zu einer „Logik der Forschung" im ursprünglich heuristischen Sinn dieses Ausdrucks. Für die automatische Informationsverarbeitung aber bildet die Planungstheorie die Grundlage für die Lösung komplexer Probleme.

8. Planung und Organisation von Informationssystemen Die systematische Planung von erkenntniserweiternden Informationsprozessen bildet seit jeher die entscheidende Grundlage f ü r den Fortschritt und die Entwicklung der Wissenschaften. Betrachtet man mit Dobrov „Wissenschaft" als ein „kompliziertes dynamisches Informationssystem, das der Mensch zur Auswahl, Analyse und Verarbeitung von Informationen geschaffen hat, um neue Wahrheiten, neue, praktische Anwendungsmöglichkeiten zu erschließen" 1 , dann wird der pragmatische Charakter der Planungstheorie bereits im Rahmen der Forschungslogik deutlich. Zum Unterschied von den an der Metamathematik orientierten beweistheoretischen Verfahren der Wissenschaftslogik geht es in der Forschungslogik nicht primär um die Sicherung von bereits gewonnenen Erkenntnissen, sondern um ein heuristisches Verfahren zur Gewinnung von neuen 1

G. M. Dobrov, Wissenschaftswissenschaft, Berlin 1969, S. 23.

Forsdiungslogik und Planungstheorie

111

Richtung gelenkt werden kann. Die technische Realisierung einer solchen Programmunterbrechung beruht auf der klaren Trennung der Eingabe/Ausgabe-Programme von den eigentlichen Rechenprogrammen. Damit ändert sich aber das Problem der mechanischen Lösbarkeit von Informationsverarbeitungsproblemen vollständig. Denn dann bildet nicht mehr ein starrer Algorithmus die unveränderbare Grundlage des Verarbeitungsprozesses, sondern es werden vielmehr durch ständige Korrektur und Umwandlung des Verarbeitungsprozesses komplexe Verfahren von Problemlösungen aufgebaut. Dem Aufbau derartiger komplexer Problemlösungsverfahren muß jedoch ein Plan zugrunde liegen. Die Erstellung eines solchen Planes ist zwar an algorithmische Teilstrukturen gebunden, kann aber selbst nicht mehr nur als ein Gegenstand der formalen Logik oder der allgemeinen Algorithmentheorie angesehen werden. Eine Theorie der Planung ist vielmehr als eine pragmatische Erweiterung der Erkenntnistheorie zu betrachten. Im Bereich der wissenschaftlichen Erkenntnis wird die Planungstheorie zu einer „Logik der Forschung" im ursprünglich heuristischen Sinn dieses Ausdrucks. Für die automatische Informationsverarbeitung aber bildet die Planungstheorie die Grundlage für die Lösung komplexer Probleme.

8. Planung und Organisation von Informationssystemen Die systematische Planung von erkenntniserweiternden Informationsprozessen bildet seit jeher die entscheidende Grundlage f ü r den Fortschritt und die Entwicklung der Wissenschaften. Betrachtet man mit Dobrov „Wissenschaft" als ein „kompliziertes dynamisches Informationssystem, das der Mensch zur Auswahl, Analyse und Verarbeitung von Informationen geschaffen hat, um neue Wahrheiten, neue, praktische Anwendungsmöglichkeiten zu erschließen" 1 , dann wird der pragmatische Charakter der Planungstheorie bereits im Rahmen der Forschungslogik deutlich. Zum Unterschied von den an der Metamathematik orientierten beweistheoretischen Verfahren der Wissenschaftslogik geht es in der Forschungslogik nicht primär um die Sicherung von bereits gewonnenen Erkenntnissen, sondern um ein heuristisches Verfahren zur Gewinnung von neuen 1

G. M. Dobrov, Wissenschaftswissenschaft, Berlin 1969, S. 23.

112

8. Planung und Organisation

Erkenntnissen. Damit wird auch in diesem Bereich das doppelseitige Verfahren der klassischen Kombinatorik (Raimundus Lullus, Leibniz), differenziert in eine ars iudicandi und in eine ars inveniendi, sichtbar. Die Einsicht, daß nur die Verbindung beider Verfahren zu einer gesicherten und systematisch geordneten Informationsgewinnung führt, war mit der Gegenüberstellung der beiden wesentlich älteren, bis in die Frühgeschichte der europäischen Wissenschaft zurückführenden Begriffe Deduktion und Induktion noch nicht gegeben. Vielmehr entwickelte sich daraus ein grundsätzlicher Gegensatz, der am Beginn der Neuzeit zu den beiden bekannten erkenntnistheoretischen Extrempositionen Rationalismus und Empirismus führte. Die Entwicklung der neuzeitlichen Naturwissenschaft hat jedoch gezeigt, daß keine dieser Extrempositionen haltbar ist. Bereits im 19. Jahrhundert, in dem explizit wissenschaftstheoretische Überlegungen im Sinne einer rationalen Rekonstruktion der Wissenschaftsgeschidite angestellt wurden 2 , ist klar geworden, daß die wissenschaftliche, das heißt systematisch geplante Erkenntnisgewinnung im Bereich empirischer Erfahrung stets auf einem hypothetisch-deduktiven Verfahren beruht, in dem der Gegensatz von Induktion und Deduktion aufgehoben ist. Das Zustandekommen der vorwissenschaftlichen Erkenntnis ist durch konkrete Probleme in konkreten, einmaligen Situationen bestimmt, zu deren Lösung unmittelbare Entscheidungen getroffen werden müssen. Diese Entscheidungen werden zwar nicht gänzlich ohne Überlegung (Reflexion) getroffen, geschehen aber letzten Endes doch zumeist intuitiv, das heißt unmittelbar der gegebenen Situation angepaßt, ohne ausdrücklichen und bewußten Rückgriff auf generelle Regeln, welche die Lösung eines bestimmten Problems von vornherein garantieren. Trotzdem ist die gewöhnliche, praktische Erkenntnis des alltäglichen Lebens, die direkt mit der daraus erfolgenden Handlung verknüpft ist, mit einem gewissen Sicherheitsgrad behaftet, der auf einem unmittelbaren Evidenzerlebnis beruht. Die Ursache dieses Evidenzerlebnisses ist die Erfahrung, die als solche nicht bewußt sein muß. Erfahrung ist nach einer alten Definition die durch die Kenntnis vieler Einzelphänomene erworbene Möglichkeit, das Allgemeine im Besonderen, das Wesentliche im Unwesentlichen * Vgl. W. Whewell, On the Philosophy of Discovery, London 1850, Chapters Historical and Critical.

Forsdiungslogik und Planungstheorie

113

zu erfassen 8 . Die Lösung konkreter Probleme auf Grund der Erfahrung besteht in einer Zuordnung des konkreten Falls zu bereits bekannten Fällen, die einander ähnlich sind. Diese Ähnlichkeit beruht auf einer partiellen Identität der Fälle. Durdi Isolierung dieser partiellen Identitäten und ihrer Aufbewahrung im Gedächtnis ergibt sich die Möglichkeit, für ähnliche Problemstellungen begründete Entscheidungen zu ihrer Lösung treffen zu können. Es ist jedoch klar, daß auf diese Art und Weise kein sicheres, beweisbares Wissen zustande kommen kann, das durch bloßes logisches Schlußfolgern zu weiteren Erkenntnissen führen könnte. Die Forderung nach absoluter Sicherheit und logischer Beweisbarkeit wird jedoch explizit an die wissenschaftliche Erkenntnis gestellt. Die faktische Entwicklung der Wissenschaft hat aber gezeigt, daß eine derartige Forderung nach absoluter Begründung eine Illusion ist. Keine Wissenschaft stellt in ihrer Gesamtheit ein logisch geschlossenes, widerspruchsfreies System dar. Auch das tatsächliche Zustandekommen axiomatisch-deduktiver Theorien zeigt nur, daß es möglich ist, gewissen abgeschlossenen Teilkomplexen wissenschaftlicher Erkenntnis eine logisch perfekte Gestalt zu verleihen, wobei freilich stets die Möglichkeit offen bleibt, daß ein derartiger Komplex von logisch kohärenten Erkenntnissen von seinen axiomatischen Grundlagen her in seiner Gesamtheit zerstört werden kann. Die Unlösbarkeitsbeweise in der Mathematik und Logik haben schon deutlich die Grenzen absolut sicherer und beweisbarer Erkenntnis in den Formalwissenschaften aufgewiesen. Erfahrungswissenschaftliche Theorien können jedoch als solche von vornherein immer nur in provisorischer Weise als logisch abgeschlossen angesehen werden. Eine einzige unerklärbare neue Tatsache aus dem Gegenstandsbereich, für den eine bestimmt erfahrungswissenschaftliche Theorie gilt, kann diese Theorie entweder zu Fall bringen oder zumindest durch das notwendig gewordene Anbringen von Zusatzhypothesen wesentlich verändern. Nicht nur das unsystematische vorwissenschaftliche Erkennen, das trotz großer logischer Mängel mit einem gewissen Sicherheitsgrad behaftet ist, sondern auch das Faktum der wissenschaftlichen Erkenntnis, die sich nicht durch bloß deduktives, beweisendes Schlußfolgern, sondern durch ein hypothetisdi-deduks

8

Aristoteles, De An. u. Anal. post. Vgl. Oeser, Begriff und Systematik der Abstraktion, S. 102 ff. Oeser, Band 2

114

8. Planung und Organisation

tives Verfahren weiterentwickelt, zeigt also, daß der eigentlich innovatorische Prozeß der Informationsgewinnung nicht auf dem Wege logischer Perfektionierung allein durchführbar ist. Denn die logische Geschlossenheit eines widerspruchsfreien Systems von Erkenntnissen kann stets nur ein mögliches Endresultat des Erkenntnisprozesses und nicht dessen Voraussetzung sein. Axiomatisch-deduktive Theorien bilden daher in der Wissenschaftsgeschichte zumeist das Ende eines langen Entwicklungsprozesses. So beruht auch die euklidische Geometrie, das historisch erste Beispiel einer solchen axiomatisch-deduktiven Theorie, auf der Systematisierung jahrtausendealter geometrischer Verfahren, die gewissermaßen theorielos aus der Praxis der Landvermessung entstanden sind. Während jedoch die euklidische Geometrie und alle nach ihrem Vorbild aufgebauten klassischen axiomatisch-deduktiven Theorien, wie etwa die Bewegungslehre Galileis oder die Newtonsche Mechanik, darauf ausgerichtet waren, die reale und einzig wirkliche Welt adäquat zu erfassen und logisch zu beschreiben, wird mit den einander gleichwertigen Ideen der mathesis universalis (Descartes) und der allgemeinen Kombinatorik (Leibniz) ein gänzlich neuer Weg beschritten, der die Mängel der anschaulichen, an die Realität gebundenen klassischen Logik durch Formalisierung und Kalkülisierung überwindet. Die Auflösung der anschaulich-konstruktiven Geometrie Euklids in die algebraischen Formeln der analytischen Geometrie Descartes' zeigt bereits deutlich diese Formalisierungstendenz, die mit der analytischen Mechanik Lagranges fortgesetzt wird. Aus der Logik, die vorher nur ein Instrument nachträglicher Systematisierung und Beweisführung für die formale Wahrheit der Zusammenstellung bereits gewonnener Erkenntnis war, wird nun durch die Befreiung von der Anschaulichkeit der Dinge, mit der selbst noch die euklidische Geometrie behaftet ist, ein Instrument für die Konstruktion von Aussagen bzw. Aussagenverknüpfungen über alle möglichen Gegenstandsbereiche in allen möglichen Welten. D a s wird schon im Bereich der Aussagenlogik deutlich: Während die aristotelische Syllogistik nur eine begrenzte Anzahl möglicher und zugleich sinnvoller Aussagenverknüpfungen zuläßt, lassen sich eine beträchtlich größere Anzahl formalisierter Aussagenkalküle aufstellen. Die eigentliche Bedeutung der formalisierten Logik wird jedoch erst im Bereich der Begriffs- und Urteilslehre sichtbar. In der klassischen, nichtformalisierten Logik muß jedes sinnvolle Urteil

Forschungslogik und Planungstheorie

115

als eine Existenzbehauptung über die reale Welt angesehen werden. Denn die Begriffe, aus deren Verknüpfung die Urteile entstehen, haben einen empirisdien Inhalt. Im Prädikatenkalkül hat aber der Begriff lediglich die formale Funktion, Prädikat möglicher Urteile zu sein. Damit wird dem menschlidien Erkennen das Reich unbegrenzter kombinatorischer Möglichkeiten eröffnet. Wenngleich durdi ein solches kombinatorisches Verfahren keine Information über die wirkliche Realität erreicht wird, können jedoch alle diese formalen Verfahrensweisen auf sie bezogen werden. Diese Beziehung zu einem möglichen realen Gegenstandsbereich ist jedoch nur mit Hilfe einer abstrakten Modellvorstellung des realen materiellen Systems möglich. Dies hat gerade der eigentliche Begründer der kalkülisierten Kombinatorik, Leibniz, erkannt, wenn er ausdrücklich feststellt: „Wer eine Methode besitzt, durch deren Befolgung er zum Gegenstande gelangt, hat damit noch nicht dessen I d e e . . . Es muß also etwas in mir sein, das nicht nur zum Gegenstande führt, sondern diesen auch darstellt." 4 Die weiteren Ausführungen zeigen deutlich, daß Leibniz mit dem Begriff der „Idee" als der „Fähigkeit" zur Darstellung eines Gegenstandsbereichs nichts anderes meint als ein konstruktives planungstheoretisches Konzept im Sinne eines Analogiemodells: „Man sagt, dasjenige stelle einen Gegenstand dar, worin die Beschaffenheiten sind, die den Beschaffenheiten des darzustellenden Dinges entsprechen. Jedoch sind diese Darstellungen mannigfaltig; zum Beispiel stellt das Modell einer Maschine die Maschine selbst dar; die perspektivische Zeichnung eines Dinges in der Ebene stellt einen festen Körper dar; die Rede stellt Gedanken und Wahrheiten dar, die Charaktere stellen Zahlen dar; eine algebraische Gleichung stellt den Kreis oder eine andere Figur dar. Und was diesen Darstellungen gemeinsam ist: allein durch die Betrachtung der Beschaffenheiten des darstellenden [Zeichens] können wir zur Erkenntnis der Eigenschaften gelangen, die dem darzustellenden Gegenstand entsprechen. Offenbar ist es deshalb nicht notwendig, daß dasjenige, was etwas darstellt, dem dargestellten Gegenstand ähnlich ist, wenn nur eine gewisse Analogie der Beschaffenheiten gewahrt wird."® Die Analogie der Beschaffenheiten bezieht sich jedoch nach Leib4

s

8*

Vgl. G. W. Leibniz, Fragmente zur Logik, ausgewählt, übersetzt und erläutert von F. Schmidt, Berlin 1960, S. 418 f. Ebenda, S. 419.

116

8. Planung und Organisation

niz nidit auf willkürlich ausgewählte Beschaffenheiten, die nur zu vagen Analogien führen, sondern auf wesentliche Struktureigenschaften, wie die Ähnlichkeit „zwischen einem großen und einem kleinen Kreis oder zwischen einer Gegend und der geographischen Karte der Gegend"*. Erst durch die Verknüpfung des systemtheoretischen Modells mit den formalen Methoden als Durchführungsbestimmungen ergibt sich die Möglichkeit, das gesamte System von Aussagen über einen bestimmten Gegenstandsbereich vor aller empirischen Erfahrung in hypothetischer Weise vorwegzunehmen. Die hypothetische Vorwegnahme eines Problemlösungsverfahrens kann im präzisen Sinne des Wortes als ein „Plan" bezeichnet werden. Denn ein Plan ist nichts anderes als eine Übersicht über die Möglichkeiten, bei der Behandlung eines Problems zu einem effektiven Ende zu kommen. Ist dieser Plan durch ein bestimmtes angebbares Lösungsverfahren von Anfang bis zum Ende determiniert, dann liegt ein Lösungsalgorithmus vor. Derartige von vornherein formal determinierte Lösungsverfahren gibt es jedoch nur bei relativ trivialen Rechenproblemen, deren automatische Durchführung keines besonderen Planes bedarf. Die Zielsetzung der Planungstheorie kann daher in Abhebung von algorithmischen Verfahren definiert werden als der Versuch, auch dort zur effektiven Lösung eines komplexen, nichttrivialen Problems zu gelangen, wo es ein derartiges algorithmisches Verfahren, das den Erfolg von vornherein garantiert, nicht gibt. Als wissenschaftstheoretische Fragestellung gehört daher die Planungstheorie sowohl in den Bereich der Heuristik als auch in den Bereich der konstruktiven Begründungstheorie. Die Einsicht in die pragmatische Notwendigkeit der Planung liefert jedoch noch keinen Ansatz zu ihrer theoretischen Begründung. Ein solcher Ansatz läßt sich bereits aus der empirischen Tatsache ableiten, daß in der Wissenschaft auf dem Gebiet nichtentscheidbarer Theorien, zum Beispiel der Arithmetik der natürlichen Zahlen, sehr erfolgreich gearbeitet werden kann. Sowohl die Metamathematik im besonderen als auch die Wissenschaftstheorie im allgemeinen haben gezeigt, daß es letzten Endes für keine Wissenschaft einen universellen Lösungsalgorithmus gibt, sondern immer nur partielle Lösungsprozeduren für algorithmisch behandelbare Teilprobleme. Das Gesamtsystem einer Wisβ

Ebenda.

Selbstregulierung

117

senschaft setzt sich dann aus derartigen partiellen Lösungsprozeduren zusammen. Es ist daher nicht als ein statisches, logisch abgeschlossenes, sondern als ein dynamisches, sich stets veränderndes Informationssystem zu betrachten. Auf dieser Möglichkeit der freien Kombination von Lösungsverfahren beruht letzten Endes alle Entwicklung der Wissenschaften. Diese Entwicklung muß jedoch nicht immer im Sinne eines geradlinigen oder gar kumulativen Fortschritts erfolgen7. Gerade weil es für die Erkenntnis der realen Welt kein allgemeines Lösungsverfahren gibt, das den Erfolg von vornherein garantiert, bewegt sich auch der Prozeß wissenschaftlicher Erkenntnisgewinnung in der hypothetisdi-experimentierenden Weise von Versuch und Irrtum fort, durch welche die gewöhnliche Alltagserfahrung bestimmt ist. Planung bedeutet daher für die wissenschaftliche Erkenntnis, auch das Scheitern eines Lösungsversuchs von vornherein miteinzurechnen und ihn durch ein anderes mögliches Verfahren zu ersetzen. Betrachtet man nun die automatische Informationsverarbeitung als einen Versuch, die Durchführung bestimmter, planmäßig gesicherter Lösungsverfahren einer Lösungsmaschine zu übertragen, dann wird die Bedeutung der Planungstheorie auch in diesem Bereich offensichtlich. Bereits die „Selbstregulierung" des automatischen Verarbeitungsprozesses durch die Einplanung von bedingten Befehlen bei komplexen Problemen ist als eine wesentliche Erweiterung des im Prinzip einseitig gerichteten algorithmischen Verfahrens zu verstehen. Solange jedoch der automatische Verarbeitungsprozeß von der Umwelt isoliert abläuft, bleibt er im Endeffekt einem bestimmten, starren, „nicht-selbstorganisierenden" Algorithmus äquivalent, so daß sich an der Stellung des Lösbarkeitsproblems nichts ändert 8 . Eine prinzipielle Änderung ergibt sidi jedoch durch ein äußeres Einwirken auf den automatischen Verarbeitungsprozeß, das durch zusätzliche Informationen aus der Umwelt hervorgerufen werden kann. Dann eröffnet sich die Notwendigkeit, auf Grund der neuen Informationen die Regeln des Verarbeitungsprozesses während des Ablaufs zu verändern. Der informationsverarbeitende Automat arbeitet dann analog dem anschaulichen Bild eines Menschen, der nach verschiedenen, in 7

8

Vgl. T. S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, Frankfurt/M. 1967. Vgl. Glusdikow, Einführung in die technische Kybernetik I, S. 123.

118

8. Planung und Organisation

seinem Gedächtnis eingelagerten Regeln eine von außen angebotene Information verarbeitet. Der Unterschied besteht vor allem in der Flexibilität und Anpassungsfähigkeit des menschlichen Denkens, das von vornherein nicht durch starre, vorgegebene Lösungsverfahren im Sinne des Algorithmusbegriffs beherrscht ist. Diese Fähigkeit kann bei der automatischen Informationsverarbeitung nur durch das Speichern komplizierter Algorithmen mit vielen Ersetzungsregeln ausgeglichen werden. Womit freilich noch nicht die Frage beantwortet ist, welches der gespeicherten algorithmischen Verfahren im nächsten Schritt der automatischen Verarbeitung eingesetzt werden soll. Für die Lösung dieses Problems ist keiner der eingelagerten Algorithmen zuständig. Audi ein zufälliges Herumprobieren im gewöhnlichen Sinn von trial-and-error führt zu keiner effektiven Lösung, da mit der Kompliziertheit eines Problems zugleich auch die Anzahl der Varianten des Lösungsverfahrens ins ungeheure wächst. Daraus ergibt sich die Notwendigkeit, Methoden zu finden, mit denen man die Anzahl der möglichen Varianten auf ein operational beherrschbares Maß herabsetzt. Bei der Lösung komplizierter Aufgabenstellungen, für die kein einheitliches Lösungsverfahren im Sinne eines Algorithmus vorgegeben ist, müssen daher zwei Phasen der Programmierung deutlich unterschieden werden. Die erste Phase besteht in der Problemanalyse und Erstellung des Gesamtplans, während die zweite Phase in dem eigentlichen Schreiben des Programms, das heißt in der Abfassung der notwendigen Instruktionen für den informationsverarbeitenden Automaten besteht. Während die zweite Phase, die Phase der Formalisierung oder Kodierung, ein rationales, logisches Unternehmen ist, das letzten Endes immer darauf abzielt, algorithmische Strukturen aufzubauen, nach denen die automatische Informationsverarbeitung streng geregelt ablaufen muß, wird die erste Phase zumeist als „intuitiv" 9 bezeichnet oder ganz im Sinne der klassischen ars combinatoria als eine „Kunst" 1 0 des Planens und Entwerfens von komplex strukturierten, abstrakten Gebilden verstanden. Denn die Erstellung des Gesamtplans, in dem alle Möglichkeiten berücksichtigt werden müssen, die während des Verarbeitungsprozesses überhaupt auftreten können, ist keine „handwerkliche", * Stradiey, Problemanalyse und Programmierung, S. 69. Vgl. Goldsdieider - Zemanek, Computer, S. 52.

10

Selbstregulierung

119

reproduktive Fertigkeit nach vorgegebenen Mustern oder Schemata, sondern eine produktive Tätigkeit, für die es zwar Regeln, aber keine von vornherein determinierenden Gesetzmäßigkeiten gibt. Die eigentliche Zielsetzung der Planungstheorie im Bereich der automatischen Informationsverarbeitung läßt sich daher als eine Rationalisierung der ersten Phase der Programmierung, des intuitiv-ganzheitlichen Planungsverfahrens, charakterisieren. Daß eine derartige Rationalisierung möglich ist, wird bereits durch das beschriebene planmäßige Verhalten des Menschen in der vorwissenschaftlichen Erkenntnisgewinnung deutlich, das in den wenigsten Fällen den strengen Gesetzen der formalen Logik folgt und dennoch erfolgreich ist. Eine rationale Rekonstruktion der Wissenschaftsgeschichte zeigt, daß der Fortschritt der wissenschaftlichen Erkenntnis keineswegs auf dem blinden Zufall oder den intuitiven, schöpferischen Einfällen einiger exzeptioneller Forscherpersönlidikeiten beruht. Vielmehr erweist sich die Wissenschaft in ihrer Entwicklung als ein dynamisches, sich selbst regulierendes System, in dem die Leistungen des einzelnen als partielle Lösungsversuche planmäßig eingeordnet sind. Selbst das Scheitern von Lösungsversuchen und die historische Tatsache zahlreicher Irrtümer und Irrwege in der wissenschaftlichen Erkenntnis sind als Hinweise auf die rationale Struktur dieses Entwicklungsprozesses zu betrachten. Denn das Scheitern eines Problemlösungsversuches, der für das Individuum selbst zwar eine Katastrophe sein kann, bedeutet für die gesamte Entwicklung der Wissenschaft nur das Zuendeführen und Ausscheiden einer Möglichkeit, an die sich eine andere Lösungsmöglichkeit anknüpfen kann. Obwohl es naheliegend erscheint, dieses allgemeine Modell eines sich selbst regulierenden Systems planmäßiger Erkenntnisgewinnung auf die Planungsprobleme der automatischen Informationsverarbeitung direkt zu übertragen, läßt sich das nur mit einer entscheidenden Einschränkung tun. Denn die Grundvoraussetzung für ein „selbstregulierendes", „heuristisches" Programm, das sich selbst im Laufe des Arbeitsprozesses verbessern kann, läge in der Fähigkeit, den gesamten Weg der Lösung in groben Zügen im voraus zu verstehen. Das aber würde einer formalen Selbstbegründung gleichkommen, deren Möglichkeit das Gödelsche Unentscheidbarkeitstheorem endgültig widerlegt hat. Bisher ist es auch immer nur gelungen, Programme zu erstellen, die sich bloß zur Verbesserung von

120

8. Planung und Organisation

Programmen eignen, die viel einfacher sind als sie selbst 11 . Zahlreiche Versuche mit selbstorganisierenden Programmen schlugen deshalb fehl, weil sie entweder zu sehr auf ein zufälliges Herumprobieren (trial-and-error) angewiesen waren oder, wie im Fall der Schach und Dame spielenden Automaten (Shannon, Samuel etc.), einen unvorstellbar großen Zeitaufwand benötigten. D a es keine Selbstorganisation und Selbstverbesserung im eigentlichen und absoluten Sinn für die automatische Informationsverarbeitung gibt, sind die Grenzen der „künstlichen" Intelligenz durch den vorgegebenen Plan festgelegt. Diese Grenzen können nur durch einen planvollen Eingriff von außen, wie er bereits durdi den auf der Möglichkeit der Programmunterbrechung beruhenden Dialogverkehr realisiert ist, erweitert werden. Die zukünftige Weiterentwicklung der automatischen Informationsverarbeitung liegt daher nicht in einer weiteren „Verselbständigung" des Automaten, sondern in der ständigen Verbesserung des Dialogverkehrs zwischen dem technischen Informationsverarbeitungssystem und seinen Teilnehmern und Benutzern. Erst durch die Aufhebung der monologischen Struktur der Informationsverarbeitung entsteht ein einheitliches Kommunikationssystem, das mit jener Fähigkeit der Selbstorganisation und Selbstverbesserung ausgestattet ist, die der Wissenschaftsentwicklung als einem sozialen Unternehmen von vornherein immanent ist. Damit zeigt sich, daß das Prinzip der Arbeitsteilung, das für alle geplante Verarbeitung von fundamentaler Bedeutung ist, auch für den Bereich der automatischen Informationsverarbeitung gilt. Allerdings reichen dann die rein sequentiellen Systemmodelle, die sich zu jeder Zeit in genau einem Zustand oder genau einem Übergang befinden, als Modelle für arbeitsteilige Systeme nicht mehr aus 12 . Oder anders ausgedrückt: Das logische Beweisen oder mathematische Redinen nach Algorithmen kennt keine Arbeitsteilung und keine Kommunikation. Die Zielsetzung der klassischen Computer Science war daher auch nur die Er11

12

Vgl. M. L. Marvin, Künstliche Intelligenz, in : Computer und künstliche Intelligenz, hrsg. von K . Steinbudi, Frankfurt/M. 1970, S. 207. H . J . Genridi, Ein systemtheoretischer Beitrag zur Handlungslogik. Interner Bericht der G M D 03/75-4-17, Bonn 1975. Vgl. C. A. Petri, Kommunikation mit Automaten, Schriften des U M Nr. 2, Bonn 1962.

Kommunikation mit Automaten

121

höhung der Speicherkapazität und Geschwindigkeit des Verarbeitungsprozesses. Die Kommunikation mit Automaten schafft jedoch ein Kommunikationssystem, in dem die technologischen Mittel eine entscheidende, die menschliche Erkenntnisfähigkeit erweiternde und umgestaltende Rolle spielen. Wie sehr die menschliche Erkenntnisfähigkeit an die Verwendung der Kommunikationsmittel geknüpft ist, ist in der Erkenntnistheorie seit der Antike ständig durch die definitorisdie Gleichsetzung von „Erkenntnis" und „Mitteilbarkeit" betont worden. Auch eine Verobjektivierung des Erkenntnissubjekts selbst war stets orientiert an der Gestalt der historisch vorhandenen Kommunikationsmittel, die, wie bereits an den klassischen Analogiemodellen kognitiver Funktionen gezeigt wurde, eine Skala von dem einfachsten Kommunikationsmittel der ältesten Kulturen, der Wachstafel des Aristoteles, bis zu dem des informationsverarbeitenden Automaten im heutigen Sinn umfassen. Entscheidender jedoch als diese Analogien ist das tatsächliche Gebundensein der Darstellung eines Wissensgebietes an die jeweiligen Kommunikationsmittel. D a s klassisdie Kommunikationsmittel war das geschriebene Wort, und das klassische wissenschaftliche Informationssystem war das Lehrbuch. Wissenschaftstheorie war dementsprechend grundsätzlich nichts anderes als eine Anweisung, „wie die Wissenschaften in zweckmäßigen Lehrbüchern dargestellt werden sollen" 1 8 . Die Beschränkung der Wissenschaftstheorie auf die statische Struktur des Informationssystems ist daher eine Folge ihrer Orientierung a m klassischen Kommunikationsmittel, das selbst rein statischen Charakter hatte. Denn in einem systematischen Lehrbuch können keine dynamischen Veränderungen im eigentlichen Sinn wiedergegeben werden, sondern nur kumulative Prozesse. Mit jeder echten Veränderung der Wissenschaft wird jedoch das Lehrbuch ungültig, und die in ihm enthaltenen Informationen müssen als entwertet gelten. Andererseits ist die Neudarstellung eines Wissensgebietes in Form eines Lehrbuches nicht als eine Neuschöpfung einer Wissenschaft zu betrachten, da ja alle bereits vorhandenen, gültig gebliebenen Informationen in der Neudarstellung mit verwertet werden. Die neue D a r stellung eines Wissensgebietes ist daher nur als eine Umkonstruktion zu verstehen, die gegenüber dem alten dargestellten System " B. Bolzano, Wissenschaftslehre, Leipzig 1930, I, S. 7.

122

8. Planung und Organisation

Parallelen aufweist. Ein klassisches Beispiel eines solchen weitgehend parallelen Aufbaus eines Wissensgebietes liefert die Astronomiegeschichte: Copernicus hat seine Darstellung des heliozentrischen Systems der Planetenbewegung in zum Teil sogar kapitelweiser Entsprechung zum Ptolemäischen Almagest aufgebaut 14 . Die statische Struktur des klassischen Kommunikations- und Speichermittels für wissenschaftliche Erkenntnisse war der innere Grund für die hohe Stabilität solcher Wissenssysteme, deren Lehrsätzen zeitweilig der Charakter von ewigen Wahrheiten zugeschrieben wurde. Der Unterschied zu früheren Zeiten der Wissenschaftsentwicklung besteht vor allem in einer ungeheuren Beschleunigung des Prozesses der Veränderungen. Dafür gibt es, wie die empirische, mathematisdi-statistische Wissenschaftsforschung festgestellt hat, äußere Gründe: Wissenschaft ist nicht mehr wie früher die Angelegenheit einiger weniger, sondern ein soziales Unternehmen. Dadurch erhält die Wissenszunahme den Charakter einer Exponentialfunktion, aus der jene berüchtigte „Informationslawine" entsteht, die nicht mehr systematisch verwertet werden kann. Konkret bedeutet dies, daß das klassische Mittel zur Darstellung eines Wissensgebietes nicht mehr ausreicht. Denn die Gültigkeitsdauer eines wissenschaftlichen Lehrbuches wird ständig geringer. Das hat zur Folge, daß in manchen Bereichen der Wissenschaft eine Fachbibliothek alle zehn Jahre oder noch früher weggeworfen werden müßte. Es hat sich daher bei wissenschaftlichen Standardwerken bereits eine Praxis eingeschlichen, die auf anderen Gebieten, etwa im Bereich der juristischen Gesetzgebung, die sich den ständig wechselnden gesellschaftlichen Bedingungen anpassen muß, schon längst üblich geworden ist: das Lose-Blatt-System, das die ständige Veränderung durch den Austausch von einzelnen Blättern mit neuen Ergebnissen gegen Blätter mit veralteten Informationen zu bewältigen versucht15. Damit ist allerdings keine theoretische Lösung dieses Problems gegeben. Denn durch ein solches Verfahren würde sehr rasch das gesamte System in seiner Struktur inkonsistent werden und in sich zusammenbrechen. Eine theoretische Lösung des Problems der Planung und Organisation eines wissenschaftlichen Infor14 15

Vgl. Oeser, Copernicus und die ägyptische Hypothese, S. 294. Vgl. G. Klaus, Rationalität, Information, Integration, Berlin 1974, S. 74.

Logik der Prozesse und Veränderungen

123

mationssystems erfordert jedodi über die klassische »Logik der Aussagen" hinaus, die sich nur mit der Gültigkeit von Aussagensystemen beschäftigt, eine „Logik der Prozesse", die die Veränderungen der Gültigkeit als formale Gesetzmäßigkeiten erfassen kann. Eine solche Theorie der organisatorischen Veränderung ist zwar wie die Entscheidungstheorie eine Theorie des rationalen Entscheidens und Handelns. Der Unterschied besteht jedoch darin, daß die Entscheidungstheorie sich primär auf Einzelereignisse bezieht und eine Anleitung zur Entscheidung trotz mangelnder Information sein will, was immer nur zu Wahrscheinlichkeiten führt, während sich die Theorie der organisatorischen Veränderung auf ein systematisch geplantes Handeln und Entscheiden bezieht, bei dem die Grundlage nicht der Mangel an Information ist, der durch pragmatische subjektive Wünschbarkeit ersetzt wird, sondern gerade der Mangel an Information und die darauf beruhende Unsicherheit ausgeschlossen werden soll. Für eine solche pragmatische, benutzerorientierte Logik der Handlung innerhalb eines Systemzusammenhanges gibt es trotz Erweiterungen der formalen Aussagenlogik zur Modallogik, deontischen Logik oder Normenlogik noch kein für die Wissenschaftstheorie brauchbares Instrument, da sidi diese Versuche in allgemeinster Weise auf mögliche Gesetze des Handelns und Entscheidens beziehen und nicht die Veränderungen von wissenschaftlichen Informationssystemen betreffen. Es handelt sich dabei um ein Problem, das in der Forschungslogik schon deshalb nur unzulänglich beschrieben werden konnte, weil sich die Begriffe „Verifikation" und „Falsifikation" grundsätzlich nur auf sequentielle Systemmodelle beziehen, die sich zu jeder Zeit in genau einem Zustand oder genau einem Übergang befinden. Der reale Wissensdiaftsprozeß geschieht aber immer in einem arbeitsteiligen System. Das heißt, es handelt sich bei der Entscheidung über die Wahrheit oder Falschheit einer Hypothese oder Theorie immer um eine Entscheidung zwischen Alternativen. Für eine solche Entscheidung liefert die klassische formale Aussagenlogik, die nur die formale Widersprudisfreiheit von Aussagensystemen feststellen kann, keine Grundlage. Denn wie kompliziert die beweistheoretische Analyse von wissenschaftlichen Aussagen auch sein mag, sie führt immer nur zur Feststellung des Wahrheitswertes „wahr" oder „falsch". Bei formal gleichwertigen Theorien ist eine Entscheidung auf Grund der Aussagenlogik nicht möglich, bei formal nicht gleich-

124

8. Planung und Organisation

wertigen Theorien von vornherein nicht nötig. Fast die gesamte wissenschaftstheoretische Literatur bewegt sich daher an diesem Punkt auch gegenwärtig noch in subjektiv-psychologischen Ausdrücken, wenn von „kühnen", „interessanten", „attraktiven", „rivalisierenden" Theorien, von „ernsthaften", „strengen" und „erfolgreichen" Widerlegungen durch „harte" Tatsachen, von „Krisen", „Konflikten" und „Revolutionen" die Rede ist. Die Verwendung einer solchen soziopsydiologischen Terminologie in der nicht präzisierten Weise des alltagssprachlichen Gebrauchs zeigt, daß die Logik der Veränderung, die in dem Wedisel wissenschaftlicher Theorien liegt, auf dieser Argumentationsebene nicht erfaßt, geschweige denn beschrieben werden kann. Ansätze zu einer solchen gerade für die Wissenschaftstheorie bedeutsamen Logik der Prozesse und Veränderungen kommen vielmehr aus jenem Bereich, aus dem das Informationsproblem der Wissenschaft stammt: aus dem Bereich der Informationsund Kommunikationstechnik, die jene neuen Mittel zur Obertragung, Speicherung und Verarbeitung von Informationen bereitgestellt hat, welche am entscheidendsten zum exponentiellen Wachstum der Wissenschaft beigetragen haben. Solange sich die Informatik als Computer Science auf die Theorie der informationsverarbeitenden Automaten beschränkte, waren ihre im wesentlichen auf die Programmierung abgestellten planungstheoretischen Konzepte für die Wissenschaftstheorie kaum relevant. Mit der Entstehung der Informationssystemforschung, die sich nicht nur auf die Maschine, sondern auf das Kommunikationssystem Mensch und Maschine bezieht, ergab sich eine auf computerisierte Informationssysteme bezogene Grundlagentheorie, in der Probleme behandelt werden, die für die Wissenschaftstheorie von entscheidender Bedeutung sind, falls die Redewendung von der Wissenschaft als „Informationssystem" nicht nur eine triviale Bedeutung haben soll. Die Umgestaltung eines Wissensgebietes zu einem computerisierten, rechnergestützten Informationssystem macht es nämlich notwendig, nicht nur die statische Struktur der Wissenschaft zu berücksichtigen, sondern audi den dynamischen Aspekt der Veränderung. Denn in Informationssystemen geht es primär um die Beschreibung, Planung und Organisation des Informationsflusses. Bei dieser Analyse und Beschreibung des Informationsflusses handelt es sich jedoch nidit mehr — wie in dem Vergleich der elektronischen Schaltungen eines Computers

Informationssystemforschung und Netztheorie

125

mit dem Neuronennetz des menschlichen Gehirns — um eine Analogie, sondern um die allgemeine Grundlage einer Beschreibung von Informationsprozessen innerhalb eines Systems, bei dem es gleichgültig ist, ob der Informationsfluß durch Menschen oder Maschinen bewirkt wird. Eine solche Theorie des Informationsflusses in Systemen, die in ihrer elementaren Ebene nodi unterhalb der Schaltlogik liegt, wurde von C. A. Petri erarbeitet 1 '. Ihre Anwendung ist jedoch nicht nur auf die Computer Science beschränkt, sondern sie dient der Systemorganisation schlechthin, das heißt der „Beschreibung, Analyse und Synthese von Systemen und Prozessen in der realen Welt". Als Darstellungsform wird von Petri die Netzdarstellung verwendet, die es gestattet, beliebige Wissensgebiete zum Zweck gegenseitiger Strukturerhellung zu vergleichen. Von besonderer Relevanz für die Wissenschaftstheorie ist jedoch die über die Möglichkeiten klassischer Aussagenlogik hinausgehende Verobjektivierung jener Prozesse, die sich auf die Veränderung der Gültigkeit beziehen. Die Netztheorie, die an den gesetzmäßigen mechanischen Veränderungen der automatischen Verarbeitung orientiert ist, ermöglicht es jedoch, derartige Prozesse in ihrer formalen Bedingtheit exakt zu analysieren und zu beschreiben. Im folgenden sollen jedoch lediglich die Grundsymbole des PetriNetzes eingeführt und interpretiert werden, um in einer ersten, sehr vagen Annäherung die vier möglichen Grundsituationen von Veränderungen in einem System, Konzession, Kontakt, Konflikt und Konfusion, auf das Problem der Wissenschaftsdynamik übertragen zu können. Das Ziel der Systemorganisation ist die Sicherheit des Informationsflusses, die durch den Aufbau eines idealen Netzes garantiert werden soll. Das Netz besteht aus zwei Trägermengen S und T, die den Zuständen (state elements) und Übergängen (transitional forms) eines Automaten entsprechen, und einer Flußrelation F. In der graphischen Darstellung des Netzes werden folgende Symbole verwendet:

S 16

τ

F

C. A. Petri, Concepts of Net Theory, Math. Inst, of the Slovak Acad, of Sc., 1973; General Net Theory, Conference on Petri Nets and Related Methods MIT, Cambridge-Mass., July 1—3, 1975; Interpretations of Net Theory.

8. Planung und Organisation

126

Für diese Symbole des Netzes sind nun je nadi Anwendung verschiedene Interpretationen möglich, die vom ursprünglichen Ausgangspunkt, der Automatentheorie, unabhängig sind. Auf der elementarsten Stufe läßt sich das Netz im Sinne einer formalen Logik der Prozesse interpretieren, die an keinen bestimmten Gegenstandsbereich gebunden ist. Die Trägermengen des Netzes S und Τ sind dann als Bedingungen (conditions) und Ereignisse (events) zu verstehen, und die Flußrelation stellt den Zeitpfeil dar, der die Bedingungen vor dem Ereignis zu Vorbedingungen, die Bedingungen nach dem Ereignis zu Nachbedingungen macht. Das elementare Ereignis wird gleichgesetzt mit Veränderung von Bedingungen. Ein konkretes Beispiel für ein solches Ereignis, das Veränderung bedeutet, ist die chemische Reaktion 1 7 . Damit ist der formale Apparat einer allgemeinen Netztheorie gegeben, mit dem es grundsätzlich möglich ist, „graphische Kalküle" durchzuführen, „die ebenso vollkommen und präzis sind wie die klassischen durch Zeichenreihen bestimmten Kalküle" 1 8 und außerdem noch den Vorteil der Anschaulichkeit besitzen. Nicht die Anschaulichkeit ist der Hauptgesichtspunkt, der diese graphisdien Kalküle von den Zeichenkalkülen der klassischen Aussagenlogik unterscheidet, sondern es ist vielmehr die Möglichkeit, damit nicht nur die Gültigkeit von Aussagen zu bestimmen, sondern die Gültigkeit und Gesetzmäßigkeit der Veränderungen. In der Netzdarstellung läßt sich nämlich die Struktur des Prozesses der Veränderung auf folgende Weise kalkülmäßig als Netzausschnitt darstellen:

Fig. 1

Fig. 2

Fig. 1 beschreibt die Situation vor dem Eintritt des Ereignisses, Fig. 2 nach dem Ereignis. Der Eintritt des Ereignisses bedeutet eine Veränderung, in der die Gültigkeit der Vorbedingungen durch die Erfüllung der Nachbedingungen abgeschafft wird. 17 18

Vgl. Petri, Interpretations of Net Theory, S. 12. Vgl. ebenda, S. 13.

Informationssystemforsdiung und Netztheorie

127

Entscheidend ist jedoch, daß in diesem Fall die Vorbedingungen nicht falsch, sondern nur zerstört, verbraucht oder entwertet werden. Auf die Theoriendynamik übertragen bedeutet dies, daß zwei wissenschaftliche Theorien, die durch eine umfassendere ersetzt werden, durch diesen Prozeß der Veränderung ihre Gültigkeit verlieren, aber nicht falsch werden. Es handelt sich jedoch bei diesen Vorbedingungen nicht bloß um Sonderfälle der umfassenderen Theorie. Denn sonst würde sich an ihrer Gültigkeit nichts verändert haben. Sie wären keine Vorbedingungen, sondern nur Nebenbedingungen, die ohne Veränderung in die neue Theorie kumuliert werden. Als Vorbedingungen der neuen Theorie gehen die alten Theorien nicht unverändert in die neue Theorie ein. Sie werden vielmehr verändert, ähnlich einer chemischen Reaktion, bei der das Produkt der Veränderung die Elemente der vorhergehenden chemischen Verbindungen enthält, aber in umgewandelter Form. Wissenschaftliche Theorien werden nicht kumuliert wie bloße Fakten, sondern im Theorienwechsel umgearbeitet zu neuen Theorien, die die alten entwerten und überflüssig machen. Wenngleich es sich in diesem Übergang nicht um einen kumulativen Prozeß handelt, sondern um eine Veränderung, ist diese Veränderung frei von Konflikten geblieben, die nur dann auftreten, wenn sich zwei Alternativtheorien gegenüberstehen, die dieselben Sachverhalte jeweils auf andere Weise erklären. Bevor es jedoch zu diesem Konflikt kommt, treten in der Wissenschaftsgeschichte häufig Zwischenformen auf, die Kontaktsituationen von gegensätzlichen Theorien bedeuten und in einem sidieren Netz keinen Platz haben. Eine solche Situation ist in der Netzdarstellung von Petri als Ausschnitt folgendermaßen konstruiert:

Die Vorbedingungen sind erfüllt und ebenfalls eine der beiden Nachbedingungen, oder die Nachbedingungen sind erfüllt und eine der beiden Vorbedingungen. Ein Beispiel für die Interpretation dieser Netzausschnitte bietet

128

8. Planung und Organisation

der Übergang vom geozentrischen zum heliozentrischen System. Der erste Netzausschnitt soll die ägyptische Hypothese repräsentieren: Die äußeren Planeten und die Sonne drehen sich um die Erde, Merkur und Venus jedoch um die Sonne. Der zweite Netzausschnitt repräsentiere das Tychonische System: Die inneren Planeten und die äußeren Planeten drehen sich um die Sonne, die Sonne jedoch nach dem geozentrischen System noch um die Erde. Beide Durchgangshypothesen stellen einen Kontakt zwischen Geo- und Heliozentrik dar, wobei die erste noch überwiegend geozentrisch, aber die zweite schon überwiegend heliozentrisch ist. Solche Kontaktsituationen sind in der Theoriendynamik Vorspiele zur eigentlichen Katastrophe, zur Veränderung im vollständigen Sinn. Eine derartige objektive Konfliktsituation war der langwährende Zustand des Nebeneinanderbestehens von Geozentrik und Heliozentrik. Ein objektiver Konflikt besteht dann, wenn zwei Ereignisse die Konzession haben einzutreten und nicht eintreten können, weil sie gemeinsame Vorbedingungen oder gemeinsame Nachbedingungen haben. Diese objektive Konfliktsituation wird in der Netzdarstellung folgendermaßen veranschaulicht:

Gemeinsame Nachbedingung wäre in diesem Fall die einheitliche Theorie des Systems, die Rotation aller Planeten um einen gemeinsamen Zentralkörper. Dieser kann entweder nur die Sonne oder nur die Erde sein. Objektiv war der Konflikt, weil sowohl für die Annahme der heliozentrischen als auch der geozentrischen Auffassung Vorbedingungen vorhanden waren. Entschieden kann eine solche Konfliktsituation nur durdi eine zusätzliche Information werden, die aus der Umgebung des Systems stammt. Eine solche entscheidende Information war die Beobachtung der Fixsternparallaxe. Dabei ist jedoch zu beachten, daß Information immer relativ zum jeweiligen System definiert wird, und zwar als Grund für eine Entscheidung inner-

Infonnationssystemforsdmng und Netztheorie

129

halb des Systems, wobei diese Information von außen, aus der Umgebung, dem System zufließen muß. Während ein objektiver Konflikt immer dadurch gekennzeichnet ist, daß er zu seiner Auflösung einer Information bedarf, ist das Merkmal für eine Konfusion, daß der Konflikt bloß subjektiv ist, das heißt, es hängt vom Beobachter ab, ob er in diesem Fall eine Entscheidung zwischen Alternativen sieht oder nicht. Das heißt, eine Konfusion liegt dann vor, wenn ein Ereignis, das Konzession haben kann, in einen Konflikt hinein- oder hinausgeraten kann, ohne daß es stattfindet. Solche subjektiven Konflikte treten nur in konfus konstruierten Netzen auf, wenn versdiiedene Argumentationsebenen subjektiv miteinander verknüpft werden, wenn also zum Beispiel theologische Argumente für das geozentrische System ins Treffen geführt werden, wodurch ein subjektiver Konflikt theologischer Lehren mit der astronomischen heliozentrischen Theorie entsteht. Derartige Konfusionen lassen sidi in der Netztheorie durch „Schnittstellen" vermeiden, die genau die Grenze eines Systems definieren. Mit diesem letzten Beispiel sind die vier Grundsituationen, die sich in einem Informationssystem ergeben können, vollständig angeführt. Wie von vornherein betont, handelt es sich jedoch hierbei keineswegs schon um eine exakte Anwendung der Netztheorie auf die Wissenschaftsgeschichte, sondern nur um eine grobe Illustration, die eine mögliche Verwertung der Resultate der Informationssystemforschung für die Wissenschaftstheorie andeuten soll. Zwischen der Informationssystemforschung im Bereich der Informatik und der Wissenschaftstheorie besteht trotz grundsätzlicher Überschneidung der Problemstellungen ein wesentlicher Unterschied in der Zielsetzung. Die Informationssystemforschung dient primär der Planung und Organisation von computerisierten, das heißt rechnergestützten Informationssystemen. Bezogen auf die bereits bestehenden Wissenschaften bedeutet dies die konkrete Aufgabe der Umgestaltung von Wissensgebieten entsprechend den neuen technischen Mitteln. Die Netztheorie liefert dementsprechend die Grundlage für den Aufbau von sicheren Netzen, in denen Kontaktsituationen, Konflikte und Konfusionen gar nicht vorkommen dürfen. Im Unterschied dazu ist die Wissenschaftstheorie, wie bereits ausführlich gezeigt wurde, primär ein rekonstruktives Erklärungssystem, das auf die Herausarbeitung von formalen Gesetzmäßigkeiten in der Struktur und Dynamik wissenschaftlicher 9

Oeser, Band 2

130

8. Planung und Organisation

Erkenntnis ausgerichtet ist. Die Bereitstellung einer Logik der Veränderungen, die aus der praktischen Notwendigkeit der Adaptierung von Wissensgebieten an die neuen technischen Kommunikationsmittel entstanden ist, ergibt jedoch audi die Möglichkeit, nachträglich Einsiditen in die logische Struktur des Mechanismus zu gewinnen, die bisher verborgen geblieben sind.

Literatur W. R. Ashby, Einführung in die Kybernetik, Frankfurt/M. 1974. Y. Bar-Hillel, Language and Information, Reading, Mass.-Palo AltoLondon-Jerusalem 1964. Y. Bar-Hillel - R. Carnap, Semantic Information, in: The British Journal for the Phil, of Science, Vol. IV, 1954. L. v. Bertalanffy, Allgemeine Systemtheorie und die Einheit der Wissenschaften. Atti de X I I . Congresso Internazionale di Filosofia (Venezia 1958), Voi. 5, Firenze 1960. L. v. Bertalanffy, General Systems Theory. Foundation, Development, Applications, New York 1968. L. v. Bertalanffy, Das biologische Weltbild, Bern 1949. L. Boltzmann, Populäre Schriften, Leipzig 1905. W. Brauer - K. Indermark, Algorithmen, rekursive Funktionen und formale Sprachen, Mannheim 1968. L. Brillouin, Science and Information Theory, New York-London 1962. L. Brillouin, Scientific Uncertainty and Information, New YorkLondon 1964. E. Broda, Ludwig Boltzmann. Mensch, Physiker, Philosoph, Wien 1955. R. Carnap, Logische Syntax der Sprache, Wien 1934. R. Carnap, Introduction to Semantics, Cambridge-Mass. 1946. C. Cherry, Kommunikationsforschung — eine neue Wissenschaft, Hamburg 1963. Α. Diemer (Hrsg.), System und Klassifikation in Wissenschaft und Dokumentation, Meisenheim a. Gl. 1968. G. Frege, Begriffsschrift, Darmstadt 1971. H. J. Genridi, Ein systemtheoretisdier Beitrag zur Handlungslogik. Interner Bericht der GMD 03/75-4-17, Bonn 1975. V. M. Gluschkow, Einführung in die technische Kybernetik I, München-Pullach-Berlin 1970. R. V. L. Hartley, Transmission of Information, in: Bell System Technical Journal 7, 1928. B. Hassenstein, Kybernetik und biologische Forschung, in: Handbuch der Biologie I, Frankfurt/M. 1966. H. Hermes, Semiotik, Leipzig 1938. P. Heyderhoff - T. Hillebrand, Informationsstrukturen, MannheimWien-Zürich 1973. 9*

132

Literatur

Ε. γ. Holst - H. Mittelstaedt, Das Reafferenzprinzip, in: Die Naturwissenschaften 37, 1950. A. W. Holt - F. Commoner, Events and Conditions, Information System Theory Project, Applied Data Research Inc., PrincetonNew Jersey 1970. A. M. Jaglom - I. M. Jaglom, Wahrscheinlichkeit und Information, 3. Aufl., Berlin 1967. G. Klaus, Kybernetik und Erkenntnistheorie, Berlin 1965. G. Klaus, Semiotik und Erkenntnistheorie, Berlin 1973. G. Klaus, Rationalität, Information, Integration, Berlin 1974. A. N. Kolmogoroff, Theorie der Nachrichtenübermittlung, in: Arbeiten zur Informationstheorie I, Berlin 1957. W. Kunz - H. Rittel, Systemanalyse und Informationsverarbeitung in der Forschung, München-Wien 1970. W. Kunz - H. Rittel, Die Informationswissenschaft, München-Wien 1972. K. Lorenz, Die Rückseite des Spiegels, München-Züridi 1973. E. Mach, Erkenntnis und Irrtum, Leipzig 1905. D. M. MacKay, Information. Mechanism and Meaning, CambridgeMass.-London 1969. D. M. MacKay, Quantal Aspects of Scientific Information, in: Philosophical Magazine 41, 1950. G. Moruzzi - A. Fessard - H. H. Jaspers (Hrsg.), Brain Mechanism, Progress in Brain Research, Vol. 1, Amsterdam-London-New York 1962. J.v.Neumann, The General and Logical Theory of Automata, in: J. R. Newman (Hrsg.), The World of Mathematics, Vol. 4, New York 1956. J. v. Neumann, Die Rechenmaschine und das Gehirn, München 1970. E. Oeser, System, Klassifikation, Evolution, Wien-Stuttgart 1974. E. Oeser, Informationsprozesse. Erkenntnistheoretische Grundlagen und Grenzprobleme der automatischen Informationsverarbeitung, Informationskolleg, GMD, Bonn 1974. J.Peters, Information und Signal, in: K. Steinbuch und S.Moser, Philosophie und Kybernetik, München 1970. J. Peters, Physikalische Grundgesetze in ihrem Einfluß auf die Übertragung und Verarbeitung von Information. Interner Bericht der GMD 01/75-3-10, Bonn 1975. C. A. Petri, Kommunikation mit Automaten. Schriften des UM Nr. 2, Bonn 1962. C. A. Petri, Grundsätzliches zur Beschreibung diskreter Prozesse, in : 3. Colloquium über Automatentheorie, Basel 1967. C. A. Petri, Concepts of Net Theory, Proc. Symp. on Math. Found, of Computer Science, Math. Inst, of the Slovak Acad, of Sciences 1973. C. A. Petri, General Net Theory, Conference on Petri Nets and Related Methods, MIT Cambridge-Mass., Juli 1975

Literatur

133

C. A. Petri, Interpretations of Net Theory. Interner Bericht der GMD 75-07, Bonn 1975. Κ. Popper, Objektive Erkenntnis, Hamburg 1973. R. Riedl, Die Ordnung des Lebendigen, Systembedingungen der Evolution, Hamburg-Berlin 1975. E. Schrödinger, Was ist Leben?, 2. Aufl., Bern 1951. C. E. Shannon - W. Weaver, The Mathematical Theory of Communication, Urbana-Ill. 1949 u. ö.; deutsche Übersetzung: Mathematische Grundlagen der Informationstheorie, München-Wien 1976. C.E.Shannon, A Chess-Playing Machine, in: J.R.Newman (Hrsg.), The World of Mathematics, Vol. 4, New York 1956. C. E. Shannon - J. MacCarthy (Hrsg.), Automata Studies, Princeton 1956. H. Stadiowiak, Denken und Erkennen im kybernetischen Modell, Wien-New York 1956. K. Steinbuch, Automat und Mensch, 4. Aufl., Berlin-Heidelberg 1971. K. Steinbuch (Hrsg.), Information, Computer und künstliche Intelligenz, 2. Aufl., Frankfurt/M. 1970. K. Steinbuch - S. Moser (Hrsg.), Philosophie und Kybernetik, München 1970. L. Szilard, Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen, in: Zs. f. Physik 53, 1929. H. Törnebohm, Information and Confirmation, Stockholm 1964. Α. M. Turing, Can a Machine Think?, in: J. R. Newman (Hrsg.), The World of Mathematics, Vol. 4, New York 1956. C. F. v. Weizsäcker, Sprache als Information, in: Die Einheit der Natur, Hamburg 1971. W. Whewell, History of Scientific Ideas, London 1858. W. Whewell, Novum Organon Renovatum, London 1858. N.Wiener, Cybernetics, New York 1948; deutsche Obersetzung: Kybernetik, Stuttgart 1965. Ν. Wiener - J. P. Schade (Hrsg.), Nerve, Brain and Memory Models, Progress in Brain Research, Vol. 2, Amsterdam-London-New York 1963. N. Wiener - J. P. Schade (Hrsg.), Cybernetics of the Nervous System, Progress in Brain Research, Vol. 17, Amsterdam-London-New York 1965. W. Wieser, Genom und Gehirn, Information und Kommunikation in der Biologie, München 1972. J. Zeman, Poznáni a informace, Prag 1962. H. Zemanek, Elementare Informationstheorie, Wien-Mündien 1959. H. Zemanek, Lernende Automaten, in: K. Steinbuch (Hrsg.), Taschenbuch der Nachrichtenverarbeitung, Berlin-Göttingen-Heidelberg 1962. H. Zemanek - Goldscheider, Computer, Werkzeug der Information, Berlin-Heidelberg-New York 1971.

Personenregister

Abubacer 69 Ackermann, W. 93 f., 104 Aristoteles 11, 14 f., 38 f., 60, 62 f., 113, 121 Arnobius 69 Ashby, W.Ross 58 Avempace 69 Averroes 62 Babbage, Ch. 14, 70 f. Bar-Hillel, Y. 20, 29, 32, 34 ff. Bauer, F. L. 98 Bernays, P. 102 Bernoulli, J. 47 Bertalanffy, L. v. 44 ff. Berthet, Ch. 83 Boëthius 89 Boltzmann, L. 41 ff., 67 f., 74 Bolzano, B. 121 Boole, G. 107 Brauer, W. 92,96 Brillouin, L. 19 f., 35, 70, 86 Broda, E. 41 ff. Bruno, G. 39 Carnap, R. 20, 29 £., 32, 34 ff., 103 Cassirer, E. 93 Cherry, C. 18, 25 ff., 29 Churdi, A. 94, 96, 110 Cicero 15 f. Clausius, R. 44 Commoner, F. 86 Condillac, E. B. de 10, 61 f., 69 Copernicus, Ν. 39 f., 122

Dingler, Η. 53 Dobrov, G. M. I l l Driesch, H. 46 Einstein, A. 20 Euklid 114 Fisher, R. A. 8 Fleditner, H.-J. 27 Frege, G. 31, 40, 88, 91, 93, 100 ff., 106 f. Freytag-Löringhoff, B. von 105 Gabor, D. 10 Galilei, G. 114 Genridi, H. J. 120 Gibbs, W. 41 Glusdikow, V. M. 96, 110, 117 Godei, Κ. 92, 94, 96, 102 Goldscheider, P. 52, 87, 118 Goos, G. 98 Hannson, H. 29 Hartley, R. V. L. 18 f., 21, 36 Hartmann, N. 45 Harvey, W. 64 Hassenstein, B. 51 Helmholtz, H. v. 9, 11 f., 61 Herbrand, J. 94, 96 Hermes, H. 30 Hersdiel, J. F. W. 14 Hilbert, D. 41, 91, 102, 104 Holst, Ε. v. 51 Holt, A. W. 59, 86 Indermark, Κ. 92, 96

Descartes, R. 63 f., 66, 114 Detlev, V. Κ. 96 Diemer, Α. 38, 47

Jaglom Α. M. 28 f. Jaglom, I. M. 28 f.

Personenregister

135

Kant, I. 15, 19 Kempelen, W. v. 6 4 , 7 0 Kepler, J . 39 f. Klaus, G. 31, 51, 122 Kleene, S. C. 94 Klein, F. 103 Kolmogoroff, A. M. 28 f. Kuhn, T. S. 117 Kunz, W. 82 Kupfmüller, Κ . 29

Pascal, B. 90 Peirce, Ch. S. 24 f. Peters, J . 5 7 , 5 9 Petri, C. A. 59, 86, 120, 125 ff. Planck, M. 12 f. Platon 14, 38, 69 Poe, E. A. 70 f. Popper, K. R. 37, 69 Post, E. 96 Ptolemaios 39 f.

Lagrange, J . L. 114 Lambert, J . H. 47 Lange, F. 69 Laplace, P. S. de 40 Lasswitz, Κ . 86 Leibniz, G. W. 49, 88, 90 f., 95, 99, 112, 114 ff. Lenin 60 f. Locke, J . 24 f., 60 f. Lorenz, K. 45, 48 Lovelace, Countess of, 70 Lull(us), R. 90 f., 100, 112

Quine, W. ν. O. 110

Mach, E. 9, 11 ff. MacKay, D. M. 9, 15, 18 f., 35 f., 58 f. Manitius, K. 39 Markov, A . A . 95 f. Martianus Capeila 39 Marvin, M. L. 120 Maxwell, C. 8 McCarthy, J . 74 Mercouroff, W. 83 Mesdikowski, H. 103 Mettrie, J . O. de la 10, 47, 64, 69 Meyer-Abidi, Α. 46 Mittelstaedt, Η . 51 Mohamed ibn Musa al Chwarismi 89 Morgenstern, O. 44 Morris, Ch. W. 23 ff., 30, 107 Neumann, J . v. 9, 44, 68, 72 ff. Newman, J . R . 69 f., 73 Newton, I. 40, 42, 60, 114

Riedl, R . 47 f. Rittel, H. 82 Russell, Β. 91 f., 102 Schmidt, F. 115 Schrödinger, E. 42 ff., 46 Shannon, C. E. 9, 17 ff., 21 ff., 26 ff., 33, 44, 55 f., 59, 70, 74, 120 Skolem, Th. 93 Stachowiak, H. 51 Stein, A. von der 38 ff. Steinbudi, K. 10, 16, 51, 57, 99, 120 Strachey, Chr. 99, 118 Szilard, L. 74 Tarski, A. 32, 108 Taylor, R. 70 Turing, Α. M. 9, 64, 68 ff., 75, 94 ff. Vaihinger, H. 61 f. Vaucanson, J . de 64 f. Vergil 15 Völker, Κ . 71 Waerden, B. L. van der 90 Walther, E. 25 Weaver, W. 17 f., 22 f., 27 f., 44, 56 Weiss, P. 45 Weizsäcker, C. F. v. 11, 15

Personenregister

136 Welby, Lady Victoria 25 Whewell, W. 13 ff., 53, 112 Whitehead, Α. Ν. 91 f., 102 Whorf, Β. L. 106 Wiener, Ν. 8 ff., 21, 36, 44, 51, 55 f., 59

Wittgenstein, L. 19 Wolff, Chr. 40 Wundt, W. 9 Zemanek, H. 16, 28, 52, 87, 95, 118

Sachregister

Abakus 90 Abbildung 16 Ableitung, Ableitbarkeit 30, 100 Abstraktion 25 f. Abstraktionstheorie 11,15,31 Adäquation 32 Ähnlichkeit 93, 113, 116 Ahnlichkeitsbeziehung 108 Algebra, Booesche 87 f. Algorithmentheorie 77, 89, 92, 111 Algorithmus 76, 89 ff. —, algebraischer 95 —, allgemeiner 92 —, logischer 95 —, Markovsdier 95 —, mathematischer 95 —, nidht-selbst-organisierender 117 Alltagssprache 36 Almagest 39 Alphabet 85 Alternativentsdieidung 97 f. Alternativtheorie 79, 127 Analogie 62 f., 72,115 f. —, funktionale 65 —, strukturelle 65 Analogiemodell 46, 49 f., 60 ff., 115, 121 Analyse, statistische 41 Antinomien der Mengenlehre 91 Anwendbarkeit 34 Anwendung 99, 101 Anwendungsbereich 80, 82 a priori und a posteriori 36 Äquivalenz 96 Arbeitsteilung 120 Argumentwert 105 Aristotelismus 15 ars combinatoria 118

ars inveniendi 91 f., 101, 112 ars iudicandi 91, 101, 112 ars magna 90 Astronomie 40 f., 43 Atom der Information 87 Aussage 104 f., 107 f. Aussagenalgebra 107 Aussagenkalkül 104, 107, 109 f., 114 Aussagenlogik 108, 114 —, formale 123 —, klassische 126 Aussagensystem 123 Automat 60 ff., 87, 89 —, abstrakter 72 —, informationsverarbeitender 77, 85, 97,117 f., 121 —, lernender 71 Automatentheorie 68, 74, 76 Axiomatik 102 f. Axiomatisierung 102 f. Axiome 91, 102 Bandbreite 21 Bedeutung 18, 26 f., 29, 31, 36, 109 — (meaning) 29, 35 f. Bedeutungslehre 108 Bedingung 126 Befehl, bedingter 77 Begriff 115 —, qualitativer 52 —, quantitativer, metrischer 52 —, systemrelativer 86 Begriffsbildung, extensionale 109 Begriffslehre 114 Begriffsschrift 100 Begründung, absolute 113 Begründungstheorie 116

138 Benutzer 26, 29, 31, 33, 55, 86, 88 Beobachter 129 —, externer 53, 57 Beobachtung 78 Beobachtungsprozeß 58 Beobachtungssprache 52 Berechenbarkeit 76, 89, 92 ff., 96, 100 —, mechanische 94 f. Bestimmungsort (destination) 55 Bewegung 41 Beweistheorie 91, 101 —, formalisierte 102 Bewußtsein 11, 15, 53, 66 f., 106 Beziehung (Relation) 54 —, semantische 104 black-box-Methode 69 Computer 64, 77 ff., 83, 124 —, digitaler 70 Computer Science 82, 120, 124 f. Daten, Datenmaterial 24, 70 f., 78 f., 84 f. Datenfolgen 84 Datenverarbeitung, elektronische 85 Deduktion (deduktiv) 30, 112 deduktives Verfahren 113 f. Definition 91 Dekodieren 55 Denken 97, 100, 118 deskriptiv 36 Dialogverkehr 77, 120 Disjunktion 110 Dynamik, statistische 42 f. dynamisch 43, 47, 49 Eigennamen von Individuen 105 Eigenschaft von Eigenschaften 10, 52 Einheitswissenschaft 46 Element 41, 54 Empfänger 22, 55 ff., 88 Empfindungstheorie 12 f.

Sachregister Empirismus 11, 24, 50 f., 112 Energie 10, 41 Entropie (entropy) 29, 43 Entropieprinzip 43 f. Entscheidbarkeit 76, 89, 94, 96, 102 Entscheidbarkeitsproblem des Prädikatenkalküls 110 Entscheiden, rationales 123 Entscheidung 21 f., 71, 88, 100, 112 f., 128 f. —, elementare 87 f., 95 Entscheidungsfreiheit 21 f. Entscheidungsinformation 87 f. —, elementare 88 Entscheidungskette 88 Entscheidungsproblem 92 Entscheidungsprozeß 21 Entscheidungstheorie 123 Entscheidungsverfahren 96 Ereignis 34, 126 Erfahrung 112 Erkennen 48, 53, 67, 85, 97 Erkenntnis 7 f., 14 ff., 28 f., 36 f., 48, 50, 52, 60, 62, 67, 71, 81, 84 f., 99, 101, 112 f., 121 Erkenntnisgegenstand 57 Erkenntnissubjekt 57, 62 Erkenntnistheorie 7 ff., 11 ff., 24, 28, 31, 37, 48, 50 ff., 58, 60, 62, 67 f., 77, 79 ff., 106, 111, 121 —, empiristische 60 —, evolutionäre 48 —, kybernetische 10, 51 f. —, rationalistische 62 —, sensualistische 51 Erklärungsmodell 60 Erziehung (education) 15 f. Etymologie, rationale 53 Evidenz 102 Evidenzerlebnis 112 Evidenzpostulat 102 Evolution 47 f., 65, 71 f. Expansionssystem, digitales 75 extensional 30 f.

Sachregister Falsifikation 123 Fehler 74,99 Fehlfunktion 74 f. Festlegung 86 Festsetzung, pragmatischoperationale 53 Fiktion, heuristische 61 Fließgleichgewicht 47 Flußrelation 125 f. Folgerung, logische 104 Formalisierung 77, 81, 97, 107, 114, 118 Form-Materie 11 Forsdiungslogik 111, 123 Funktion, allgemein-rekursive 94 —, arithmetische 93 f. —, kognitive 60 ff., 106,121 —, logisdie 105 —, partiell-rekursive 94 —, primitiv-rekursive 22 —, rekursive 93 Funktionskalkül 104 Funktionsmodell 72 Genauigkeit 29 —, analytische 114 Geschichte und System 40 Gleichgewicht 47 Gödelsches Theorem 54 Grammatik, logische 101,104 Gravitation 40 Grenze 54 Grenze eines Systems 129 Grenzen der künstlichen Intelligenz 120 Grundelement 84, 87 Gültigkeit 126 Gültigkeitsdauer 122 Handeln, rationales 123 Harmonie, prästabilierte 39 Häufigkeit 33, 41 Heuristik (heuristisch) 111, 116, 119 —, negative 34 Höhlengleichnis 69

139 Holismus 46 H-Theorem 43 Hypothese 34 f., 37, 79, 84, 123 —, ägyptische 39,128 Hypothesenbildung 79 hypothetisch-deduktiv 112 hypothetisches Verfahren 113 f.

Identität, partielle 113 Induktion 30, 112 induktiv 45 f. Informatik 79 ff., 100 f., 124, 129 — und Computer Science 82 informatio 16 f. Information 10 f., 16 ff., 22 f., 26, 33 f., 36, 52 ff., 58 f., 84 f., 86 ff. —, absolute 86 —, semantisdie 32, 34 —, semantisch-pragmatisdie 26, 86 —, strukturelle 15 —, Übertragung der 17 Informationsbegriff 7 ff., 23 ff., 38, 59, 82 f., 87 f. —, mathematisch-statistischer 28 —, pragmatischer 35 —, statistisch-selektiver 21, 86 f. —, Undefinierbarkeit des 82 Informationsfluß 55, 124 f. Informationsgehalt 21, 23 ff., 56 —, deskriptiver 36 —, metrischer 35 f. —, selektiver 35 f. —, semantischer 36 —, semantisch-pragmatischer 23 —, statistischer 18, 23 —, struktureller 35 f. Informationsprozeß 37 ff., 50 ff., 66, 76 ff. Informationsquelle 16, 55 f. —, kooperative 57 Informationsspeidierung 37 Informationsstruktur 76 ff.

140 Informationssystem 80 f., 86, 111 ff., 117, 121, 124 —, administratives und kommerzielles 78 Informationssystemforsdiung 86, 124, 129 Informationstechnik 124 Informationstheorie 8 f., 18 ff., 35 f., 46, 48, 58 f. Informationsübertragung 18, 21, 28, 37, 57 Informationsübertragungstechnik 19 Informationsverarbeitung 37, 80 —, automatische 32, 76 ff., 81 ff., 89 ff., 99 ff., 107 ff., 117 ff. Informationswert 37 Informationswissenschaft 82 f. Innovation 8 Instanz 55, 57 instrumentell 50 intellectus agens 63 Intelligenz, künstliche 120 —, maschinelle 71 interdisziplinär 8 f., 45 f. Interpretationsregeln 31 Intersubjektivität 37 intuitiv 112, 118 f. Irreversibilität 43 Irrtum 48, 74 Irrtumskontrolle 74 Isomorphie, nomologische 49

Kalkül 104,126 Kalkülisierung 97, 107, 114 Kanal 55 ff. —, ungestörter 56 Kanalkapazität 21, 28, 56 Kind-Maschine 71 f. Klassifikationssystem 8 Kode 55 —, binärer 27, 29 Kodierung 27, 56, 118 Kodierungsaufwand 20, 56 Kodierungsproblem 29

Sachregister Kombination 85, 95 Kombinatorik 88,91,112 —, allgemeine 114 Kommunikation (Kommunikationssystem) 9, 23, 27, 55 ff., 76 f., 120 f., 124 Kommunikationsmittel 121 —, klassisches 121 Kommunikationstechnik 124 Kommunikationstheorie 21, 33 f., 44 —, mathematische 18, 26 —, mathematisch-statistische 21, 32 —, Shannonsdie 17, 19 f., 22, 27 f., 32, 35, 56 ff., 82, 108 Komplexität, Komplikation, Kompliziertheit 57, 75 f. Komplexitätsgrad 50 Konflikt 125, 127, 129 —, objektiver 128 f. —, subjektiver 129 Konfliktsituation 128 Konfusion 125, 129 Konjunktion 110 Konstruktion 114 Kontakt 125, 127 ff. Konzession 126, 128 f. Korrespondenztheorie der Wahrheit 108 Kreisprozeß 43 Kybernetik 8, 44, 46, 48, 51 f., 58 —, biologische 51

Lambda-Definierbarkeit 94 Lernen 17,48,67, 85 —, durch Erfahrung 16, 71 Lernende Automaten 16 f. logic of discovery 14 Logik 24 f., 74, 79 ff., 106, 114 —, angewandte —, deduktive 100 —, deontische 123 — der Aussagen 123

Sachregister — der Automaten 73 f. — der Forschung 80 f., 111 — der Handlung 123 — der Prozesse 123 f., 126 — der Veränderungen 130 — der Zeichenprozesse 25 —, elementare —, formale 30 f., 49 f., 73, 81, 99, 111 —, formalisierte 77, 100 ff., 114 —, induktive 35 —, klassische 104 —, mathematische 109 —, moderne 73 —, pragmatische Lösbarkeit 91, 97,111 Lösungsalgorithmus 110, 116 Lösungsmaschine 117 —, abstrakte 94 Lösungsprozedur, partielle 110, 116 f. Lösungsverfahren 89, 116 f.

Mangel an Information 40, 123 Maschine 39, 47, 63 ff., 72, 74 f., 83, 90, 94, 96 ff. Maschinenkode, binärer 87 Maschineninstruktionen 77, 98 Mathesis universalis 49, 114 meaning, siehe Bedeutung Mechanik 10, 41 f., 63, 114 —, analytische 42, 114 —, deterministische 41, 67 —, klassische 41 f. —, statistische 41 ff., 67 Metamathematik 91, 102 f., 111, 116 Metaprädikat 11 f., 38, 52 Metasprache 29, 53, 106 —, primäre 53 metatheoretisch 48 Metatheorie 103 Methode, formale 49, 116 Mitteilbarkeit 121 Modallogik 123

141 Modell 46, 49 f., 55, 57 f., 62, 115, 119 —, kybernetisches 65 —, systemtheoretisdies 116 Modellbegriff 49 Morphologie, dynamische 47 Mutation 48, 72 Nachbedingung 126 ff. Nachricht 17, 21 ff., 55, 57 Nachrichtenquelle 22, 28 Nachrichtentechnik 17, 19, 27 f., 52, 56, 59 Nachrichtenübertragung 8 Nachrichtenübertragungstechnik 21 Nervennetzwerk 75 Nervensystem, zentrales 73 f., 76 Netz 126, 129 Netzausschnitt 126 ff. Netzdarstellung 126 ff. Netztheorie 125 f., 129 Normalalgorithmus 96 Normalisierungsprinzip 96 Normenlogik 123 Null-Wahrscheinlichkeit 74 Objektivität 37, 51 Objektsprache 29 ff., 108 Operation 73 f., 97, 104 f. —, automatische 101 —, logische 92, 97, 100, 104, 107, 109 —, systemgebundene 101 operational 35, 46, 49, 53 operativ 109 Operieren 81, 84 Ordnung 38, 43, 46 Organisation 111 ff. organismisdi 44, 47 Organismus 39, 46 f., 74 f. Perfektionierung, logische 76, 99 ff., 107, 110 Plan 71, 76, 111, 116 Planung 77, 81, 101, 111 ff.

142 Planungstheorie (Theorie der Planung) 34 f., 77, 111, 116, 119 Prädikat 104 ff., 108 f. Prädikatenbuchstaben, schematische 104 Prädikatenkalkül 104, 109 f., 115 Prädikatenlogik 108 f. Prädikatenprädikate 11 Prädikaten variable 104 Pragmatik 24, 26 f., 31, 107, 109 Pragmatismus 24 Primärspradie 53 Prinzip vom ausgeschlossenen Dritten 100 Problem 73, 89, 97, 116 Problemanalyse 118 Problemlösungsmaschine, logische 89 Problemlösungsverfahren 52, 111, 116 —, algorithmisches 97 Problemstellung 52 Programm 99, 102, 111, 118 —, selbstregulierendes, heuristisches 119 Programmiersprache 107, 109 —, problemorientierte 98 Programmierung 99, 107, 118 f. Programmunterbrediung 111, 120 Prozeß, stochastischer 28 Quantor 105, 109 f. Quelle einer Nachricht 22, 55 Randelement 54 ratiomorph 48 Rationalisierung 119 —, sekundäre 103 Rationalismus 50, 62 f., 112 Reafferenzprinzip 51 Rechenmaschine 68, 70 f., 75 Rechenproblem 89 f. Rechtfertigung 101

Sachregister Reflexion 24, 112 Regelung 8 Regreß, theoretischer 66 —, unendlicher 53 rekurrierende Denkweise 93 Rekursion 93 rekursiv 88 Relation (siehe audi Beziehung), dreifache 25 Repräsentation 58 f. Repräsentations-Raum 59 Riickkoppelung 51 Sachverhalt 82 ff., 87 f. Schachspielautomat 70 Schaltalgebra 107 —, Booesdie 89 Schaltlogik 124 Schichtenlehre 45 Schließen, logisches 89 Schluß, logischer 40, 104 Schnittstelle 129 Selbstbegründung, formale 54, 119 Selbstkorrektur 74 f. Selbstorganisation 120 Selbstreflexion, theoretische 67 Selbstregulierung 117 Selbstreproduktion 75 Selbstverbesserung 120 Selektion 48, 72 Semantik 24, 26 f., 29 f., 105 ff. —, deskriptiv-linguistische 106 —, extensionale 31 f., 36 —, formale 53 —, intensionale 31, 36 —, logische 106 semantisch 18, 33 semantisch-pragmatisch 18, 20 ff. Semiotik 23 ff., 29 f., 107 Sender 22, 55 ff. Shannonsches Theorem 56 ff. Sigmatik 31 Signal 1 0 , 2 2 , 5 5 , 57 Sinnesempfindung (-Wahrnehmung) 12 f., 51

Sachregister Speicherkapazität 121 Spielautomat 65 Spieltheorie 44, 46 Sprache 24, 28 f., 53, 106 —, algorithmische 98 —, benutzerorientierte 98 —, formale 30, 53 —, künstliche 30, 53 —, maschinennahe (-orientierte) 98 —, natürliche 103 f., 106 Sprachphilosophie 106 Sprachsystem, künstliches 30, 34 Sprachwissenschaft 30 Sprechmaschine 64 Stabilität 46, 122 Statistik 8, 28, 42 Störquelle 56 Störung 22, 56 f. Struktur 86 —, algorithmische 77, 98 —, formale 81 —, logische 76, 101, 130 —, statische 76, 81, 121 Strukturähnlichkeit 72 Strukturgesetze 106 Struktursystem 106 Strukturzusammenhang 49 f. Superposition 93 Syllogistik 101 —, aristotelische 114 Symbol 12, 24, 27, 33, 57, 88, 105 Syntaktik 23, 26, 105, 107 f. Syntax 29 f. — der Wissenschaftssprache 104 —, logische 31,101, 103 System 32, 38 ff., 45 ff., 49, 52 ff., 58 f., 86, 114, 122, 128 f. —, arbeitsteiliges 120, 123 —, axiomatisdi-deduktives 70, 103 —, geozentrisches 128 —, geschlossenes 47, 54 —, heliozentrisches 122, 128 —, korrigierendes 57

143 —, logisch geschlossenes 103, 113 —, sich selbst regulierendes 119 —, vollständiges 103 Systematologie 47 Systembegriff 37 ff., 43 ff., 49, 54,101 ff. —, axiomatisch-deduktiver 40 Systemmodell, sequentielles 120, 123 Systemorganisation 125 systemrelativ 59, 86 systemtheoretisch 86 Systemtheorie 37, 44 ff., 48 f. —, allgemeine 44 ff., 54 —, kybernetische 51 —, organismische 47 Systemverhalten 37 ff., 48, 50, 52 Testtheorie 34 f. Theorem von McCulloch und Pitts 75 Theorie 37, 42, 50, 79, 91, 123 f., 127 —, allgemeine 95 —, axiomatisch-deduktive 113 f. — der Algorithmen 76 — der Rechenmaschinen 74 — der semantischen Information 20, 29, 34 ff. — der wissenschaftlichen Information 20, 35 f., 58 Theorienbildung 79 Thermodynamik 43, 67, 74, 127 f. Toleranzgrenze 21 Toleranzprinzip 30 Trägermenge 125 f. Transsubjektivität 37 Turing-Maschine 94, 96 Übergang 125 Übertragung, störungsfreie 21, 23 Übertragungsprozeß 18, 56 f.

Sachregister

144 Übertragungstechnik 21 f., 27 Umgebung 54 f., 56 Umkodieren 57 Umkonstruktion 36 Umwelt 46 Undefinierbarkeit des Informationsbegriffs 82 Unentscheidbarkeitstheorem, Gödelsches 92, 119 Ungewißheit 21 ff. Universalbibliothek 86 Universalinstrument 63 Unlösbarkeit 7, 96 f. —, algorithmische 89, 92, 97 —, generelle 97 Unlösbarkeitsbeweis 92, 96, 113 Unvollständigkeitstheorem, Gödelsches 70 Urteil 104 Urteilslehre 114 Variable 104 f., 108 Veränderung 72,125 ff. — des zugrunde liegenden Planes 71 —, Theorie der organisatorischen 123 —, dynamische 121 Verhaltensforschung 17, 48 Verhaltensweise 65 Verifikation 123 Verrechnungsapparat 73 Verstand, tätiger 62 —, leidender 62 f. Versuch und Irrtum 117 f., 120 Vitalismus 10, 46 Vollständigkeit 102 Vorbedingung 126 ff. Vorgang 82 ff., 87 ff. Wahrheit 32, 52, —, logische 103 Wahrheitsbegriff —, formaler 32 —, theoretischer —, semantischer

58, 99 32 108 32, 108

Wahrheitswert 100, 123 Wahrnehmung 51, 84 Wahrnehmungstheorie 61 Wahrscheinlichkeit 33, 36, 43, 73 f. —, induktive 34 Wahrscheinlichkeitsgrad 34 Wahrscheinlichkeitsrechnung 28 Wahrscheinlichkeitstheorie 8 Wärmetod 44 Wechselwirkung 50 f., 77 Widerspiegelung 31 Widerspiegelungstheorie 60 Widerspruchsfreiheit (-losigkeit) 91, 102 Wirkungszusammenhang 39 f., 43, 54 Wissenschaft 78, 80 f., 111 ff., 116 f., 122, 124 —, Geschichte und System der 40 Wissenschaftsentwicklung 122 Wissenschaftsgeschichte 119, 129 Wissenschaftsklassifikation 79 Wissenschaftslogik 80 ff., 101, 103 f., 111 Wissenschaftssprache 101, 103 Wissenschaftstheorie 13, 36, 79 ff., 121, 124 f., 129

Zahl, Zahlbegriff, Zahlenreihe 93 Zeichen 21, 23 ff., 30 ff., 57, 81, 84 f., 87 f., 95, 108 Zeichenfolge 29, 55 Zeichenkalkül 126 Zeichenersetzungsregeln 96 Zeichensprache 100 —, künstliche 101 Zeichensystem 31, 49 Zeitpfeil 126 zirkulär 60, 67 Zufall 53 Zusatzhypothese 113 Zustand 41, 43, 88, 125