Kommunizierende Automaten: Die Dynamisierung der Schrift als medienhistorische Zäsur [1. Aufl.] 9783839413357

Spätestens seit dem Jahr-2000-Problem wird diskutiert, ob Automatentechnik eine Superstruktur der Gesellschaft (H. Böhme

177 76 2MB

German Pages 250 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Prolegomena
Kybernetische Steuerungstechnologie als vor-elektrische Technik
Kybernetische Steuerung als textbasierte Kommunikation
Abriss des Jahr-2000-Problems
Technisch-mediale Aspekte
Öffentliche Aspekte
Ökonomische Aspekte
Rechtliche Aspekte
Die Bedeutung von Sprache, Text und Programm
Schrift als operative Schrift
Sprache als Programmiersprache
Text – Verbindung von formalen Sprachen und operativen Schriften
Voraussetzung der Automatenkommunikation: ein System
Der Zyklus automatischer Abarbeitung
Digitale Medien: Stofflichkeit und Welterzeugung
Automaten – zwischen Produktionsprozess und medialer Übermittlung
Rezeption rekonstruierter digitaler Verschriftung
Das Medium, die Botschaft und der Sinn
Exkurse zur maschinellen Steuerung
Information, mechanistisches Weltbild und Sprache
Glossar
Literaturverzeichnis
Monographien, Sammelwerke
Unselbstständige Literatur
Recommend Papers

Kommunizierende Automaten: Die Dynamisierung der Schrift als medienhistorische Zäsur [1. Aufl.]
 9783839413357

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Peter Fey Kommunizierende Automaten

2009-11-03 10-38-30 --- Projekt: transcript.titeleien / Dokument: FAX ID 02ed225141939550|(S.

1

) T00_01 schmutztitel - 1335.p 225141939558

Peter Fey (Dr. phil.) arbeitet seit 1986 im Bereich IT-Beratung.

2009-11-03 10-38-31 --- Projekt: transcript.titeleien / Dokument: FAX ID 02ed225141939550|(S.

2

) T00_02 seite 2 - 1335.p 225141939590

Peter Fey Kommunizierende Automaten. Die Dynamisierung der Schrift als medienhistorische Zäsur

2009-11-03 10-38-31 --- Projekt: transcript.titeleien / Dokument: FAX ID 02ed225141939550|(S.

3

) T00_03 titel - 1335.p 225141939606

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2009 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildungen: jaddingt und ulistx, fotolia.com Lektorat & Satz: Peter Fey Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1335-3 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

2009-11-03 10-38-31 --- Projekt: transcript.titeleien / Dokument: FAX ID 02ed225141939550|(S.

4

) T00_04 impressum - 1335.p 225141939614

Inhalt Prolegomena 9 Kybernetische Steuerungstechnologie als vor-elektrische Technik 17 Kybernetische Steuerung als textbasierte Kommunikation 24  Abriss des Jahr-2000-Problems 37 Technisch-mediale Aspekte 37 Öffentliche Aspekte 54 Ökonomische Aspekte 59 Rechtliche Aspekte 64  Die Bedeutung von Sprache, Text und Programm 71 Schrift als operative Schrift 72 Sprache als Programmiersprache 79 Text – Verbindung von formalen Sprachen und operativen Schriften 104 Voraussetzung der Automatenkommunikation: ein System 144 Der Zyklus automatischer Abarbeitung 148

Digitale Medien: Stofflichkeit und Welterzeugung 155 Automaten – zwischen Produktionsprozess und medialer Übermittlung 156 Rezeption rekonstruierter digitaler Verschriftung 164  Das Medium, die Botschaft und der Sinn 167 Exkurse zur maschinellen Steuerung 169 Information, mechanistisches Weltbild und Sprache 180 Glossar 195  Literaturverzeichnis 197 Monographien, Sammelwerke 197 Unselbstständige Literatur 220

Abbildungsverzeichnis Abbildung 1: „Ein Compiler“ 87 Abbildung 2: „Struktur eines Compilers“ 88 Abbildung 3: Maschineller Austausch von Signalen in differenten Codes 123 Abbildung 4: Andrej Barov: „Sonne Untergang auf Lanzarote“ 160

Tabellenverzeichnis Tabelle 1: Datumsformate in der Datenverarbeitung 41

Abkürzungsverzeichnis BMI BMWI BSI CPU DIHT EB EU http IBM / I.B.M. IT IV PDF URL www

Bundesministerium des Inneren (Deutschland) Bundesministerium für Wirtschaft (Deutschland) Bundesamt für Sicherheit in der Informationstechnik Central Processing Unit, Zentralrecheneinheit Deutscher Industrie- und Handelstag Encyclopaedia Britannica Europäische Union hypertext transfer protocol International Business Machines Informationstechnologie, Informationstechnik Informationsverarbeitung Portable Document Format Uniform Resource Locator world wide web

Prolegomena Ein historisches Phänomen zum Ende des letzten Jahrtausends gab den Anstoß für die vorliegende Arbeit. Sie hat den Einsatz textgesteuerter Automaten zum Thema und wirft die Frage auf, ob der Einsatz dieser Automaten ein Indiz für eine medienbasierte Zeitenwende darstellt. Knut Hickethier stellt in seinem im Jahr 2002 erschienen Aufsatz „Mediengeschichte“ die Frage, „ob die Medien – und damit vor allem die Medientechnik – wirklich als entscheidende Determinanten eines historischen Prozesses angesehen werden können“1. Hickethier weist darauf hin, dass Zweifel angebracht seien, hinsichtlich einer vor allem auf Medientechnik gegründeten „Ausweitung des Medienbegriffs“, der dazu führt, „Geschichte – und nicht nur Mediengeschichte“ – neu zu definieren, „indem die Medien zu Geschichte prägenden Faktoren“ werden.2 Die Suche nach Hinweisen darauf, ob durch den Einsatz von Automaten, die nach einem schriftlichen Ablaufplan selbstständig Befehle ausführen, sich Indizien für einer medienbasierte Zeitenwende ergeben, lenkt den Blick, folgt man den Ausführungen Hickethiers, auf eine „mediengeschichtliche Konzeptionsdebatte“3. Heinz Hiebler führt diese Debatte in seinem 2004 veröffentlichten Aufsatz „Mediengeschichte - Medientheorie im Kontext der Medienkulturwissenschaften“4. Er kann nachvollziehen, „wenn Medienkulturwissenschaftler wie Knut Hickethier in Reaktion auf betont technikzentrierte Arbeiten nach wie vor berechtigte Zweifel anmelden“5, gibt aber gleichzeitig zu bedenken, dass „die aktuel1

2 3 4

5

Hickethier, Knut: Mediengeschichte. In: Rusch, Gebhard (Hrsg.): Einführung in die Medienwissenschaft. Konzeptionen, Theorien, Methoden, Anwendungen. Wiesbaden, 2002. S. 171 – 188, 187 – 188. (Hickethier: Mediengeschichte, 2002.) Ebd. S. 187. Ebd. S. 188. Hiebler, Heinz: Mediengeschichte – Medientheorie im Kontext der Medienkulturwissenschaften. In: List, Elisabeth und Erwin Fiala (Hrsg.): Grundlagen der Kulturwissenschaften. Interdisziplinäre Kulturstudien. Tübingen, Basel, 2004. S. 185 – 205. S. 190. (Hiebler: Mediengeschichte, 2004) Ebd. S. 190

9

Kommunizierende Automaten len Einführungen in die Kulturwissenschaft die Integration (medien-)technischer Perspektiven zur Grundvoraussetzung für die programmatische Verbindung von Natur- und Geisteswissenschaften“ zählen.6 Explizit stellt er der kritischen Auffassung Hickethiers die Darstellung von Hartmut Böhme, Peter Matussek und Lothar Müller gegenüber, die im Jahr 2000 in ihrem Buch „Orientierung Kulturwissenschaft“ schreiben, dass für sie „die Technik eine Superstruktur der Gesellschaft“ darstellt.7 Es sei nicht anzunehmen, dass zum Beispiel die „Medien, Verwaltung, Stadtkultur – sich unabhängig von der Technik entwickeln würden“8. Auf diese Wirkungsmacht von medienbasierter Technik, wie sie sich ebenfalls in der Verwendung textgesteuerter Automaten zur Verrichtung von Arbeit ausdrückt, verweist auch die Ökonomin Claudia Loebbecke in ihrem Aufsatz „Digitalisierung - Technologien und Unternehmensstrategien“9. Sie versteht unter „Medienmanagement im weiteren Sinne“ „sowohl das Management von Medienunternehmen als auch das Management von Medien in Unternehmen aller Art“.10 Sie zitiert die Autoren Gary Hamel und Coimbatore K. Prahalad, die 1994 „von einer aufkommenden ‚Digitalindustrie‘“11 gesprochen haben. Vor dem Hintergrund der „noch unklar“ erscheinenden „konkreten wirtschaftlichen Auswirkungen dieser Technologien“ führt Loebbecke 2006 verhalten aus: „Unbestritten erscheint jedoch, dass die Diskontinuitäten in der Unternehmensumwelt zu einem Überdenken traditioneller Strategiemuster motivieren.“12

6 7

8 9

10 11

12

Ebd. Böhme, Hartmut, Matussek, Peter und Lothar Müller: Orientierung Kulturwissenschaft. Was sie kann, was sie will. Reinbek bei Hamburg, 2000. (Böhme: Orientierung, 2000.). S. 164. Ebd. Loebbecke, Claudia: Digitalisierung – Technologien und Unternehmensstrategien. In: Scholz, Christian (Hrsg.): Handbuch Medienmanagement. Berlin, Heidelberg, New York, 2006. (Loebbecke: Medienmanagement, 2006.) S. 357 – 374. S. 357. Ebd. Ebd. Loebbecke zitiert den Begriff „Digitalindustrie“ nach Hamel, Gary, Prahalad, Coimbatore K.: Competing for the future. Boston, 2001. S. 41. Im Jahr 2007 erschien unter dem selben Haupttitel Kressel, Henry, Lento, Thomas V.: Competing for the future. How Digital Innovations are Changing the World. Cambridge (u.a.), 2007. Dies zeigt, wie virulent das Thema Digitaltechnik und deren Auswirkungen auf Ökonomie und Gesellschaft auch aus wirtschaftswissenschaftlicher Sicht erscheinen. Loebbecke: Medienmanagement, 2006. S. 357

10

Prolegomena

Diese Diskontinuitäten in der Unternehmensumwelt, die sich aktuell in der weltweiten Finanzkrise13 ausdrücken, hängen nach Auffassung des Medienwisschaftlers Jens Schröter direkt mit den digitalen Medientechniken zusammen, die in der Produktion und Verwaltung seit nunmehr einigen Jahrzehnten eingesetzt werden. In dem 2008 erschienenen Band „McLuhan neu lesen“ geht er in seinem Beitrag „Von Heiß/Kalt zu Analog/Digital“ auf die Unterscheidung McLuhans von Medien nach einem „Grundprinzip“14 ein. McLuhan gibt ein Beispiel für diese prinzipielle Unterscheidung der Medien, die sich allerdings nur im Rückbezug auf den Menschen, also anthropozentrisch, als nachvollziehbar erweist: Ein „,heißes‘ Medium, wie etwa das Radio“, unterscheidet sich „von einem ,kühlen‘, wie etwa das Telefon“15. Nach McLuhan ist ein heißes Medium „eines, das nur einen der Sinne allein erweitert, und zwar bis etwas ‚detailreich‘ ist“16. Die auf Wahrnehmungsprozessen beruhende Unterscheidung in heiße und kalte Medien wird von Christopher Horrocks im Hinblick auf die Möglichkeiten der Akkumulation von Medienfunktionen durch Digitalisierung kritisch gesehen: „The digital era has therefore problematised McLuhan´s definitions of hot and cold media.“17 Allein der typische Computerbildschirm zeige „a broad spectrum of hot and cool media on one screen“18 und mache damit eine Abgrenzung medialer Nutzung im Hinblick auf Rezeption der Medien schwierig. Darüber hinaus gibt es im Bereich der Digitalität Kommunikationsformen, die eine Teilhabe des Rezipienten ausschließen: „Virtuality invites the immersion of the user in an environment that has nothing to do with participation.“19 Schröter bezieht das mediendefinitorische Grundprinzip McLuhans, einen „Aspekt von Understanding Media“, der „sich

13

14 15 16 17 18 19

Vgl. Süddeutsche Zeitung „2008 ist nicht 1929“ vom 21.03.2008: „Die dramatische Lage auf den Finanzmärkten ist die schlimmste Krise seit der großen Depression der 30er Jahre, meint der amerikanische Wirtschafts-Nobelpreisträger Joseph Stiglitz.“ Vgl. ZEIT online, 21.04.2009: IWF: „Krise könnte weltweit über vier Billionen Dollar vernichtet haben. Der Internationale Währungsfonds befürchtet, dass sich die weltweiten Verluste durch Ramschpapiere und faule Kredite auf über vier Billionen Dollar (3,09 Billionen Euro) belaufen könnten.“ McLuhan, Marshall: Die magischen Kanäle. Düsseldorf, 1992. (McLuhan: Kanäle, 1992.) S. 35. Ebd. Ebd. Horrocks, Chris: Marshall McLuhan and Virtuality. Cambridge usw., 2000. (Horrocks: McLuhan, 2000.) S. 56 Ebd. S. 58 Ebd. S. 59

11

Kommunizierende Automaten keiner großen Beliebtheit mehr“ erfreut20, auf einen Teilaspekt dieses neuen environments, auf den Prozess der Automation und seine weitreichenden Wirkungen auf die gegenwärtigen Gesellschaften: „Wenn McLuhan […] über die ‚zerstörerische Kraft einer heißen Technik, die eine kühle ablöst‘21 spekuliert, mag man das auf die eben nicht gerade kühle, sondern ultraheiße Automation und das ihr gegenüber relativ kühle Geld beziehen.“22

Schröter verweist auf „Autoren – wie etwa Moishe Postone […], die in dem Konflik zwischen der ‚Kybernation‘ und dem Geld den Anfang vom Ende geldzentrierter Gesellschaftsformen überhaupt sehen“23. Der Zusammenbruch der Finanzsysteme stellt vor diesem Hintergrund nicht nur eine „Diskontinuität in der Unternehmensumwelt“ dar, sondern einen Paradigmenwechsel, der alle Systeme erfasst, die „um den Kreislauf Arbeit – Geld – Konsum“ organisiert sind.24 McLuhan nimmt diese Entwicklung 1964 wahr, in dem er über den „Prozeß der Automation“ voraussagt, dass er „ein Abziehen der gegenwärtigen Arbeitskräfte aus der Industrie verursacht“25. Eine Reaktion auf diese neue Entwicklung ist auch die Diskussion der aktiven Entkoppelung von Arbeit und Verdienst im Rahmen eines bedingungslosen Grundeinkommens.26 20

21 22 23

24 25 26

Schröter, Jens: Von Heiß/Kalt zu Analog/Digital. Die Automation als Grenze von McLuhans Medienanthropologie. In: Kerckhove, Derrick de, Leeker, Martina und Kerstin Schmidt (Hrsg.): McLuhan neu lesen. Kritische Analysen zu Medien und Kultur im 21. Jahrhundert. Bielefeld, 2008. (Schröter: Heiß/Kalt, 2008.) S. S. 304 – 320. S. 305. Schröter zitiert McLuhan, Marshall: Die magischen Kanäle. Dresden, 1994. S. 47 Schröter: Heiß/Kalt, 2008. S. 314. Schröter zitiert McLuhan, Marshall: Die magischen Kanäle. Dresden, 1994. S. 43. Schröter: Heiß/Kalt, 2008. S. 314. Schröter bezieht sich auf das Werk von Postone, Moishe: Zeit, Arbeit und gesellschaftliche Herrschaft. Eine neue Interpretation der kritischen Theorie von Marx. Freiburg, 2003. Schröter: Heiß/Kalt, 2008. S. 314. McLuhan: Kanäle, 1992. S. 398. Vgl. Prof. Götz W. Werner, Interfakultatives Institut für Entrepreneurship, Universität Karlsruhe (TH): „Finanzierung und Wirkung eines bedingungslosen Grundeinkommens: Ausgangspunkt für die Überlegungen zum bedingungslosen Grundeinkommen und seiner Finanzierung ist ein Bewusstsein der grundlegenden Veränderungen, die unsere Gesellschaft durch die in den vergangenen Jahrzehnten um ein vielfaches gestiegene Produktivität erfährt. Not und materieller Mangel durch fehlende Produktionsmöglichkeiten gehören der Vergangenheit an. Heute übersteigen unsere Kapazitäten unseren Eigenbedarf bei weitem. Unser gesellschaftliches Bewusstsein ist hinter den Möglichkeiten weit zurückgeblieben, die sich durch die Arbeitsteilung und die sich daraus ergebende Produktivitätsentwicklung anbieten.“ Aus: http://www.unternimm-die-zukunft.de/ Zugriff 28.03.2009.

12

Prolegomena Das Medium Geld wird durch das Medium Automation entwertet. Das Geld verliert durch die Automation die mediale Speicherfunktion für geleistete Arbeit. Es wurde vom gesellschaftlichen Produktionsprozess entkoppelt.27 Worin besteht der „Prozeß der Automation“, der nach McLuhan dazu führt, dass „der alte mechanistische Begriff des ‚Jobs‘, der zugeteilten Aufgabe und der Facharbeit für den ‚Arbeiter‘ im Zeitalter der Automation seinen Sinn verliert“28? In der Theorie McLuhans, die sowohl eine anthropozentrische Basis29 hat, als auch metaphorische Elemente30 aufweist, werden die Begriffe Automation und elektrische Medien, die genuin nichts miteinander zu tun haben, oft synonym gebraucht. Leeker zitiert aus McLuhans „berühmten Interview mit dem Playboy“31, in dem McLuhan ausführt: „Die elektrischen Medien sind der Telegraf, das Radio, der Film, das Telefon, der Computer und das Fernsehen“, diese hätten als Ausweitung der Sinnesfunktionen „unser gesamtes Zentralnervensystem vergrößert, aus dem Körper hinaus verlagert und somit alle Bereiche unseres sozialen und psychischen Lebens verändert“.32

27

28 29

30

31 32

Vgl. Schröter: Heiß/Kalt, 2008. S. 314. Schröter zitiert die der klassischen Ökonomie folgende These McLuhans, in der er Geld „als Mittel zur Speicherung und zum Austausch von Arbeit“ definiert. Vgl. McLuhan, Marshall: Die magischen Kanäle. Dresden, 1994. S. 212. McLuhan: Kanäle, 1992. S. 398 Vgl. neben dem bereits zitierten Aufsatz von Jens Schröter, Schröter: Heiß/Kalt, 2008, S. 304 - 320, der im Untertitel auf McLuhans „Medienanthropologie“ verweist auch a) Schultz, Oliver Lerone: Marshall McLuhan. Medien als Infrastrukturen und Archetypen. In: Alice Lagaay und David Lauer (Hrsg.): Medientheorien. Eine philosophische Einführung. Frankfurt (u.a.), 2004. (Schultz: McLuhan, 2004.) S. 31 – 68; b) Leeker, Martina: Camouflagen des Computers. McLuhan und die NeoAvantgarde der 1960er Jahre. In: Kerckhove, Derrick de, Leeker, Martina und Kerstin Schmidt (Hrsg.): McLuhan neu lesen. Kritische Analysen zu Medien und Kultur im 21. Jahrhundert. Bielefeld, 2008. (Leeker: Camouflagen, 2008.) S. S. 345 – 375; Pias, Claus: Die Welt als Schmoo. Computer mit, nach und neben McLuhan. In: Kerckhove, Derrick de, Leeker, Martina und Kerstin Schmidt (Hrsg.): McLuhan neu lesen. Kritische Analysen zu Medien und Kultur im 21. Jahrhundert. Bielefeld, 2008. (Pias: Schmoo, 2008.) S. S. 140 – 157. Vgl. Levinson, Paul: Digital McLuhan. A guide to the information millennium. London, 1999. (Levinson: McLuhan, 1990.): „Thus, like so many of McLuhan´s observations […] was more metaphor than reality.“ S. 120 Leeker: Camouflagen, 2008. S. 345 McLuhan, Marshall: Geschlechtsorgan der Maschinen. In: McLuhan, Marshall (Hrsg. u. übers. von Martin Baltes et. al.): Das Medium ist die Botschaft. Dresden, 2001. S. 169 – 244. (McLuhan: Geschlechtsorgan, 2001.) S. 189. Vgl. auch: The Playboy Interview: Marshal McLuhan. In: Playboy Magazine, März 1969.

13

Kommunizierende Automaten McLuhan stellt über das Bild der Ausweitung des menschlichen Körpers und seiner Sinne eine prinzipielle Verbindung von Medien und damit auch von elektrisch betriebenem Fernsehen und einem elektronischen Computer her. Im Gegensatz zu anderen Medien wie beispielsweise dem Telefon oder dem Fernsehapparat ist der digitale Automat genuin kein elektrischer Apparat. Die Differenzen der medialen Funktionen von Fernsehen und Computer werden aus diesem Blickwinkel überdeckt und nivelliert. In einem historischen, wiederum anthropozentrischen Abriss beschreibt McLuhan die heutigen Fähigkeiten des Automaten gegenüber den Möglichkeiten in der vor-elektrischen Zeit: „Wie unsere Hände und Finger, die viele Aufgaben bewältigen können, verkörpert die Automationseinheit ein Anpassungsvermögen, das dem vorelektrischen und mechanischen Zeitalter vollkommen fehlte.“33

Sicher ist es richtig, dass die Entwicklung der elektronisch gesteuerten Bauteile in Automaten enorm dazu beigetragen hat, die Leistung von Automaten zu erhöhen. Aktuell ist Elektrizität unabdingbar, um Automaten zu betreiben. Doch diese Energieform ist den Automaten nur äußerlich, sie ist nicht tatsächlicher Bestandteil der Automaten und Computer. Der textgesteuerte Automat benötigt, um zu arbeiten, zwar Energie jedoch nicht originär Elektrizität. Dies unterscheidet ihn zum Beispiel von einem Fernsehen, das der Elektrizität vom Grunde her bedarf. Die elementaren Arbeitsvorgänge von Automaten setzen anders als die Medien Telefon, Radio oder Fernsehen Elektrizität nicht vom Prinzip her voraus. Claus Pias geht dieser Gleichsetzung von Massenkommunikationsmitteln wie Fernsehen und Automaten unter dem Aspekt der anthropozentrischen „Ausweitungshypothese“34 McLuhans nach. Diese Theorie der Medien als extensions of man fasst McLuhan in seinem zusammen mit Quentin Fiore editierten Buch „Das Medium ist Massage“ so: „Alle Medien sind Erweiterungen bestimmter menschlicher Anlagen – seien sie physisch oder psy-

33 34

McLuhan: Kanäle, 1992. S. 404. Vgl. den Untertitel im amerikanischen Original zur deutschen Ausgabe der Magischen Kanäle: Understanding Media: The Extensions of Man. Siehe auch zu den Begriffen Extension, Hilfsorgane, Mängelwesen: a) Mersch, Dieter: Medientheorien zur Einführung. Hamburg, 2006. (Mersch: Medientheorien, 2006.) S. 109 ff., hierin Verweise auf die Beiträge von Ernst Kapp, Arnold Gehlen, Siegmund Freud und McLuhan, sowie b) Rohbeck, Johannes: Ernst Kapp: Philosophie der Technik. In: Zeitschrif für Didaktik der Philosophie und Ethik, 1996, Heft 18. S. S. 129 - 134

14

Prolegomena chisch.“35 Pias möchte „gerade angesichts der Kybernetik vorsichtige Zweifel an dieser These“ der Automation als medialer Ausweitung des Menschen „anmelden“, die „notorisch mit einer Amputation verbunden“ ist und „deren Schmerz durch Narzißmus und ‚Verliebtsein in die Apparate’ anästhesiert werden kann“.36 Pias erscheint in McLuhans Understanding Media das „Kapitel namens ‚Automation‘ eher unscharf und in gewisser Weise dilettantisch“37 und zunächst allein aus diesem Grund: „Kybernation, ‚Rückkopplung‘ und ‚Computer‘ markieren keine wirklich neue Situation, sondern werden ausschließlich im Rahmen einer Echtzeit von Elektrizität verhandelt, die kaum hinreicht, eine Distinktion zu technischen Medien wie Radios, Fernsehern oder Telefonen zu ziehen. Dies mag zum einen daran liegen, daß McLuhan die Besonderheiten des Konzepts von Information nicht stark macht, zum anderen (und grundsätzlicher) aber daran, daß die »Ausweitungen« materiell-apparativ und letztlich vom Menschen ausgehend gedacht werden.“38

Den Aspekt einer letztlich vom Menschen ausgehenden Medientheorie stellt auch Martina Leeker in ihrem Aufsatz die „Camouflagen des Computers. McLuhan und die Neo-Avantgarde der 1960er Jahre“ heraus. Für sie beschreibt McLuhan „dann auch folgerichtig die von ihm entworfene Extension des Körpers durch Medien im Zeitalter der Kybernetik explizit als eine okkulte Mediengeschichte, unter anderem, indem er von Medienwirkungen als okkulten Erfahrungen spricht.“39

Die Medienleistung der Automaten, deren „das Humane destabilisierende Umschlag“ wird nach Leeker in McLuhans Ideenwelt „mit ätherphysikalischen Erklärungen camoufliert, mit dem Ziel, eine weltumspannende Heilslehre und humane Zurichtung der elektrischen Schaltwerke zu erreichen“.40 Im Hinblick auf eine anders gefasste, nicht camouflierende, nicht anthropozentrische, kurz nicht nach der Art von McLuhan geartete „Kybernetik“, die „nicht von Apparaten, sondern von Epistemologien“41, also von einer – nach Max Bense – „Metatechnik einer Maschine“42 handelt, 35 36

37 38 39 40 41 42

McLuhan, Marshall, Fiore, Quentin: Das Medium ist Massage. Frankfurt/M. (u.a.), 1969. (McLuhan: Massage, 1969.) S. 26 Pias, Claus: Die kybernetische Illusion. In: Liebrand, Claudia, Schneider, Irmela (Hrsg.): Medien in Medien. Mediologie, Band 6. Köln, 2002. (Pias: Kybernetische Illusion, 2002.) S. 51 – 66. S. 55 Ebd. Ebd. Leeker: Camouflagen, 2008. S. 351 Ebd, S. 353 Pias: Kybernetische Illusion, 2002. S. 59 Max Bense: „Kybernetik oder Die Metatechnik einer Maschine“, in: Ausgewählte Schriften, Bd.2: Philosophie der Mathematik, Naturwis-

15

Kommunizierende Automaten spricht Pias konsequenterweise vom „Kollabieren der Ausweitungshypothese“ McLuhans 43. Schröter stellt dieses Kollabieren der Ausweitungshypothese unter den Aspekt der textgesteuerten Handlungsausführung: „Die Digitalität der programmierbaren Maschinen und die damit möglichen kybernetischen Steuerungstechnologien, die hinter der Automation stehen […] brechen gewissermaßen traumatisch in McLuhans Diskurs ein.“44

Die im Zitat von Schröter angesprochene Kybernetik erscheint nach Claus Pias „bei McLuhan nicht als Name einer Wissenschaft oder einer Theorie, sondern immer nur in der Prozessform, d. h. als Kybernetisierung oder wortwörtlich als ‚cybernation‘“45. Die Betrachtung der Tätigkeit der Automaten nicht als Einzelgegenstand, sondern stets in Prozessform, trägt dazu bei, deren tatsächlichen Zustand zu verdecken. McLuhan, für den im Jahr 1962 ersichtlich war, dass die „neuen mittels Magnetband synchronisierten Informationsformen“ die bisherigen Produktionsformen wie das Fließband verdrängen werden46, formuliert eine Annahme über eine Situation: „Aber die Neuerungen der Automation, die arbeitslose und eigentumslose Gemeinschaften schaffen, verwickeln uns in neue Ungewißheiten.“47

Die Neuerungen der Automation bestehen in der neuen Anwendung bisheriger Medientechniken. Sie bestehen darin, schriftliche Anweisungen auf neue Handlungsträger zu übertragen. Die Folgen der Automation sind nicht deshalb schwer abzuschätzen, weil grundlos willkürliche Handlungen durch Maschinen ausgeführt werden können, sondern weil ein Text, der Befehlscharakter hat, sich vom Verfasser handelnd lösen kann. Ein programmierter Prozess, der mittels Speichermedien, wie zum Beispiel Magnetplatten, Informationen erhält, bearbeitet und weitergibt, vermag sich der Kontrolle der ursprünglichen Auftraggeber zu entwinden. Die eigenständigen medialen Wirkungen, die sich in Bezug auf syntaktische, semantische und pragmatische Aspekte ergeben, werden aufgehoben. „Dieser Elektronenrechner“ wird bei McLuhan zu einem „Modell, dessen Merkmale für die Automation

43 44 45 46 47

senschaft und Technik, Stuttgart 1998, S. 429 - 446. Vgl. auch Pias: Kybernetische Illusion, 2002. S. 59 Pias: Kybernetische Illusion, 2002. S. 59 Schröter: Heiß/Kalt, 2008. S. 307 Pias: Schmoo, 2008. S. 141 McLuhan, Marshall: Die Gutenberg-Galaxis. Das Ende des Buchzeitalters. Bonn u.a., 1995. (McLuhan: Gutenberg-Galaxis, 1995.) S. 341 Ebd.

16

Prolegomena überhaupt gelten“48. Wobei dieser Prozess zu einem „synchronisierte[n] Zusammenspiel der Arbeitsabläufe wird[,] von Meßvorrichtungen und Instrumenten gesteuert“49. Das Merkmal der Textgebundenheit, des Abarbeitens von Befehlen, die Steuerung eben dieser Meßvorrichtungen durch verschriftete Anweisungen wird bei McLuhan nicht untersucht. Die Form der Automatensteuerung durch codierte Handlungsanweisungen wird in dieser Definition des Automaten, den McLuhan mit einem einzelnen „Oboenton“ vergleicht, der „beliebig lange erzeugt werden“ kann50, nicht sichtbar. Die Alterität, die das Erscheinen und Wirken von Medien erst möglich macht51, wird in der McLuhanschen Theorie der Kommunikation mit den Maschinen aufgehoben. Der stetige Rückbezug maschineller Medien auf die Menschen unter dem Blickwinkel der „Ausweitungen“, der „Extensions“, verstellt den Blick auf die Effekte, die die sprachlichen Anweisungen an und von Maschinen implizieren. Martina Leeker geht in ihrem bereits zitierten Aufsatz über die Camouflage des Computers auf die Theorie McLuhans über die Automation ein: „Er unterläuft vielmehr die Kybernetik und wendet sich stattdessen der nachrichtentechnischen, Strom in Information verwandelnden Vorgeschichte des Computers zu“.52 Die prinzipielle Unterscheidung von notwendigerweise elektrisch betriebenen Medien und den textgesteuerten Automaten, die zur Verrichtung ihrer Arbeit Elektrizität nutzen (können), wird in der Theorie McLuhans nicht vollzogen, ist jedoch für eine Analyse der Tätigkeiten sowie der Wirkung unabdingbar, die die Automaten im konkreten Handeln und in ihrer Bedeutung als gesellschaftliches Medium haben.

Kybernetische Steuerungstechnologie als vor-elektrische Technik Die von McLuhan vorgenommene medienhistorische Unterscheidung in eine vor- und nach-elektrische Zeit wirft die Frage auf, was an Medien bzw. an medial-technischen Überlegungen in einer Zeit ohne Elektrifizierung bereits virulent war. Jenseits aller medienteleologischen Vorstellungen McLuhans, die Dieter Mersch

48 49 50 51 52

McLuhan: Kanäle, 1992. S. 405 Ebd. Vgl. ebd. Vgl. Mersch: Medientheorien, 2006. S. 9 Leeker: Camouflage, 2008. S. 353

17

Kommunizierende Automaten untersucht hat53, zeigt sich bei der Betrachtung der theoretischen Automatenentwürfe wieder das Primat von Text und Schrift. Die von Mersch als „Kardinalmedien“54 bezeichneten Medien haben ihre große Bedeutung auch in der Zeit, die nach McLuhan durch die elektrischen Medien geprägt sind55. Diese Vorherrschaft von Sprache und Schrift besteht in Bezug auf die Automatensteuerung auch noch in einer Zeit, in der die Elektrifizierung aller Lebensbereiche bereits erreicht ist und Medien wie das Radio oder das Telefon umfassend genutzt wurden.56 Wolfgang Hagen führt über die beginnende Computergeschichte im 20. Jahrhundert, die anfänglich von Alan Turing und John von Neumann, „zwei führenden Mathematikern dieses Jahrhunderts“, bestimmt wurde, aus: „Ein abstrakter Kalkulator, abstraktes Papier und ein abstrakter Schreib- und Löschstift bilden bekanntlich die Elemente jener abstrakten Turing-Maschine, aus der acht Jahre später der Los Alamos-‚consultant‘ John von Neumann jene konkrete Rechnerachitektur ableitete, die wir heute ‚Computer‘ nennen.“57

Die Prozesse, die in dem frühen theoretischen Computermodell abgearbeitet werden, sind in diesem theoretischen Modell nicht elektrisch basiert. Doch diese Darstellung ist nicht der Beginn der Überlegungen zu einer Rechnerarchitektur. Bereits 100 Jahre zuvor hatte Charles Babbage eine Automatenkonstruktion entworfen, die im Jahr 2002 erstmalig nach seinen Plänen gebaut wurde: „Charles Babbage (1791-1871), computer pioneer, designed the first automatic computing engines. He invented computers but failed to build them. The

53

54 55 56

57

Vgl. Mersch, Dieter: Kritik des Medienteleologismus. McLuhan, Flusser und Hegel. In: Kerckhove, Derrick de, Leeker, Martina und Kerstin Schmidt (Hrsg.): McLuhan neu lesen. Kritische Analysen zu Medien und Kultur im 21. Jahrhundert. Bielefeld, 2008. (Mersch: Medienteleogismus, 2008.) S. 196 - 209 Ebd. S. 202 Ebd. S. 204 und McLuhan, Marshall: Das Medium ist die Botschaft. Dresden, 2001. (McLuhan: Medium, 2001.) S. 189 f. Vgl. Hörisch, Jochen: Eine Geschichte der Medien. Von der Oblate zum Internet. Frankfurt am Main, 2004. (Hörisch: Geschichte, 2004.) Cf S. 260 ff. und 331 ff. Hagen, Wolfgang: Computerpolitik. In: Bolz, Norbert, Friedrich Kittler und Georg-Christoph Tholen (Hrsg.): Computer als Medium. München, 2 1999. (Hagen: Computerpolitik, 1999.) S. 139 – 160. S. 140. Der Begriff Los-Alamos-consultant bezeichnet die Rolle von John von Neumann im Zusammenhang mit dem Atombomben-Projekt der USRegierung unter dem Wissenschaftler Robert Oppenheimer. Hagen verweist zudem in seiner Fußnote 14 darauf, dass Turing und Neumann „zwischen 1936 und 1938 für längere Zeit gemeinsam in Princeton“ waren. Ebd. S. 141

18

Prolegomena first complete Babbage Engine was completed in London in 2002, 153 years after it was designed. Difference Engine No. 2, built faithfully to the original drawings, consists of 8,000 parts, weighs five tons, and measures 11 feet long.“58

Der Nachbau dieser Maschine, dieses Automaten, ist gelungen, ihre Funktionsfähigkeit ohne Nutzung elektrischer Energie wurde unter Beweis gestellt. Einige Jahre nach der Difference Engine entwickelte Babbage ein fortgeschritteneres Modell eines Automaten: „Babbage conceived, in 1834, a more ambitious machine, later called Analytical Engine (AE), a general-purpose programmable computing engine.“59 Babbages Analytical Engine Maschine „konnte keine physikalische Arbeit verrichten wie eine Dampfmaschine; stattdessen bewegte sie Lochkarten und konnte selbständig Berechnungen mit Zahlen ausführen.“60 Wie später Turing hatte er als Ziel, eine universell einzusetzende Rechenmaschine für alle denkbaren mathematischen Probleme zu schaffen. „Das Revolutionäre daran war das, was wir heute die Architektur eines Computers nennen.“ 61 „The logical structure of the Analytical Engine was essentially the same as that which has dominated computer design in the electronic era – the separation of the memory (the ,Store‘) from the central processor (the ,Mill‘), serial operation using a ,fetch-execute cycle‘, and facilities for inputting and outputting data and instructions. Calling Babbage ,the first computer pioneer‘ is not a casual tribute.“62

Der Computer, der programmierbare Automat, entstammt, betrachten wir dieses Werk Babbages, nicht der Zeit der Elektrizität, sondern dem „vor-elektrischen“, wenn auch wegen der Sprungbefehle im programmierten Code nicht mehr dem „mechanischen Zeitalter“63. Eben dieser Code, der die facilities for inputting and outputting data and instructions steuert, ist der zentrale Bestandteil des Automaten. In dem historischen Kontext der Analytical Machine war es Augusta Ada King, Countess of Lovelace, die die Arbeiten zur Programmierung der Analytical Engine auf-

58

59 60

61 62 63

Swade, Doron: Computerhistory Charles Babbage. Computer History Museum, Mountain View, CA, USA. Aus URL: http://www.computerhistory.org/babbage/ (Zugriff: März 2009.) Ebd. Webseite der Initiative Informatikjahr. Bundesministerium für Bildung und Forschung. URL http://www.informatikjahr.de/index.php?id=136 (Zugriff: März 2009.) Ebd. Swade, Doron: aaO McLuhan: Kanäle, 1992. S. 404.

19

Kommunizierende Automaten nahm.64 Ada King entwirft „Anwendungen, Programmiertechniken, wie z.B. Schleifen, Rekursion, if-then-Abfragen, Programme, z.B. zur rekursiven Berechnung der Bernoulli-Zahlen“65. Hans Magnus Enzensberger schreibt über Ada Kings Bedeutung für den Entwurf des Charles Babbage in seinem Werk „Mausoleum“: „In diesem Augenblick erscheint in der Tür des Labors Lady Lovelace, verschleiert, und sie erklärt uns den Zweck dieser Zahnräder, Schnecken, und Nockenwellen“66. King führt aus, wie die Maschine arbeiten und wirken kann, weil sie das Programm verfasst hatte. Die beabsichtigte (und zu Babbages Lebzeiten nie ausgeführte) Funktionsweise der Maschine wird bei Enzensberger in einem Zitat von King so beschrieben: „Er webt auf seiner Maschine algebraische Muster, so wie der Stuhl von Jaquard Blüten und Blätter webt.“67 Dieses Weben der algebraischen Muster ist ihr Werk. Sie trägt das Programm zur vollständigen Ausstattung des Automaten bei, ohne sich der Elektrizität bedienen zu können. Wobei betont werden muss, dass die Aussagen zur vorelektrischen Technik der Automation sich auf das Prinzip des Computers beziehen. Selbstverständlich ist die Nutzung von Elektrizität in heutigen Automaten ein wesentlicher Bestandteil,

64

65

66 67

Freeman, Elisabeth: Ada & the Analytical Engine. In: Educom Review Release. Volume 31, Number 2, March/April 1996: „Ada's description of the Analytical Engine, the set of instructions she wrote for it, and her speculations of its possible uses were published in 1843 in a collection of notes in Richard Taylor's Scientific Memoirs series.” Aus: http://net.educause.edu/apps/er/review/reviewArticles/31240.html, Zugriff März 2009. Vgl. auch die Arbeit über die Funktionsweise der AE von Menabrea, Luigi Federico: Notions sur la machine analytique de Charles Babbage. 1842. Diese wurde von Ada King übersetzt und um eigene Angaben ergänzt. Vgl. Stein, Dorothy: Ada. Die Braut der Wissenschaft. Berlin 1999. (Stein: Ada. 1999) Vgl. auch die Notation der Encyclopaedia Britannica über Countess of Augusta Ada King Lovelace: „She became interested in Babbage’s machines as early as 1833 and, most notably, in 1843 came to translate and annotate an article written by the Italian mathematician and engineer Luigi Federico Menabrea, „Notions sur la machine analytique de Charles Babbage” (1842; „Elements of Charles Babbage’s Analytical Machine”). Her detailed and elaborate annotations (especially her description of how the proposed Analytical Engine could be programmed to compute Bernoulli numbers) were excellent; ‘the Analytical Engine,’ she said, ‘weaves algebraic patterns, just as the Jacquard-loom weaves flowers and leaves.’” Universität Hamburg, Fachbereich Mathematik: Ada Lovelaces Beitrag zur Analytical Engine. Aus: http://www.math.uni-hamburg.de/home/ blunck/lovelace.pdf Zugriff März 2009. Enzensberger, Hans Magnus: Mausoleum. Frankfurt am Main: Suhrkamp, 1978. S. 72 Ebd. und vgl. in der Fußnote oben die Ausführungen in der Encyclopedia Britannica.

20

Prolegomena sowohl in Bezug auf den Aufbau der Hardware und wie auch – als conditio sine qua non – der dafür geschriebenen Software. Die Möglichkeit sprachgesteuerter Programmierung hat die Automaten nach der Phase der „Mechanisierung“ in neue Phasen der Entwicklung geführt. „Danach, in der zweiten Phase, erfolgte eine stürmische Entwicklung der Automaten durch den Einsatz der Elektrizität, Elektrotechnik und Elektronik.“68 Die Elektrizität ist dem Automaten jedoch prinzipiell ein Hilfsmittel. „Aktuell befindet sich die Automatisierung durch den verstärkten Einsatz der Rechentechnik und Informationstechnologie bereits in der dritten Phase.“69 Diese ist wiederum durch den Einsatz differenzierter Programmiersprachen gekennzeichnet, die speziellen Anforderungen der verwendeten Hardware oder der angestrebten Lösung genügen sollen.70 Die textsprachliche Basis des Automatenhandelns, deren facilities for inputting and outputting data and instructions, zeigt, dass es sich bei der Automation eben nicht um ein neues Medium handelt, sondern um ein Medium, das Text und Schrift nur in anderer Form nutzt. Dies führt zur kritischen Haltung Hickethiers gegenüber den mediengeschichtlichen Periodisierungsansätzen zurück. Es ist unter dieser Annahme umso mehr die Frage zu stellen, ob „die Medientechnik – wirklich als entscheidende Determinante eines historischen Prozesses angesehen werden“ kann71. Es ist zu fragen, ob tatsächlich das Medium oder die Medientechnik historisch determinierend wirken oder nicht vielmehr jene Bedingungen, die im politischen, ökonomischen und sozialen Kontext wirken. Den Medien wird dann durch die Nutzung ihre (mögliche) Wirkung erst zugeschrieben. Anders gefasst: Die dialektische Bedingtheit von gesellschaftlicher Verfasstheit und gegebenen technisch-medialen Möglichkeiten definiert die Optionen ihrer Nutzung und beschleunigt realisierbare historische Veränderungen. In diesem Zusammenhang erhält die Vorstellung McLuhans von der cybernation als Prozess eine andere Bedeutung: „The bad news is that all persons, whether or not they understand the 68 69 70

71

Langmann: Reinhard: Taschenbuch der Automatisierung. München, Wien, 2004. (Langmann: Automatisierung, 2004). S. 19 Ebd. Vgl. aus einer Vielzahl von Literatur zum Thema Automatisierung (Amazon listet am 4.5.2009 1083 Titel auf): Wellenreuther, Günter, Zastrow, Dieter: Automatisieren mit SPS – Theorie und Praxis: Programmierung: IEC 61131-3, STEP 7-Lehrgang, Systematische Lösungsverfahren, Bausteinbibliothek. Ethernet-TCP/IP, Web-Technolgien, OPC. Wiesbaden, 42008. Hickethier: Mediengeschichte, 2002. S. 187

21

Kommunizierende Automaten processes of computerized high-speed transmission, will lose their old private identities.”72 Die technische Medienbestimmtheit erzeugt jene Auswirkungen, denen sich der Einzelne nicht entziehen kann. McLuhan fährt fort: „The more quickly the rate of information exchange speeds up, the more likely we will all merge into a new robotic corporate entity, devoid of true specialism which has been the hallmark of our old private identities. The more information has to evaluate, the less one knows. Specialism cannot exist at speed of light.“73

Durch die bewusste Nutzung eines Mediums in einem bestimmten Kontext prägen wir auch die (Rück-)Wirkungsmöglichkeiten des Mediums mit, die über den reinen Gebrauch des Mediums weit hinausgehen können. Den Blick auf diese sozioökonomischen Zusammenhänge lenkt auch ein Werk zur Kybernetik und Automation aus dem selben Jahr, in dem McLuhans „Understanding Media“ mit dem Kapitel zur Automation erschien. Im Jahr 1964 gab Helmar Frank als führender Vertreter der Deutschen Informationsästhetik74 das Sammelwerk „Kybernetik“ heraus75. Claus Pias hat in seinem Aufsatz über „die Welt als Schmoo“ auf die andersgeartete Sichtweise der Automation in den Reihen der Deutschen Informationsästhetik der hingewiesen und Mutmaßungen darüber angestellt, „was die Umstände gewesen sein mögen, dass all dies [die Vorstellungen McLuhans und der amerikanischen Computeravantgarde; P. F.] in Europa nicht so funktioniert hat“.76 In dem Aufsatz „Sozioökonomische Konsequenzen der Automation“, der in dem von Frank veröffentlichten Sammelwerk erschien, erläutert Hans Georg Schachtschabel, dass es sich bei „der Automation mit ihrem zentralen Kriterium Kybernetik“ um „neue technische Verfahren“ handelt. Schachtschabel verkündet, dies geschehe „mit dem Ziel weitgehender oder perfekter Rationa-

72

73 74 75

76

McLuhan, Marshall und Bruce R. Powers: The global village. Transformations in World Llife and Media in the 21st Century. New York (u.a.), 1989. (McLuhan: Village, 1989.) S. 129 Ebd. Vgl. Frank, Helmar: Grundlagenprobleme der Informationsästhetik und erste Anwendung auf die mime pure. Dissertation, TH Stuttgart, 1959. Frank, Helmar (Hrsg.): Kybernetik. Brücke zwischen den Wissenschaften. 29 Beiträge namhafter Wissenschaftler und Ingenieure. Frankfurt am Main, 1964. Das Kompendium erschien in der Folge bis 1970 in mehr als acht Auflagen. Pias: Schmoo, 2008. S. 151 ff.

22

Prolegomena lisierung“.77 Die politische, soziale und ökonomische Gestaltung dieses Prozesses wird unterstrichen, indem ausgeführt wird, dass „administrative und produktionelle Aufgaben von selbständig arbeitenden Maschinen und Anlagen durchgeführt und erledigt werden, so daß idealerweise keine menschliche Tätigkeit, kein menschlicher Eingriff mehr erforderlich ist“.78

Die Existenz des technischen Mediums Automation erzwingt nicht dessen Einsatz und verändert nicht aus sich heraus Zeitenläufe und historische Zustände. Es werden bewusst „Ideal“-Zustände außerhalb des Mediums formuliert und ein mögliches Einsatzfeld der technisch-medialen Gegebenheiten theoretisch entwickelt. Felix von Cube greift 1967 den Gedanken auf. Er führt aus: „Die Automation dient […] zunächst einmal der Entlastung des Menschen von Steuerungs- und Kontrollfunktionen vielfältigster Art“79 und setzt diesen Gedankengang in Relation zu den Vorstellungen von den Auswirkungen der Automation: Sie „pendeln hierbei von dem Alpdruck einer vollautomatisierten Industriegesellschaft, die den Menschen völlig aus der Arbeit verdrängt hat, bis zur Vision einer ungeheuren Zunahme an Wohlstand und Freizeit.“80

Der Einsatz des bekannten Mediums Schrift in einem neuen technischen Zusammenhang führt deshalb zu Überlegungen über den Beginn und die mögliche Gestaltung einer neuen historischen Periode, weil eine bewusste Zielsetzung anzunehmen ist. Nicht allein das neue Medium bringt Veränderungen hervor, sondern zudem die politischen, sozialen und ökonomischen Rahmenbedingungen und Zielsetzungen seiner Nutzung. Gleichwohl gestatten die neuen medialen Nutzungen die Entwicklung von Ideen und Vorstellungen, die ohne diese nicht denkbar gewesen wären. „Die Apparate der Kybernetik“, so Claus Pias in seinem Aufsatz „Die kybernetische Illusion“, „sind in diesem Sinne keine Projektionen des Menschen, sondern von solchen Maschinen selbst erst abgeleitete Projektionen.“81 Das heißt, innerhalb der sozioökonomischen Bedingungen entfaltet das Medium eine gesellschaftliche und historisch prägende Kraft. Es leistet einen grundlegenden Beitrag dazu, diese Bedingungen des Mediengebrauchs zu refor77

78 79 80 81

Schachtschabel, Hans Georg: Sozioökonomische Konsequenzen der Automation. In: Frank, Helmar (Hrsg.): Kybernetik. Brücke zwischen den Wissenschaften. 29 Beiträge namhafter Wissenschaftler und Ingenieure. Frankfurt am Main, 1964. S. 415 Ebd. Cube, Felix von: Was ist Kybernetik? Grundbegriffe, Methoden, Anwendungen. München, 21972. (Cube: Kybernetik, 1972) S. 14 Edb. Pias: Kybernetische Illusion, 2002. S. 59

23

Kommunizierende Automaten mulieren. In diesem historischen Kontext einer gegenseitigen Beeinflussung ist es unerheblich, ob es sich genuin um ein neues Medium handelt oder um einen neuen Gebrauch einer bestehenden Medientechnick wie der des Schreibens im Rahmen der kybernetischen Automaten.

Kybernetische Steuerung als textbasierte Kommunikation Ein Beispiel für eine solche gegenseitige Bedingung von medientechnischen Gegebenheiten und sowohl sozioökonomischen wie politischen Bedingungen ist das Jahr-2000-Problem82 in der Computerindustrie. An der Schwelle zum 21. Jahrhundert waren in allen Lebensbereichen anzutreffen. Ihnen waren in den vorangegangenen Jahrzehnten bewusst Aufgaben in der industriellen Produktion, dem Energiebereich, dem Verkehr, der Verwaltung usw. übertragen worden.83 Gleichzeitig handelt es sich bei den Automaten um eine neue Medientechnik, wenn auch in ihr das bekannte Medium Schrift zum Einsatz kommt. Die von Hickethier genannten „alten Determinanten wie Politik bzw. soziale Verhältnisse“ als die „Geschichte prägende[] Faktoren“84 sind im Zusammenhang mit dem Jahr-2000-Problem ebenso anzutreffen wie die neue Nutzung von Medientechnik. In den Automaten waren schriftliche Anweisungen in Form von Programmen in maschinenausführbare Befehle übersetzt worden. Im Jahr-2000-Problem wurden Schwächen dieser Programmierung deutlich, und es bestand die Gefahr, dass Fehler 82

83

84

Vgl. zum Begriff Jahr-2000-Problem u.a. a) Bartsch: Software, 1998. S. 5 oder b) Heyermann, Dirk, Sabrina Jansen, Charlotte Kirchhof u.a.: Wegweiser zum Jahr-2000-Problem. Herausgegeben vom Deutschen Industrie- und Handelstag, DIHT, Bonn 1998. (DIHT: Jahr-2000Problem, 1998.) Für das Jahr-2000-Problem wurden viele Synonyme oder Abkürzungen gebildet: Sie lauten in der in dieser Arbeit zitierten Literatur: Millennium Bug, Year 2000 Software Crisis, Jahr-2000-Krise, JahrtausendWanze oder Y2K-Problem bzw. J2K-Problem. Y2K steht hier für die englischsprachigen Begriffe Year 2 Kilo. Der Ausdruck Kilo stellt die auch in der Informationstechnik übliche Abkürzung für die Zahl 1000 (bzw. 1024, dies entspricht 210 = 1024) dar. J2K ist die deutsche Variante der Abkürzung. In der Regel wird in dieser Arbeit der Begriff Jahr2000-Problem oder die Abkürzung Y2K verwandt. Vgl. Kommission der Europäischen Gemeinschaft (Hrsg.): EU-Infrastrukturen und das Jahr-2000-Problem. Bericht der Kommission an den Rat, das Europäische Parlament, den Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Brüssel 1999 (EU-Kommission: Jahr2000-Problem, 1999); Hickethier: Mediengeschichte, 2002. S. 187

24

Prolegomena und Versäumnisse innerhalb der Steuerungsprogramme unkontrollierte Handlungen der Automaten nach sich ziehen würden. An dieser Form des Automateneinsatzes und vor allem der Automatensteuerung lässt sich zeigen, was Claus Pias im Rahmen jener „zehn Tagungen“ der Jahre 1946 und 1953, „die später als Macy Conferences berühmt geworden“ sind, als grundlegende Überlegungen über die Kybernetik und die mit ihr zusammenhängende Automation festgestellt hat.85 Er spricht im Zusammenhang mit den Macy-Konferenzen von einer „Kybernetik erster Ordnung“86, die mit Annahmen formalisierbarer Zustände operiert. Damit sollen prinzipiell maschinelle Handlungen codierbar sein. Es werden Annahmen getroffen und in ausführbaren Code übersetzt. Wie diese Annahmen vom Grundsatz her in der frühen Kybernetik ausgesehen haben, beschreibt Pias in einem elliptischen Satz so: „Angenommen, das Denken wäre eine Serie von Schaltzuständen (McCulloch); angenommen, das Leben wäre ein Code, der entschlüsselt werden kann (Gamow); angenommen, die Psyche wäre ein Algorithmus (Lacan); angenommen, das Politische wäre eine berechenbare Funktion (Beer); angenommen, die Schönheit wäre ein Informationssystem (Bense), angenommen…“ 87

Die universelle Codierbarkeit wurde als grundsätzliche Basis weiterführender Überlegungen angenommen. Diese trugen dazu bei, dass die Kybernetik erster Ordnung, die vor allem, ganz im Sinne Turings, auf den Annahmen einer prinzipiellen Codierbarkeit einzelner Vorgänge beruhte, um eine Kybernetik zweiter Ordnung ergänzt wurde. Die auf Heinz von Foerster zurückgehende Einteilung in eine Kybernetik erster und zweiter Ordnung trennt beobachtete Systeme (erste Ordnung) von beobachtenden Systemen (zweite Ordnung). In einer Kybernetik zweiter Ordnung entstehen notwendigerweise Rückkoppelungen, rekursive Meldungs-, Bewertungs- und unter Umständen Handlungsmechanismen. Durch die Bewertung und ggf. handelnden Eingriffe der kybernetischen Systeme zweiter Ordnung in ihre Umwelt führen die Maschinen selbst Veränderungen herbei. Damit tragen sie zur

85 86

87

Pias: Kybernetische Illusion, 2002. S. 51 Vgl. Pias, Claus: Elektronenhirn und verbotene Zone. Zur kybernetischen Ökonomie des Digitalen. In: Jens Schröter; Alexander Böhnke (Hrsg.): Analog / Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Bielefeld, 2004. (Pias: Elekronenhirn, 2004.) S. 295 Pias: Elekronenhirn, 2004. S. 295

25

Kommunizierende Automaten Konstruktion von Welt bei.88 Dies war im Rahmen des Jahr-2000Problems durch die Gefahr nicht-intendierter maschineller Handlungen explizit zu beobachten. Pias verweist in dem Zusammenhang der von Annahmen ausgehenden Automatenmodellierung auf McCullochs89 „experimentelle Epistemologie“90. „Epistemische Fragen“, die sich daraus ergeben, so zitiert Pias McCulloch aus dessen Buch „Verkörperungen des Geistes“, „lassen sich, wenn man in den Begriffen der Kommunikation denkt, theoretisch mit Hilfe der kleinsten Signale beantworten, die in Rechenmaschinen Aussagen in Bewegung darstellen.“91 In der Ausführung McCullochs scheinen die theoretischen Überlegungen von Babbage und King auf. In deren raumgreifendem Konstrukt einer Rechenmaschine werden die „Aussagen“ – tatsächlich sichtbar – in Bewegung abgearbeitet. Die kleinsten Signale führen in Form von Lochkarteninformationen zu maschinellen Bewegungen, die exakt die formulierten Vorstellungen umsetzen. Die Möglichkeit einer Übertragung dieser Vorstellungen in maschinelle Bewegung stand als Hauptfrage über den oben von Pias aufgeführten Annahmen und der experimentellen Epistemologie. Nils Röller führt in der von Claus Pias mitherausgegebenen Schriftenreihe [medien]i in seiner Arbeit über eine „Medientheorie im epistemischen Übergang“ über den „Unterschied der experimentellen Epistemologie zur klassischen“ aus, „dass experimentell Modelle von mentalen Vorgängen mit Hilfe von Computern getestet werden“92, hsind Formalisierungen eben jener mentalen Vorgänge in Form sprachlicher Begriffe notwendig.

88

89

90 91 92

Vgl. Pias, Claus (Hrsg.): Cybernetics/Kybernetik. The Macy-Conferences 1946-1953. Bd. 1. Transactions/Protokolle. Zürich, 2003 (Pias: Macy Transactions, 2003.) und ders. (Hrsg.): Cybernetics/Kybernetik. The Macy-Conferences 1946-1953. Bd. 2. Essays und Dokumente. Zürich, 2003 (Pias: Macy Essays, 2003.) Pias stellt zu Warren McCulloch fest: „Warren McCulloch ist hierzulande sicherlich die unbekannteste, als Tagungsleiter der Macy-Konferenzen aber eine ihrer einflußreichsten Figuren. Anders als bei Shannons und Wieners Texten benötigte beispielsweise die erste deutsche Übersetzung ausgewählter Schriften imposante 47 Jahre.“ Pias: Elekronenhirn, 2004. S. 295 Ebd. Zitiert nach Pias ebd: Warren McCulloch: Verkörperungen des Geistes, Wien/New York 2001, S. 67 Röller, Nils: Medientheorie im epistemischen Übergang. Hermann Weyls Philosophie der Mathematik und Naturwissenschaften und Ernst Cassirers Philosophie der symbolischen Formen im Wechselverhältnis. Weimar, 2002. (Röller: Medientheorie, 2002.) S. 175

26

Prolegomena Doch die Programmierung maschineller Test-Handlungen soll nicht durch eine Auseinandersetzung mit den zu formalisierenden mentalen Vorgängen – McCulloch spricht von Universalien – geleistet werden. „Warren McCulloch fragt deshalb nicht nach einem Wesensgehalt der Universalien, sondern nach ihrer Funktion bei der Wahrnehmung von Objekten.“93 Die Differenz zwischen dem „Wesen eines Gegenstandes“ „und der mathematischen Darstellung“94 scheint aufgehoben. „Norbert Wiener, Max Bense und auch McCulloch halten sie für überwunden.“95 Heinz Zemanek, 1976 „zum IBM-Fellow ernannt, eine Auszeichnung, die nur wenigen Europäern zuteil wurde“96, stellt dieser Haltung im Jahr 1984 und vor dem Hintergrund langjähriger umfangreicher praktischer Erfahrung im Bereich der Programmierung kritisch entgegen, dass durch Formalisierung von Wahrnehmung in Form von Messergebnissen nicht die Wirklichkeit abgebildet wird, sondern nur die Messergebnisse selbst. Mit Hinweis auf die physikalischen Formeln, die in Automaten genutzt werden, um Aussagen in Bewegung zu setzen, schreibt er: „Die Physik löst ihre Größen von der Realität mit Hilfe des Meßverfahrens, mit Dimension und Maßeinheit von der Realität ab.“97 Dimension und Maß einer zu messenden Außenwelt sollen – nach den Vorstellungen von McCulloch – unter den Aspekten einer zeit- und raumversetzten Handlungsanweisung an Automaten immer gleich sein, damit die Anweisungen unter allen Umständen zu verarbeiten sind. In den auf Text gegründeten Formalisierungen für Automaten sollen die Differenzen zwischen maschineller Wahrnehmung und wahrgenommenem Objekt überwunden werden. Abweichungen von den einmal getroffenen ausführbaren Festsetzungen müssen vermieden werden, wenn die

93 94 95 96

97

Ebd. Ebd. S. 176 Ebd. Die Zeitung Wiener Standard über Zemanek aus: http://derstandard.at, Zugriff 10.09.2002. Vgl. hier auch die Erläuterung zur kultur- und technikgeschichtlichen Bedeutung Heinz Zemaneks aus einer Kurzbiografie: „Der Techniker war einer der ersten, der die Bedeutung der Software für die Computertechnologie erkannte. Die Forschergruppe konzentrierte sich daher bald auf Programmiersprachen und entwickelte die ‚Vienna Definition Language‘, die damals größte Programmiersprache, sowie in weiterer Folge die ‚Vienna Definition Method‘ und erlangte damit Weltruf.“ Vgl. auch http://www.zemanek.at/. Zemanek, Heinz: Information und Ingenieurwissenschaft. In: Folberth, Otto G. und Clemens Hackl (Hrsg.): Der Informationsbegriff in Technik und Wissenschaft. Festschr. zum 65. Geburtstag von Prof. Dr. rer. nat. Dr.-Ing. E.h. Karl E. Ganzhorn. München usw., 1986. S. 17 - 52. (Zemanek: Information, 1986.) S. 25.

27

Kommunizierende Automaten darauf basierende Kommunikation und Handlung der Automaten erfolgreich durchgeführt werden kann. Zemanek zieht eine Parallele von der „Mathematik und Physik“ und deren gigantischen syntaktischen Gebäuden98 zur automatischen Informationsverarbeitung durch das syntaktische Gerät Computer99. Das Handeln der Automaten bedarf wie in der Physik klarer und eindeutiger Größen. Unterschiedliche Auffassungen über einen bestimmten Status können nicht sinnvoll in maschinelle Entscheidungs- und Handlungsabläufe integriert werden. Die erkennende Abstraktion in der messenden Weltwahrnehmung der Automaten und die Abstraktion der Messungen in der Physik entsprechen sich – auch in der Auffassung Zemaneks: „Was Materie und Energie, selbst was Länge und Zeit ‚wirklich’ sind, wird von der Physik nicht beantwortet; es werden nur Meßmethoden festgelegt und mathematische Verknüpfungen.“100 Diese berechenbaren und formalisierten Verknüpfungen finden sich in den Automatentexten wieder. Sie bilden dort einen Teil des syntaktischen Gebäudes. „Mathematik und Physik sind gigantische syntaktische Gebäude, sie behandeln ihre Probleme in einem abstrakten Raum von reinen Zeichenbeziehungen.“101 In der experimentellen Epistemologie wird nicht die Bedeutung, der Sinn, einer Mitteilung gemessen und ermittelt, sondern es soll vielmehr deren Funktion im Hinblick auf eine intendierte Bewegung betrachtet werden. Im Jahr-2000-Problem wurde offensichtlich, dass für einen großen Teil der seinerzeit eingesetzten Automaten das entweder selbst errechnete oder von anderen Automaten übermittelte Datum „Jahr 2000“ keine funktionalisierbare Mitteilung darstellte. Es war entweder keine oder keine zuverlässig vorhersagbare „Bewegung“ programmiert worden. Die Kommunikation mit Hilfe der kleinsten Signale hatte die Richtung verloren und drohte eigene Wege zu gehen. Mehr noch: Die Systeme waren durch die Ausweitung des Einsatzes der Automaten von einer Kybernetik erster Ordnung (beobachtete Systeme) durch die vielfache maschinelle Kommunikation in eine Kybernetik zweiter Ordnung (beobachtende und reagierende Systeme) übergegangen waren. Die Systeme beobachteten selbst und folgerten nach festgelegten Formalisierungen. Sie arbeiteten gemäß einer programmierten Codierung und urteilten über einen äußeren Weltzustand, hier den Datumswechsel vom 98 99 100 101

Vgl. ebd. Vgl. ebd. S. 40. Ebd. S. 25. Ebd.

28

Prolegomena Jahr 1999 auf das Jahr 2000, der nicht in sprachlichen Anweisungen für die handelnden Automaten antizipativ vorweggenommen worden war. Die getroffenen Annahmen waren nicht ausreichend gewesen, um in einer Änderungen unterworfenen Welt adäquat maschinell bzw. automatisch zu reagieren. Die Programme, die die Automaten steuerten, hatten keine eindeutigen Regeln zur Verfügung, wie diese sich hätten verhalten müssen oder – aus textlinguistischer Sicht gesprochen – wie die Syntax und Semantik eines Statements pragmatisch korrekt hätte umgesetzt werden sollen. Die Intention der Programmersteller, also der Menschen, die „Annahmen“ treffen und codieren (lassen), war den Automaten programmatisch nicht eingeschrieben worden. So ergaben sich Leerstellen im Handlungsablauf der Maschinen bzw. des maschinellen Tuns. Friedrich Kittler sah im selben Jahr, in dem der Aufsatz Zemaneks veröffentlicht wurde, in diesem ungeklärten Rückkoppelungsvorgang den prinzipiellen Grund dafür, dass sich die Automaten der Kontrolle der Programmierer und Anwender entziehen können. „Eine einzige Rückkopplungsschleife – und Informationsmaschinen laufen den Menschen, ihren sogenannten Erfindern, davon.“102 Die Formalisierungen von Wahrnehmung weisen trotz der von den „experimentierenden Epistemologen“103 überwunden geglaubten Differenz vom Wesen eines Gegenstandes zu deren mathematisch-physikalischer Darstellung jene Unbestimmtheiten auf, die kommunikativen Äußerungen stets innewohnen können. In den Begriffen der Kommunikation ausgedrückt, hat die Kybernetik, die „sich als epistemische Epochenschwelle“ verstand „und versprach, in allen möglichen und heterogen geglaubten Wissensbereichen die gleichen Gesetze von Information, Feedback und Boolescher Logik ausmachen zu können“104, angesichts der Computerprobleme im Zusammenhang mit dem Jahrtausendwechsel die Kontrolle der maschinell ausgetauschten und verarbeiteten Kommunikation eingebüßt. Da den Automaten die Funktion, die gewünschte Bewegung, für die Mitteilung „Jahr 2000“ fehlte bzw. da sie nicht überall gleich definiert war, entstand das Jahr-2000-Problem.

102 103 104

Kittler, Friedrich A.: Grammophon Film Typewriter. Berlin 1986. S. 372. (Kittler: Grammophon, 1986.) S. 372. Röller: Medientheorie, 2002. S. 176 Pias: Elekronenhirn, 2004. S. 295

29

Kommunizierende Automaten Im Rahmen dieses technischen Großproblems105 am Ende des letzten Jahrtausends wurden die Auswirkungen einer Übertragung sprach- bzw. textbasierter Handlungsanweisungen auf Automaten und deren umfassende Effekte auf Ökonomie und öffentliche sowie privatwirtschaftliche Verwaltung in vielen Gesellschaften sichtbar. Einzelne Teilbereiche der von Pias mit Blick auf die Macy Conferences formulierten Annahmen waren in Hardwarestrukturen und programmierten Code umgesetzt worden. Diese Automaten waren darüber hinaus vielfach miteinander kommunikativ verbunden. Hickethier hat auf „drei zentrale Aspekte“ aufmerksam gemacht, durch die sich „Medien definieren“: Er differenziert zwischen Medialität, das sind die „spezifischen medialen Eigenschaften“106, die „durch die Technik des Mediums erzeugt“107 werden, der Medientechnik, den Apparaten und Verfahren, und dem Gebrauch eines Mediums, der durch Institutionen vorgezeichnet sein kann.108 Die Dispositionen der Medientechnik und des Mediengebrauchs zeigten sich im Rahmen des Jahr-2000-Problems deutlich. Die Medientechnik war in Gestalt vielfältiger Automaten erkennbar; diese konnte vom Computer im Büro über Verkaufsautomaten bis zu Fertigungsrobotern und kompletten Steuerungssystemen reichen. Über den Gebrauch dieser Automaten – sowohl individuell als auch im Rahmen von Institutionen (Firmennetze, Fertigungsstraßen, automatische Bestellauslösung als Bestandteil von Lieferketten) – informierten zahlreiche Stellungnahmen zum Jahr-2000-Problem. Viele staatliche Stellen, nationale und internationale Organisationen sowie Unternehmen reagierten auf dieses Phänomen und veröffentlichten Stellungnahmen, zum Beispiel die Kommission der Europäischen Union, die deutschen Ministerien des Innern (BMI) und der Wirtschaft (BMWI) oder auch das Unternehmen IBM.109 105

106

107 108 109

Bartsch, Michael: Software und das Jahr 2000. Haftung und Versicherungsschutz für ein technisches Großproblem. Karlsruhe 1998. (Bartsch: Software, 1998.) Hickethier, Knut: Einführung in die Medienwissenschaft. Stuttgart, Weimar: Verlag J. B. Metzler, 2003. (Hickethier: Medienwissenschaft, 2003.) S. 25 Ebd. S. 29 Vgl. Ebd. S. 25 ff Die Titel im Einzelnen: a) EU-Kommission: Jahr-2000-Problem, 1999; b) Bundesministerium des Innern und Bundesministerium für Wirtschaft (Hrsg.). Gesamtredaktion: Bundesamt für Sicherheit in der Informationstechnik: Sind Sie fit fürs nächste Jahrtausend. Was Sie über das Jahr-2000-Problem wissen müssen. Berlin 1999 (BMI und BMWI: Sind Sie fit, 1999); c) IBM: The Year 2000 and 2-Digit Dates. A Guide for

30

Prolegomena Die Betrachtung der Medialität der digitalen Apparate, deren theoretischer Ausgangspunkt die Auseinandersetzungen um die „Schriften Marshall McLuhans“ war110, lieferten keine so offensichtlichen Ergebnissse. Gernot Grube hat in seinem 2006 erschienenen Aufsatz „Digitale Abbildungen - Ihr prekärer Zeichenstatus“ darauf hingewiesen, dass es eine Fremdheit der digitalen Abbildungen gebe, die daher rühre, dass das Bild seinen wahren Charakter verberge.111 Das digitale Bild ist Aufzeichnung in Form digitalen Textes. Dies ist für den Menschen weder beim Betrachten eines digitalen Bildes noch bei der Betrachtung des zugrundeliegenden Textes ersichtlich. Der digitale Text wird erst durch die Wiederherstellung mittels programmierter Anweisungen, die – nach McCulloch – als Bewegung einer Rechenmaschine erscheinen, als Bild sichtbar. Was für das digitale Bild gilt, gilt auch für die übrigen medialen Inhalte der Automaten. Die Gestalt als Text, als Untermenge eines Zeichensystems und gleichzeitig als Bewegung erschwert den Zugang zur Erkenntnis der Medialität eines digitalen Mediums. „Zeichensysteme sind Maschinen der Welterschließung“, schreibt Hartmut Winkler in Basiswissen Medien.112 Die „Rückkopplung, durch die die Differenz zwischen aktuellem Zustand und Sollzustand eines Systems wieder in dieses eingespeist wird“113, erscheint nur als neuer Zustand und ist doch Bewegung und Text, ist doch die Erschließung eines Zustands und die programmierte Schaffung eines anderen Zustands. Anhand des Jahr-2000-Problems und der zur Fehlerbehebung notwendigen Korrekturmaßnahmen wurde die Grundbedingung digitaler Medialität exemplarisch fassbar. Der Grund für diese Probleme bestand darin, dass „Computer und Programme“ versagen können, „weil bei ihnen die Jahresangabe nur zweistellig – 99 statt 1999 – vorgesehen“ war.114 „Das Datum 01.01.2000 wird nicht als 1. Januar 2000 interpretiert“115, und dieses Versagen der richtigen Interpretation des errechneten oder mitgeteilten

110 111

112 113

114 115

Planning and Implementation. Poughkeepsie, NY 1995 und 21997. (IBM: Year, 2000.) Hickethier: Mediengeschichte, 2002. S. 186 Vgl. Grube, Gernot: Digitale Abbildungen – Ihr prekärer Zeichenstatus. In: Heßler, Martina (Hrsg.): Konstruierte Sichtbarkeiten. Wissenschaftsund Technikbilder seit der Frühen Neuzeit. München, 2006. S. 179 – 196. (Grube: Abbildungen, 2006.) S. 185 Winkler, Hartmut: Basiswissen Medien. Frankfurt am Main, 2008. S. 75 Pias, Claus: Zur Einführung. In: Pias, Claus (Hrsg.): Kursbuch Medienkultur. Die maßgeblichen Theorien von Brecht bis Baudrillard. Stuttgart, 1999. S. 429 BMI und BMWI: Sind Sie fit, 1999. S. 3. Ebd.

31

Kommunizierende Automaten Datums konnte zu „Datenverlust und im ungünstigsten Fall zum Ausfall von Computern und Maschinen führen“.116 Eine Besonderheit des Automatensteuerungsproblems stellte dar, dass es „Konsequenzen“, also Auswirkungen auf das maschinelle Tun aufgrund von Kommunikationsproblemen geben konnte, die auch Fachleute „letztlich nicht vorhersagen“ konnten117. Die von Pias mit Blick auf McCulloch erwähnte experimentelle Epistemologie, stellt eine Trennlinie zwischen digitalen Medien und anderen Medien, unter anderem Telegraf, Telefon und Television, auf. Es bedarf eines ausführbaren Textes, der eine Maschine steuern kann, um einen digitalen Apparat programmiert handeln zu lassen. Dieser Textzusammenhang ist es, der das System aus Maschine, Daten und Programmanweisungen zu einer neuen Entität zusammenführt. Dieser steuernde Text beruht in Teilen auf den formalisierten Wahrnehmungsprozessen (Epistemologien), daher sind diese eine notwendige Bedingung zur Definition des Automatenhandelns. Doch aufgrund dieser Fokussierung auf erkenntnistheoretische Fragestellungen reicht die experimentelle Epistemologie für eine vollständige Steuerung der Automaten und der damit verbundenen Kommunikationsvorgänge nicht aus. Sie ist eine notwendige, wenn auch nicht hinreichende Bedingung dieser Steuerung. Die semiotische und pragmatische Dimension des maschinellen Handelns und Kommunizierens wird durch sie nicht erfasst. Es wird durch sie nicht ausgeschlossen, dass zum Beispiel ein Datum, ein in der Kommunikation Gegebenes118, ein schriftlich Übermitteltes von Computern und Programmen falsch interpretiert wird, nicht wie gewünscht und angenommen verstanden wird, sondern zu einer nicht intendierten Handlung führt. Diese maschinell interpretierbaren und maschinensteuernden Texte stellen – um mit Walter Ong zu sprechen – eine „Technologisierung des Wortes“ dar, jedoch nicht im Sinne einer „zweiten Oralität“119 oder „analog dazu […] einer ‚sekundären Literalität‘“120, sondern einer formalisierten – auf erkenntnistheoretischen Formalisierungen beruhenden – Befehlssprache. Es sind Befehls-

116 117 118

119 120

Ebd. EU-Kommission: EU-Infrastrukturen und das Jahr-2000-Problem, 1999. S. 5. Vgl. Goos, Gerhard: Vorlesungen über Informatik. Band1. Grundlagen und funktionales Programmieren. Berlin u.a. 32000. S. 3: „lat. datum das Gegebene“. (Goos: Informatik, 2000.) Ong, Walter J.: Oralität und Literalität. Die Technologisierung des Wortes. Opladen, 1987. S. 136 Hickethier: Mediengeschichte, 2002. S. 186

32

Prolegomena sprachen, mit denen Automaten im Jahr 2000 vielfache Kommunikation mit vielen Geräten und Anlagen in allen Bereichen des täglichen Lebens unterhielten.121 Es war eine an Automaten delegierte Kommunikation, deren Gelingen von hoher Bedeutung für die Menschen war, die die Automaten anwendeten. Sie war sogar so bedeutend, dass menschliche Handlungen von dem Ergebnis der Automatenkommunikation abhingen. „Den meisten Menschen ist bewusst, dass wir alle heute in hohem Maße abhängig von Computern und Datenverarbeitungsanlagen sind.“122 An der Verbreitung der Automaten, deren gesellschaftlich gewollter Nutzung und der Abhängigkeit vom Gelingen dieser Nutzung lässt sich eine historische Dimension ablesen. Wie von Schröter im Rückgriff auf Moishe Postone dargelegt, wirken sich diese Nutzungen in dialektischer Weise auf die Ökonomie sowie die politischen und sozialen Gegebenheiten aus. Die von Hickethier genannten „alten Determinanten wie Politik bzw. soziale Verhältnisse“ als Geschichte prägende Faktoren123 wirken auch im Zeitalter der Automation (McLuhan). Es ergeben sich Fragen, welchen Anteil die Medien und ihre Technik an diesem Prozess haben, welche treibende Kraft sie entwickeln und ob ihr Wirken eine geschichtliche Zäsur herbeiführen kann. Liegt die oben genannte historische Dimension neben den sozialen und politischen Verhältnissen auch in der Verwendung eines neuen Mediums namens Digitalität oder kybernetischer Automat begründet? Zeitigen die medientechnischen Aspekte Folgen, die über „Kultureffekte“124 hinausgehen? Gibt es ein „,Dazwischen‘ von Technik und Kultur“, in dem „Medien auf Lebensformen und Denkmodelle einwirken“125? „Wie generieren und beeinflussen Medien das, was sie anscheinend nur neutral vermitteln?“126 Für die Beantwortung der Fragen gelten eine Reihe von mediengeschichtlichen Annahmen: a) Die digitalen Automaten nutzen – wie im theoretischen Entwurf von Babbage und King gezeigt wurde – ein bekanntes Medium, den Text. Demnach bedürfen die Automaten nicht unbedingt der Elektrizität, um arbeiten zu können.

121 122 123 124 125 126

BMI und BMWI: Sind Sie fit, 1999. S. 3. Ebd. Hickethier: Mediengeschichte, 2002. S. 187 Hartmann, Frank: Medien und Kommunikation. Wien, 2008. S. 97 Ebd. Ebd.

33

Kommunizierende Automaten b) Es besteht ein Verfahren, zur „fortschreitenden Ablösung der mathematischen Symbole von jeder Referenzialität“127 (Gottfried Wilhelm Leibniz). Christina von Braun setzt sich in ihrem Buch „Versuch über den Schwindel“128 mit Leibnizschen Überlegungen über die Schaffung eines Systems auf der Basis angenommener Logikkonventionen auseinander129, das den Beginn „eine[r] prinzipielle[n] Loslösung unseres Schriftverständnisses von der Anbindung an gesprochene Sprache“130 impliziert. Leibniz hat mit seinen Ideen über die duale Notation von Zeichen Entscheidendes im Vorfeld der Verschriftung von Anweisungen an Maschinen geleistet.131 Im Hinblick auf diese Leistungen beginnt nach den Ausführungen von Niels Werber die „Epoche der Digitalisierung“ zur Zeit von Leibniz „im Barock“.132 Wenn das Medium, die Medienfunktionen und die Medientechniken nicht neu sind, worin besteht die „epochale wissenshistorische Wende der Kybernetik“133? Welche mediale Eigenschaft

127

128 129

130 131

132

133

Ramming, Ulrike: Mit den Worten rechnen. Ansätze zu einem philosophischen Medienbegriff. Bielefeld, 2006. (Ramming: Worten, 2006.) S. 60 Braun, Christina von: Versuch über den Schwindel. Religion, Schrift, Bild, Geschlecht. Zürich, München, 2001. (Braun: Schwindel,2001.) Braun bezieht sich auf Leibniz, Gottfried Wilhelm: „Neue Abhandlungen über den menschlichen Verstand. In: ders.: Philosophische Schriften. Band 3. Frankfurt am Main: Suhrkamp, 1994. S. VI – LIX Ramming: Worten, 2006, S. 21 Vgl. zur Bewertung dieser Leibnizschen Errungenschaften: Coy, Wolfgang: Analog / Digital. Schrift, Bilder und Zahlen als Basismedien. http://waste.informatik.hu-berlin.de/~coy/Papers/Coy_Siegen_000929. pdf, ohne Jahr. (Coy: Analog, o. J.), Zugriff 03.2004. Vgl. zu Leibniz auch seine Ausführungen in ders.: Elemente des Kalküls. In: Leibniz, Gottfried Wilhelm: Philosophische Schriften. Band 4: Schriften zur Logik und zur philosophischen Grundlegung von Mathematik und Naturwissenschaft. Frankfurt am Main: Suhrkamp, 1996. S. 70 – 91. Vgl. auch Koch, Peter, Krämer, Sybille (Hrsg.): Schrift, Medien, Kognition. Über die Exteriorität des Geistes. Probleme der Semiotik, Band 19. Tübingen, 1997. (Koch: Schrift, 1997.) Werber, Niels: Vom Unterlaufen der Sinne. Digitalisierung als Codierung. In: Schröter, Jens und Alexander Böhnke (Hrsg.): Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Medienumbrüche, Band 2. Bielefeld, 2004. S. 81 – 97 (Werber: Unterlaufen, 2004.) S. 81: Ebenso wie im Fall der Codiermaschine „Enigma“, den Friedrich Kittler in „Grammophon Film Typewriter“ darstellt, geht es im Beitrag Werbers um eine digital codierte Spionagesprache, die im Jahre 1688 zum Einsatz kommt: „Es schlägt die Stunde der ‚Intelligence‘ und naturgemäß der Kryptografie, der Lehre der geheimen oder verborgenen Zeichen.“ ebd. Pias, Claus: Unruhe und Steuerung. Zum utopischen Potential der Kybernetik. In: Rüsen, Jörn, Fehr, Michael und Annelie Ramsbrock (Hrsg.): Die Unruhe der Kultur. Potientiale des Utopischen. Weilerswist, 2004. S. 301 – 325 ( Pias: Unruhe, 2004.) S. 303

34

Prolegomena musste wirken können, damit zusammen mit den ökonomischen, politischen und sozialen Dimensionen der „Umbruch von den analogen zu den digitalen Medien“ „als welthistorische Zäsur“ verstanden werden konnte?134 Der kybernetische Apparat verwendet Text. Die mediale Disposition, die erst ab dem Beginn der Automation wirken konnte, war die nicht-mechanische, textgesteuerte Übertragung von Aufgaben und Handlungen. Es ist nicht das Neue eines Mediums, das die Automation auszeichnet, sondern es sind die neuen Möglichkeiten seines Gebrauchs. Die Automation stellte den Text in einen neuen Wirkungszusammenhang. Diese Delegation von Funktionen und Aufträgen durch schriftliche Anweisungen hat mediengeschichtlich ein Vorbild. Jan Assmann hat in seinem Aufsatz „Schrift und Normativität“ den Prozess der Verschriftung von Recht im antiken Griechenland untersucht.135 In diesem Vorgang machte Assmann jene historische Wasserscheide aus, die das alte Ägypten vom antiken Griechenland und damit dem Beginn der europäischen Geschichte trennt.136 Die altägyptische Literatur kennt den Zusammenhang, der zwischen „Normen und konkreten Lebenssituationen vermittelt“137, nicht. Sie formuliert „eine regulative Idee, die eine allgemeine Grundlegung der Gerechtigkeit leistet, aber kaum spezifische Lebensregeln vorgibt“.138 Diese ausdrückliche Anwendung der Vorgabe von Regeln vollzieht sich in der Verschriftung des Rechts im antiken Griechenland. Die Niederschrift des Rechts, in dem Handeln vorgegeben und normiert wird, vollendet einen medial bedingten Übergang und stellt die diesseitige Grenze der historischen Wasserscheide dar. Im Hinblick auf das dialektische Verhältnis der „Determinanten wie Politik bzw. soziale Verhältnisse“, die Hickethier als historisch wirkungsmächtig benannt hatte, sowie auf die medien134

135

136 137 138

Schröter, Jens: Analog/Digital – Oppostion oder Kontinuum. In: Schröter, Jens und Alexander Böhnke (Hrsg.): Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Bielefeld, 2004. S. 7 – 25. (Schröter: Opposition, 2004) S. 8 Assmann, Jan: Schrift und Normativität. In: Assmann, Jan: Herrschaft und Heil. Politische Theologie in Altägypten, Israel und Europa. München, Wien, 2000. (Assmann: Schrift, 2000.) S. 178 – 194. Vgl. auch ders.: Zur Verschriftung rechtlicher und sozialer Normen im alten Ägypten. In: Gehrke, Hans-Joachim (Hrsg.) unter Mitwirkung von Eckhard Wirbelauer: Rechtskodifizierung und soziale Normen im interkulturellen Vergleich. Tübingen, 1996. (Assmann: Verschriftung, 1996.) S. 61 – 85 Vgl. Assmann: Schrift, 2000 Assmann: Schrift, 2000. S. 197 Ebd.

35

Kommunizierende Automaten technischen Möglichkeiten ist es folgerichtig und theoriebestätigend, dass nach dem Niedergang der eigenständigen ägyptischen Herrschaft auch in Ägypten aufgrund der Änderungen der politischen Verhältnisse die Anwendung des Mediums Schrift geändert wurde. Das Recht wurde in normativer Form festgehalten, die neue Form des Mediengebrauchs wurde per Gesetzesanwendung bzw. Verwaltungshandeln durchgesetzt.139 Die Entwicklung und der „Aufbau der so genannten formalen ‚Sprachen‘“140, deren Befehle zur handlungsmächtigen Steuerung von Automaten die „‚typographische Schrift‘ oder ‚operative Schrift‘“ nutzen, ist von der medialen Wirkung her vergleichbar mit der Verschriftung des Rechts im antiken Griechenland, die ebenfalls eine Delegation von Interpretations- und Handlungsanweisungen darstellte. Das heißt, der mediale Gebrauch – hier Automatensprache als Andersnutzung von Text, dort Rechtssprache als zur damaligen Zeit neue Nutzung von Text – ist jene Kraft, mit der Medien die „Wirklichkeit qua Praxis, weniger qua Technik“141 modellieren. Schriftlichkeit und Textaufzeichnung hat es in der ägyptischen Gesellschaft zweifelsfrei gegeben, ebenso wie es digitale Codierung und Überlegungen zum automatischen Einsatz von Maschinen in dem „vor-elektrischen und mechanischen Zeitalter“ (McLuhan) gab. Durch den geänderten Gebrauch dieser medialen Technik, die Ausweitung der textbasierten Handlungsübertragung auf Automaten, werden im Zusammenhang mit politischen, sozialen und ökonomischen Konstellationen historische Bedingungen einschneidend. Am Beispiel des Jahr-2000-Problems wurde die Durchdringung und Vernetzung der Gesellschaft mit handelnden Automaten und die Abhängigkeit ersterer von letzteren deutlich. Diese neue mediale Bedeutung war dadurch gekennzeichnet, dass die pragmatische Dimension schriftlicher Formalisierungen, die in einer künstlichen Sprache verfasst waren, sich durch undefinierte Ergebnisse im Zustandsraum der Maschine sowie einen auf diesen Ergebnissen beruhenden kommunikativen Austausch zwischen den Automaten zu verselbständigen drohte. 139 140

141

Vgl. Huß, Werner: Ägypten in hellenistischer Zeit. 332 - 30 vor Christus. München 2001. S. 40 f. (Huß: Ägypten, 2001.) Ramming: Worten, 2006. S. 21. Vgl. auch den Titel von Hopcroft, John E., Rajeev Motwani und Jeffrey D. Ullman: Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie; siehe Hopcroft: Automatentheorie, 2002. Mersch, Dieter: Medientheorien zur Einführung. Hamburg, 2006. (Mersch: Medientheorien, 2006.) S. 105

36

Abriss des Jahr-2000-Problems

Technisch-mediale Aspekte Die Basis des Jahr-2000-Problems bestand nicht in dem Inhalt einer Mitteilung, die übermittelt wurde, sondern in den formalen Strukturen der Mitteilung. Diese Strukturen manifestierten sich in der Syntax des Codes und hatten Auswirkungen auf Semantik sowie Pragmatik. Es war, um ein Bild von Rüdiger Weingarten zu zitieren, ein Problem, das durch die „Verkabelung der Sprache“1 entstanden war. Der die Automaten steuernde Code hatte an einer Stelle seiner Berechnungen die „Grenzen der Technisierung von Kommunikation“2 erreicht, weil die Bedeutungen von Mitteilungen nicht eindeutig festgelegt waren. Diese Mitteilungen konnten zu unterschiedlichen Interpretationen führen, da „zur Vervollkommnung der Einzelmaschine durch Automation die Rückkoppelung“3 genutzt wurde. In dieser Rückkoppelung wurden maschinell die Daten weiterarbeitet. Das „Einführen einer Informations-‚Schlinge‘ oder eines Kreises“4 geschah in der Formalisierung der Steuerungsanweisungen, die sich auf die Resultate der experimentellen Epistemologie gründeten, aus denen die Programmierformeln und Programmiersprachen hervorgegangen waren.5 Einmal in Bewegung gesetzt und mit den notwendigen Programmen und Kommunikationsschnittstellen für die Ein- und Ausgabe von (Welt-)Daten ausgestattet, erledigten Automaten ihre Aufgaben selbsttätig und entledigten sich des menschlichen Eingriffs. Flusser fasst diesen Gedanken so: 1

2 3 4 5

Weingarten, Rüdiger: Die Verkabelung der Sprache. Grenzen der Technisierung von Kommunikation. Frankfurt am Main, 1989. (Weingarten: Verkabelung, 1989.) Ebd. McLuhan: Kanäle, 1992. S. 402 Ebd. Vgl. Pias: Unruhe, 2004 und ders. (Hrsg.): Cybernetics/Kybernetik. The Macy-Conferences 1946-1953. a. a. O.

37

Kommunizierende Automaten „Denn dies ist ja die Definition von ,Automation‘: ein selbstlaufendes Komputieren von Zufällen, aus denen die menschliche Initiative ausgeschaltet wurde und ein Anhalten dieses Ablaufs bei den von Menschen beabsichtigten informativen Situationen.“6

Im Jahr-2000-Problem wurde deutlich, dass die informativen Situationen einen Status erreichen konnten, der weder beabsichtigt noch vorhergesehen worden war. Die Informations-Schlingen, die Rückkoppelungen der Automatentexte betrafen nicht nur die Einzelmaschinen (stand alone Automaten). Durch den maschinellen Informationsaustausch, der weltweit möglich war, wurden die errechneten Ergebnisse von Automaten an Automaten übergeben. Damit wurde die Konstruktion der Steuerungsprogramme von Einzelmaschinen zwangsläufig komplexer, weil die Ergebnisse anderer Maschinen übernommen und bearbeitet werden mussten, gleichzeitig wurden nach diesen Verarbeitungsschritten neue Ergebnisse an andere Automaten kommuniziert. Ein Fehler konnte so zu Folgefehlern führen. Daher stellte das Jahr-2000-Problem keine Fragestellung dar, die sich auf einzelne Automaten, einzelne Programmiersprachen, einzelne Unternehmen oder einzelne Länder beschränken ließ. Die den Automaten übertragenen Kommunikationsaufgaben machte das Problem zu einer weltweiten Herausforderung für Unternehmen und staatliche Stellen. IBM verweist als Grund des Jahr-2000-Problems auf die Repräsentation von Jahreszahlen, die innerhalb der Programmiersprachen für Automaten definiert wurden: „A phenomenon exists in the Information Technology (IT) industry because historically many computer programs make use of dates represented by only two digits (for example, 95 rather than 1995).“7 Wichtig an der Feststellung von IBM ist, dass das Jahr-2000-Problem unmissverständlich auf die Ausführung von geschriebenen Programmen und die verbreitete Schreibweise des Jahresdatums bezogen wird. Bezeichnenderweise enthält sich IBM, einen Grund für diese Form der Jahresdarstellung anzugeben. Die Konvention einer zweistelligen Schreibweise wird benannt und es wird betont, dass dieser allgemein übliche Gebrauch im Zusammenhang mit der Automatenkommunikation zu Fehlern führen kann. „However common this practice might be, it can cause programs (both system and application) that perform arithmetic operations, 6 7

Flusser: Universum, 1985. S. 20. IBM (Hrsg.): The Year 2000 and 2-Digit Dates. A Guide for Planning and Implementation. Poughkeepsie, New York 81997. (IBM: Year 2000, 1997.) S. 1-1.

38

Abriss des Jahr-2000-Problems comparisons, or sorting of date fields to yield incorrect results when working with years outside the range 1900 – 1999. IBM refers to this phenomenon as the Year2000 Challenge.“8 Der Einsatz von kybernetischen Maschinen, von Automaten, war in der zweiten Hälfte des 20. Jahrhunderts nicht mehr eine abstrakte Möglichkeit eines „Entwurf[s] von Wissensordnungen“9, um den es nach Claus Pias in der Utopie der Kybernetik geht, sondern sie war konkrete Realität geworden, war Anweisungstext und Datencode und war eine Herausforderung geworden. Durch die Realisierung in Form realer Steuerungstexte hatte die experimentelle Epistemologie eine nicht nur sichtbare, sondern auch handlungsfähige Gestalt angenommen. Aus der nicht-verortbaren Vorstellung (Utopie) war Realität geworden. Der automatensteuernde Text hatte die Aufgabe, die durch ihn hervorgerufenen Handlungen zu beherrschen. Eine Aufgabe, die aufgrund einer Realisierung in mehrdeutigen Formalisierungen fehleranfällig geworden war. Die Automaten verstanden die Ergebnisse der Formalisierungen, die zur Berechnung der Zeit eingesetzt wurden, nicht mehr, weil ein mögliches Resultat in den Automatentexten nicht eindeutig definiert worden war. Die errechnete oder übermittelte Jahreszahl 00 konnte je nach Programmierung unter anderem als 1900, als 2000 oder als Abbruchkriterium interpretiert werden. Microsoft erläutert die Mehrdeutigkeit der Programmanweisungen am Beispiel der Programmierung der Datenbank Visual FoxPro mit Blick auf die Interpretation des mitgeteilten bzw. errechneten Jahrhunderts. Microsoft verweist darauf, dass die gleichlautenden maschinellen Anweisungen des Quelltextes aufgrund der unterschiedlichen Übersetzungen in ausführbaren Maschinencode verschieden interpretiert werden: „Normalerweise werden Datums- und Datums-/Zeitkonstanten oder –ausdrücke basierend auf den aktuellen Einstellungen von SET DATE und SET CENTURY zu der Zeit, zu der die Konstanten oder Ausdrücke kompiliert werden, interpretiert. Dies bedeutet, dass viele Datumskonstanten mehrdeutig sind, da sie in Abhängigkeit davon, wann sie kompiliert wurden und welche Datumseinstellungen zur Kompilierzeit wirksam waren, evtl. zu unterschiedlichen Werten ausgewertet werden. Ist also beispielsweise die Datumskonstante {10/11/12} der 11. Oktober 1912, der 11. Oktober 2012, der 10. November 1912, der 12. November

8 9

IBM: Year 2000, 1997. S. 1-1 Hervorhebung durch IBM. Pias: Unruhe, 2004. S. 306

39

Kommunizierende Automaten 1910 oder der 12. November 2010? Das hängt alles von den aktuellen Einstellungen von SET DATE und SET CENTURY TO ab.“10

Der syntaktisch identische Ausdruck einer Ziffernfolge kann im Bereich der Automatensteuerung zu differenten Ergebnissen im Hinblick auf Semantik und Pragmatik führen. Die maschinelle Interpretation einer Mitteilung hängt den Aussagen von Microsoft zufolge auch von nicht vorherbestimmbaren Bedingungen ab, wie zum Beispiel der Version des genutzten Compilers. Die Implikationen, die sich mit einem mehrdeutigen Datum einstellen konnten, waren den Programmierern selbstverständlich bekannt gewesen: „The Year 2000 problem has been a ‚dirty little secret‘ among programmers for decades“11 beschrieb Rabin 1996 die Situation. Dieses Scheitern des kommunikativen Aktes zwischen Maschinen kann sich zum Beispiel auch ereignen, weil ein Datum von einem Automaten an einen anderen Automaten oder an ein Unterprogramm übergeben wird, auf das der empfangende maschinelle Kommunikationspartner sprachlich nicht vorbereitet ist. Dies illustriert eine Aufstellung über die vielfältigen Schreibformen von Kalenderdaten belegen. Da es sich bei dem Jahr2000-Problem um ein Problem der Repräsentation des Datums durch Zeichen handelte, hatte Mercedes Benz eine Analyse der in der Datenverarbeitung genutzten Darstellungen gemacht: Robert Dunn hatte bereits 1984 auf die Datumsproblematik hinsichtlich einer zweistelligen numerischen Schreibweise des Jahrhunderts aufmerksam gemacht, die im Übrigen nur einen Teil der Komplexität der Datumsinterpretation ausmacht.12 Die Anzahl der „bisher entdeckten Darstellungen der Datumsfelder“ in den Programmen bei Mercedes Benz übertraf die von Microsoft erwähnten Variationen um ein Vielfaches:

10

11 12

Microsoft: XNA Developer Center. MSDN Library: Visual FoxPro 7.0: Datumsunterstützung für das Jahr 2000. In: http://msdn.microsoft.com/de-de/library/aa695166(VS.71).aspx (Zugriff 6.5.2009.) Rabin: Year 2000, 1996, S. 7. Vgl. Dunn, Robert H.: Software Defect Removal. New York, 1984.

40

Abriss des Jahr-2000-Problems Tabelle 1: Datumsformate in der Datenverarbeitung Verwendete Datumstypen Ergebnisse aus dem Assessment Datumstyp

Häufigkeit

Datumstyp

Häufigkeit

TTMMJJ

5 372

MMCCJJ

MMTTJJ

562

CCJJMM

450

JJMMTT

18 949

TT-MM-CCJJ

724

MMJJ

1 341

CCJJ-MM-TT

JJMM

4 697

C

2 247

TT-MM-JJ

9 735

CC

1 302

MM-TT-JJ

233

CCJJTT

JJ-TT-MM

128

CCJJ

12 149

TTMM

106

TT

53 100

MMTT

589

TTT

MM-JJ

338

JJTTT

JJ-MM

41

MM

68 358

57

JJ

62 497

DD-MM

TTMMCCJJ

2300

CCJJMMTT

5 623

565

516

1 525

3 321

4 456

MM-TT-CCJJ

8

MM-TT

1

Quelle: IO/P3 Daimler-Benz AG13

Die unterschiedlichen Formen der in den Programmen verwendeten Datumsdarstellungen gingen zurück auf deren unterschiedliche Nutzung, das heißt den unterschiedlichen Gebrauch in einem Lösungsalgorithmus und damit die jeweilige Nutzung der Datumsangabe durch einen Automaten. All diese Formen der Datumsschreibung mussten miteinander kompatibel sein, wenn die Programme Daten bzw. Berechnungsergebnisse austauschten. Das heißt, der die Angaben empfangende Automat musste die Datumsschreibweise verstehen und richtig verarbeiten können. Traten hier Kommunikationsfehler auf, waren die weiteren Programmabläufe nicht immer eindeutig vorhersagbar. An der Vielzahl der Datumsformen zeigte sich, dass das Jahr2000-Problem, das gemeinhin vereinfachend durch die Angabe 13

Dischler, Wolfgang: Jede Menge Fleißarbeit – aber bis Ende 1998 fertig. In: Computerwoche Spezial "Problem 2000". Sonderheft vom 27.02.1998, Heft 1. S. 94 – 97. (Dischler: Fleißarbeit, 1998.) S. 96. Zur Erläuterung: Die Spalte Häufigkeit zeigt, wie oft dieser Datumstyp im untersuchten Programmcode gefunden wurde. In dem Ausdruck CCJJMMTT stehen die Stellvertreter C, J, M, T bzw. D beispielsweise für das Datum 19(CC) 97(JJ) 06(MM) 08(TT), also für das in der (natürlichen) mitteleuropäischen Schriftsprache so geschriebene Datum 08.06.1997.

41

Kommunizierende Automaten von zwei anstelle von vier Zeichen für die Schreibung des Jahrs gekennzeichnet wird, nur ein Beispiel für die mit der Automatenkommunikation verbundenen Fehlermöglichkeiten allein im Bereich der Datumsverarbeitung darstellte. Auch unabhängig von einem Jahrtausendwechsel konnten und können sich Berechnungs- und Übermittlungsfehler durch eine Fehlinterpretation der übergebenen (Datums-)Werte ergeben. Im Zusammenhang mit dem Jahr-2000-Problem waren diese Gefahrenmomente jedoch weltweit und zu einem bestimmten Zeitpunkt, dem Wechsel vom Jahr 1999 auf das Jahr 2000, aufgetreten. IBM wendete sich in Kenntnis der Übermittlungsprobleme gegen das Vorurteil, beim Jahr-2000-Problem handele es sich um ein Problem, das auf Großrechner oder veraltete Softwaresysteme hätte eingegrenzt werden können. IBM zitierte die nach Meinung des Unternehmens falsche Auffassung: „This is a problem that only occurs on mainframe systems and/or legacy applications.“14 Jedes System kann von dem Y2K-Fehler betroffen sein, dessen Code und dessen Vereinbarungen und Konventionen über die Interpretation und den Gebrauch von Begriffen nicht ausreicht, um eine konsistente Verarbeitung beispielsweise einer Datumsangabe zu ermöglichen. „Any system or program can be affected if it uses only two digits for year representation: any file, database, log with 2-digit-year fields, and any data entry, query, update and output processing that employs 2-digit-year fields.“15 IBM hebt die Kommunikation und die Verarbeitung, data entry, output processing, des Automateneinsatzes als Fehlerquelle. Die Form der Schreibung eines Datums ist nicht der einzige Grund, dass das Automatenhandeln scheitern kann. IBM verwies auf die nach der International Organization for Standardization (ISO) regelgemäßen Schreibung des Datums. Ein korrektes Datum konnte 1997 und kann heute laut ISO-Festlegung mit zwei oder vier Ziffern für die Jahresangabe geschrieben werden: „Although currently not in popular usage throughout the world, ISO Standard 8601 defines acceptable date formats as yy-mm-dd or yyyy-mm-dd.”16 Hieraus geht deutlich hervor, dass die richtige Schreibweise eines Datums in der Kommunikation der Automaten – ebenso wie in der natürlichen Kommunikation – von der jeweils getroffenen Vereinbarung abhängt. 14 15 16

IBM: Year 2000, 1997. S. 2-1. Ebd. IBM: Year 2000, 1997. S. 2-1. Vgl. zur ISO 8601 auch: a) DIN ISO 8601, Ausgabe:2005-11, Berlin: Beuth-Verlag, 2005 und b) ISO 8601:2004, Data elements and interchange formats – Information interchange – Representation of dates and times.

42

Abriss des Jahr-2000-Problems Es gab und gibt keine stets richtige Schreibweise des Datums, mit der alle möglichen Kommunikationsaspekte befriedigend gelöst werden konnten. Auch achtstellige Datumsangaben konnten zu Fehlern führen, wenn das empfangende Programm nur sechs Ziffern oder diese in einer anderen als der übermittelten Reihenfolge erwartet hatte. Auch in einem solchen Fall wurde die Verarbeitung der übergebenen Daten nicht richtig durchgeführt. Die falschen Ergebnisse maschineller Interpretation hätten auf diese Weise im internen oder externen Verbund der Automatenkommunikation Folgefehler hervorrufen können. In den Zielsystemen hätten die falschen übermittelten Ergebnisse durch eine richtige, das heißt der Konvention genügende und konsistente, Verarbeitung wiederum zu Fehlern, zu Folge-Fehlern führen können. Das Jahr-2000-Problem „can also affect programs, systems, databases, and other functions and processing that receive input from these programs and data.” 17 IBM sah daher die Komplexität des Jahr-2000-Problems nicht in der isolierten technischen Handlung zur Korrektur eines Programms begründet, sondern in der Interdependenz der kommunikativ miteinander verbundenen Systeme18: Die technische Korrektur einer einzelnen Programmzeile wies allenfalls eine gering zu nennende Komplexität auf. „Although this is a complicated and far-reaching problem, it is not a technically difficult problem to resolve when viewed on a module-by-module or routine-by-routine basis.”19 Die enormen Schwierigkeiten, die aus dieser einfach zu behebenden sprachlichen Ungenauigkeit entstanden, stellten sich durch die umfassende Verknüpfung der Datenverarbeitungsroutinen ein. IBM sieht den Grad der Komplexität durch die Anzahl der kommunikativen Verknüpfungen bestimmt. Während die Aufgabe einzelne Textzeilen zu ändern, einfach zu erledigen ist, ist die Aufgabe, deren korrekte und intendierte Verwendung in allen möglichen Verbindungen und Interpretations- und Handlungszusammenhängen herzustellen, äußerst anspruchsvoll und komplex. „The degree of complexity is directly related to the inter-relationships between routines and

17 18

19

IBM: Year 2000, 1997. S. 2-1 Ebd. Vgl. auch die Aussage des Bundesministeriums für Wirtschaft zur komplexen Verbindung der Automaten in allen gesellschaftlichen Bereichen in dieser Arbeit auf S. 61 und die Ausführungen der EUKommission über die bislang beispiellose Zusammenarbeit des privatwirtschaftlichen und des öffentlichen Sektors in dieser Arbeit auf S. 64. IBM: Year 2000, 1997. S. 2-5.

43

Kommunizierende Automaten programs and the data passed between them. This is not a trivial programming exercise.“20 Die Probleme der Automatenkommunikation wirkten auch auf den Inhalt der IBM-Broschüre zurück: Explizit legte IBM fest, in welcher Form die Daten in der Broschüre geschrieben wurden: „To apply that standardization and some consistency to this document, when a date is used in a general (non-technical, nonproduct-specific) manner, the date is written in a similar format (yyyy-month-dd).“21 Weil die Schreibung des Datums bei der Kommunikation der Automaten so viel Verwirrung hatte auslösen können, wollte IBM in der Kommunikation mit den Menschen Sicherheit schaffen. Für die Kommunikation der Automaten galt die von IBM genannte Vereinbarung nicht. Hier konnte und kann eine zu programmierende Aufgabenstellung es mit sich bringen, dass andere Konventionen gelten. Daher ist der von IBM zitierte ISO Standard einer sowohl zwei- als auch vierstelligen Jahresangabe auch heute noch – nach zweimaliger Aktualisierung (1998 und 2004) – im Kern gültig. Das heißt, auch heutzutage werden die Jahreszahlen in einer Datumsangabe sowohl mit zwei als auch mit vier Zeichen regelgemäß und standardisiert repräsentiert. Eine zweistellige Jahresangabe ist immer dann zulässig, wenn ein eindeutiger Gebrauch(!) möglich ist. Allerdings wird eine Schreibung der Jahreszahl unter Einschluss der Jahrhundertangabe (yyyy) von IBM befürwortet.22 Zusammenfassend kann gesagt werden: Die Vielfalt der möglichen Schreibweisen kann bei der Weitergabe eines Datums innerhalb eines Programms von einer Funktion an eine andere oder von einem Programm über eine Schnittstelle an ein anderes System dann zu Fehlern führen, wenn das Datenformat nicht kompatibel ist oder – anders ausgedrückt – wenn die Konventionen nicht ausreichend für eine korrekte Verarbeitung sind. Diese Möglichkeit eines Fehlers kann unabhängig von Datumsangaben auch bei allen (!) übrigen Datenfeldern oder auch Textzeilen auftreten. Auch bei diesen spielen die jeweils verwendeten Codes und die einzuhaltenden Konventionen für die Schreibung, die Interpretation, die Verarbeitung, die automatisierte Entscheidung und die Ausgabe von Daten eine große Rolle. Auch hier können durch die Nichtbeachtung der richtigen, das heißt der Konvention entsprechenden Schreibung Fehler entstehen. 20 21 22

Ebd. Hervorhebung durch IBM. Ebd. S. 2-1. Vgl. dazu die Angaben der ISO 8601.

44

Abriss des Jahr-2000-Problems

Bestimmung nicht ausreichender Programmanweisungen Um die fehlerhaften oder nicht der Konvention entsprechenden Datierungen identifizieren zu können, standen zwei Möglichkeiten zur Verfügung: a) eine Quelltextuntersuchung und b) eine Analyse der Daten im Rechner. Eine Quelltextuntersuchung ist die war eine Prüfung eines von einem Programmierer geschriebenen Textes. Für die Quelltextuntersuchung konnten genutzt werden: a) die Textmustersuche, b) die Morphemanalyse, c) die Quellcodeanalyse mit dem Werkzeug Compiler front end, d) eine Datenflussanalyse und e) die Dictionary Recherche.23 Die Textmustersuche ist mit einem üblichen Suchprogramm, wie es in Textverarbeitungsprogrammen zur Verfügung steht zu vergleichen. Der Suchende gibt in ein Suchprogramm eine Zeichenkette ein, zutreffende Übereinstimmungen werden angezeigt. Im Rahmen der Morphemanalyse werden „kleinste, bedeutungstragende Einheiten des Quelltextes, die Morpheme“24 analysiert. „Der Quelltext wird durch einen Scanner vollständig in Morpheme zerlegt. Dabei werden die Morpheme in Abhängigkeit von der Stelle ihres Auftretens im Quelltext in unterschiedliche Listen eingeordnet“.25 Der im Zitat erwähnte „Scanner“ ist ein Programm, das „die sprachliche Abgrenzung der Morpheme“, die „für jede Programmiersprache fest vorgegeben ist“, erkennen kann. Zur Durchführung der Morphemanalyse ist es hilfreich, wenn es eine Programmdokumentation gibt oder „Insiderwissen des Programmierers“ zur Verfügung steht, mit dessen Hilfe bestimmt werden kann, „unter welchem Namen Träger des Datums verschlüsselt“ sind.26 Alle Suchergebnisse und Morpheme mit Datumsbezug konnten damals und können bei Bedarf noch heute so gezielt geprüft und korrigiert werden. Mit einem „Compiler front end“ werden lexikalische, syntaktische und statische semantische Elemente analysiert, dabei wird der „Anweisungsteil des Programms […] vollständig in bewertete Ausdrucksbäume konvertiert“.27 Die Datenflussanalyse stellt dar, an welchen Stellen eines Programms zum Beispiel eine Datumsverarbeitung durchgeführt wird. In einem Dictionary wird für jedes der identifizierten „Datumsobjekte die detaillierte Beschreibung (Deklaration) einschließlich der zugehörigen Zeilennummer“ 23 24 25 26 27

Vgl. „it Management Spezial: Jahr 2000 – Teil 2“, ein Supplemant aus: „it Management“, -Sauerlach, Ausgabe Februar 1997. Ebd. S. 3 Ebd. Ebd. Ebd. S. 4

45

Kommunizierende Automaten festgehalten. Anhand der Dictionary Recherche konnten auf diese Weise im Rahmen der Jahr-2000-Arbeiten kritische Datumsoperationen bestimmt werden.28 Bestand die Möglichkeit einer Quelltextuntersuchung nicht, weil zum Beispiel kein Textlisting mehr vorhanden war, musste im Rechner nach den möglicherweise fehlerhaften Datierungen gesucht werden. Doch diese waren nicht ohne Hilfsmittel zu erkennen. Diese Daten innerhalb eines Automaten konnten nur durch den Einsatz von weiteren Computerprogrammen aufgespürt und gelesen werden. Es mussten, wie im folgenden Absatz dargestellt wird, aufwändige Analysearbeiten unternommen werden. Die Suche nach den falschen Textdaten offenbarte die eigenständige Verwaltung des eingelesenen und verarbeiteten Textes durch die Maschinen. Der Speicherort und die Speicherform einer Mitteilung waren für den menschlichen Emittenten nicht mehr vorhersehbar. Selbst der ursprüngliche Programmierer oder der korrigierende IT-Fachmann konnten (und können) nicht mehr genau bestimmen, wo und in welcher Schreibung der maschinell bearbeitete Text gespeichert wurde. Es hatte sich ein Paradoxon eingestellt: Die aufgrund von beauftragten Programmanweisungen durch einen Automaten durchgeführten Schreibungen von Textelementen machten es dem Auftraggeber unmöglich, diese Textelemente sicher zu identifizieren. Andreas Bleul und Jörn Loviscach haben diese Speicher- und Bearbeitungsvorgänge und die Fahndung nach den bearbeiteten Texten in ihrem Aufsatz „Operation 2000“ im Hinblick auf die komplexen Jahr-2000-Korrekturarbeiten beschrieben. Sie schildern, dass manche Korrekturen nicht planmäßig auszuführen waren, da der korrigierende Programmierer nicht immer habe erkennen können, wie die bearbeiteten Daten gespeichert werden. Auch im Reich der Rechner und formal logischen Notationen musste zur Abwendung von Gefahren improvisiert werden. „Reißen alle Stricke, kopiert man Daten und Applikationen auf einen Untersuchungsrechner, der den eigentlichen Rechner simuliert oder emuliert.“29 Eine Voraussage, wo welche Programmanweisungen in welcher Form im Speicher des Automaten zu finden sind, ist nicht möglich. „Um den Weg eines Datums durch die Applikation wieder zu finden, wird die Emulation eine Zeit lang 28 29

Ebd. Bleul: Operation, 1999. S. 80. Erläuterung: Eine Emulation ist das Nachbilden eines Systems, seiner Software und Hardwarefunktionen, in einem anderen System. Eine Emulation ahmt also die Funktionen eines Systems nach. Vergleichbar mit dem originalgetreuen Nachbau einer Raums innerhalb eines anderen.

46

Abriss des Jahr-2000-Problems betrieben – wenn auch wegen der Emulation in Zeitlupe. Nach einiger Zeit stoppt man den Rechner und durchsucht den Speicher nach Datumsmustern.“30 Im Rahmen dieser Korrekturarbeiten gibt es keinen eindeutigen und logisch vorgezeichneten Weg herauszufinden, wie Daten programmgemäß verarbeitet werden. Der Automat kann an zu vielen Stellen der Kette der informationstechnischen Bestandteile Entscheidungen über das Wo und Wie der Verarbeitung treffen. Der Programmierer hat keine Kontrolle über alle Teile der maschinellen Abarbeitung eines Algorithmus. In Bezug auf das Jahr2000-Problem bedeutete dies: Rechner mussten nach „Mustern“ durchsucht werden, um die Speicherstelle eines falsch geschriebenen Datums zu finden und mögliche Korrekturnotwendigkeiten zu ermitteln. Von digitaler Bestimmtheit der Daten im Sinne einer mathematischen Formalisierung sprechen diese Erläuterungen nicht. Eine Bestimmung von Form oder Ortes der schriflichen Programm- und Datentexte im Speicher des Rechners ist nur mit Hilfsmitteln möglich, und selbst diese bezeichnen nicht exakt, sondern ermitteln nur mögliche Übereinstimmungen. Hier zeigen sich kulturell neue Möglichkeiten und Herausforderungen im Umgang mit Texten. Die Automatentexte lösen sich unvergleichlich stärker vom Emittenten ab, als Texte in rein konventionellen Speichermedien. Durch die Ausführung der aufgetragenen Tätigkeiten verselbstständigt sich der sprachgesteuerte Automat. In gewissem Sinne kann man sagen: Der Rechner interpretiert die einfließenden Programm- und Umweltdaten und verteilt sie je nach gefundenem Informationsgehalt und nach seiner aus vielen Programmvorgaben gebildeten Logik auf seine Ressourcen. Auch dies stellt im Umgang mit Kommunikationsmedien einen neuen Zustand dar, denn analog gespeicherte Daten waren in der Regel eindeutig lokalisierbar: Zeilen, Absätze und Seitenzahlen in einem papiernen Schriftstück, Film- oder Tonstellen auf einem Band oder einer analogen Platte.

Missverständnisse im Rahmen des Jahr-2000-Problems IBM ging auf einige Missverständnisse und falsche Auffassungen ein, die sich in Bezug auf das Jahr-2000-Problem eingestellt hatten. Unter der Überschrift „Some general misconceptions of the Year 2000 challenge include“31 führte IBM aus, dass die Jahr-

30 31

Ebd. IBM: Year 2000. 1997. S. 2-1

47

Kommunizierende Automaten 2000-Probleme nicht an das Datum 1.1.2000 oder den tatsächlichen Zeitpunkt des Jahreswechsels gebunden sind. Die möglichen Probleme konnten unabhängig davon auftreten einerseits vor dem Jahr 2000 andererseits, nach dem Jahreswechsel, wenn Rechnungen über den Jahrhundertwechsel zu erledigen waren. „The challenges of handling the Year2000 changes can occur well before the year 2000 arrives.”32 Hier war das sprachliche Handeln der Automaten der Grund für das Auftreten eines Fehlers. Beispielsweise in dem Fall, wenn „financial applications that deal with life insurance or bond policies that have expiration dates that go beyond the year 2000“33 zu berechnen waren. Die Verarbeitung der Daten in Automaten und die Kommunikation der Ergebniswerte führte zu den Problemen, nicht das Datum oder der Datumswechsel selbst. „In such an application, the programs need to handle the dates beyond the year 2000 when checking policy expiration.” 34 Im Sinne der auf John von Neumann zurückgehenden Rechnerarchitektur waren durch das Jahr-2000-Problem alle informationstechnischen Bestandteile eines Informatik-Systems betroffen. IBM führte dazu aus: „The scope of the Year2000 challenge spans the entire Information-Technology industry.“35 und betonte: „In fact, it is both a hardware and software problem. “36 Auch die Hardware wurde Teil des Jahr-2000-Problems, weil sie ihren Beitrag zur Verarbeitung der Daten im Wechselspiel mit den Steuerprogrammen leistete. An jedem Punkt der verketteten informationstechnischen Bestandteile können sich Auswirkungen durch Programmfehler zeigen. „A data mismatch can exist in any level of hardware or software, from microcode to applications, in files and databases, and can be present on any (IBM and nonIBM) Information System platforms.“37 Gleichwohl gilt, dass das „problem resides mostly, however, in application programs and data using two digits for year representations.“38 Die fehlerhafte Verschriftung der automatensteuernden Handlungsanweisungen konnte den Befehlsvorrat, die instruction list, der elektronischen Schaltungen (Hardware) ebenso treffen wie das Anweisungsprogramm, die Software.

32 33 34 35 36 37 38

Ebd. Ebd. Ebd.. IBM: Year IBM: Year IBM: Year IBM: Year

2000, 1997. S. 2000. 1997. S. 2000, 1997. S. 2000. 1997. S.

1-1 2-1 1-1 2-1

48

Abriss des Jahr-2000-Problems

Eine irritierende Komponente: Eingebettete Systeme Innerhalb der Automaten arbeiteten elektronische Bestandeile, so genannte Embedded Systems. Mit diesen Komponenten arbeiteten die Programme der Automaten zusammen und tauschten Informationen aus. Embedded Systems sind, wie der Name sagt, Systeme, die in umfangreichere Automatensysteme eingebettet sind. Sie stellen kleine Informatik-Systeme innerhalb von Informatik-Systemen dar. Die Embedded Systems verfügen über einen Programmspeicher, der nicht flüchtig und (ohne besondere Hardware) nicht beschreibbar ist. Das heißt, der Programmierer eines Automaten, der Embedded Systems benutzte, musste sich auf Angaben über ein Programm verlassen, dessen Quelltext von jemand anderem geschrieben worden war und den er in der Regel weder jemals würde lesen noch ändern können. Dies stellte im Rahmen der Jahr-2000-Korrekturen ein gravierendes Problem für die Programmierer dar. Der steuernde Programmtext lag nicht zur Prüfung vor. Diese Problematik setzte Ferdinand Daemisch in einem Artikel für die „Computerwoche“ in Beziehung zu der vergleichsweise geringen Anzahl von Hilfswerkzeugen, die es für die Analyse von Embedded Systems-Programmen gab: „Während sich für andere Umstellungsprojekte Anbieter in Hülle und Fülle auf den Markt drängen, scheint es für Embedded Systems keine zu geben. Die Antworten auf Fragen nach möglichen Auswirkungen sind verblüffend: Keine der betreffenden Anbieterfirmen weiß Auskunft zu geben.“39 Keine der Anbieterfirmen konnte oder wollte Auskunft geben über die Jahr-2000-Fähigkeit der für die jeweiligen Embedded Chips geschriebenen Programme. Daemisch verwies auf die Stellungnahme eines weltweit führenden Herstellers von Computer-Hardware und zitierte „die Aussage von Intel-Pressesprecher Heiner Genzken“, der, wie Daemisch schrieb, „im Prinzip richtig auf andere verweist“40: „Wir liefern die nackten Bausteine. Die Software für die darauf implementierte Embedded-Anwendung stammt von deren Lösungsanbietern.“41 Eine zusätzliche Komplexität stellte sich dadurch ein, dass die in Automaten verwendeten Embedded Systems zumindest zwei unterschiedliche Sprachelemente (Befehlsvorräte) aufwiesen.

39

40 41

Daemisch, Ferdinand: Fehler in Chips gebrannt? Das Problem 2000 embedded. In: Computerwoche Spezial „Problem 2000“. Sonderheft vom 27.02.1998, Heft 1. (Daemisch: Chips, 1998.) S. 56. Ebd. Ebd.

49

Kommunizierende Automaten Einerseits handelte es sich um Schaltungen, die bestimmte syntaktische Operationen ermöglichen. Zum zweiten wurden für diese Bausteine spezielle Anwendungsprogramme geschrieben. Für einen bestimmten Typ eines Chips können beliebig viele Anwendungsprogramme geschrieben werden. Diese Programme werden auf den Chip gebrannt und gehen mit ihm eine feste, unauflösliche Einheit ein. Die im Chip potenziell vorgesehenen syntaktischen Möglichkeiten werden dadurch auf eine Anwendung mit einem bestimmten Reservoir an Befehlen und damit ausführbaren Operationen festgelegt. Auf die Bedeutung der Embedded Systems als mögliche Gefahrenquelle im Rahmen des Jahr-2000-Problems geht auch die Versicherungswirtschaft ein: „von 150 000 geprüften ‚Embedded Chips’“ wurden „100 gefunden, die eine Zeitfunktion hatten und nicht Jahr-2000-fähig waren“. „Bei diesen handelt es sich aber genau um die Chips, die bei einer Fehlfunktion zu Sach- und Betriebsunterbrechungsschäden führen könnten.“42 „Milliarden solcher Chips arbeiten z. B. in PCs, Robotern, Anlagesteuerungen, Aufzügen, Zutrittskontrollsystemen, Verkehrsampeln, Fahrzeugen, Klimaanlagen etc. Es gibt danach kaum einen industriellen Bereich, in dem nicht mit Problemen oder Ausfällen zu rechnen ist.“ 43

Auch in der Darstellung der Versicherungen wurde der Kommunikationsaspekt der Automaten, ihre Vernetzung, zum zentralen Gefahrenmoment. „Selbst wenn die von einem System erzeugten, überwachten oder verarbeiteten Informationen nicht oder nur in geringem Maß infiziert sind, liegt die Gefahr im hohen Grad der Vernetzung solcher Systeme in physischen oder logischen Prozeßketten.“44 Unter Bezug auf informationstechnische Verbindung wurde auf die Betriebssysteme verwiesen, die ebenfalls Programme sind und Auswirkungen auf den sprachlichen Austausch der Embedded Systems mit den umgebenden Programmen hatten: „Es gibt keine Verarbeitung ohne Programme, und diese benötigen Betriebssysteme. Leider entsprechen Betriebssysteme in Embedded Systems aber häufig nicht dem letzten Versionsstand eines Herstellers, der wiederum in aller Regel Betriebssicherheit nur in Verbindung mit eben diesem garantiert.“45 Durch eine nicht 42

43 44 45

Schnabel, Willfried: Das Jahr-2000-Problem in der Sachversicherung. Ein reales Problem von Industrie und Dienstleistung. In: Versicherungswirtschaft, Jahrgang 53, 1998, Heft 17, S. S. 1198 ff. (Schnabel: Jahr2000, 1998.) S. 2001. Ebd. S. 1198. Ebd. Ebd.

50

Abriss des Jahr-2000-Problems übereinstimmende sprachliche Codierung kann der Datenaustausch zwischen den Embedded Systems und den umgebenden Programmen – auch ohne einen Fehler, der aus dem Jahr-2000Problem resultiert – gestört, fehlerhaft oder gar ganz unmöglich werden. „Ältere Versionen werden meist als nicht betriebssicher ausgewiesen. Die Migration zu einer neuen Version kann dann nach Veränderungen der Hardware verlangen. Möglich ist auch eine fehlende Kompatibilität zum ausführenden Programm.“46 Auf die fehlende Kenntnis über den Einsatz von Embedded Systems weist ein weiterer Vertreter der Versicherungswirtschaft, Dr. Martin Zorn, hin: „Dem Betreiber von Anlagen und Maschinen müsse nicht zwingend bewußt sein, daß bestimmte Funktionen durch Chips gesteuert werden, die eine Zeit- oder Datumsfunktion haben“, zitiert ihn Monika Lier.47 Den Anwendern war zum Teil gar nicht bewusst, dass sie diese Chips einsetzten und welche Kommunikations- und Bearbeitungsvorgänge sich damit verbanden. Im Kern war diese kommunikative Verbindung innerhalb der Automatensysteme ein Gefahrenpotenzial und dies unabhängig von einem Fall wie dem Jahr-2000-Problem. Dieses Ereignis hatte die kommunikativen Gefahren nur besonders deutlich hervortreten lassen.

Der Test der Korrekturergebnisse Die Korrektur einzelner Zeilen in einem Programm griff aufgrund der Kommunikation innerhalb der Informatik-Systeme und zwischen den Automaten in Bezug auf die tatsächliche Lösung des Jahr-2000-Problems zu kurz. Die Entwicklung umfangreicherer Verfahren war notwendig, um auch dem Kommunikationsaspekt und der damit verbundenen maschinellen Interpretation eines übermittelten Textes gerecht zu werden. „Inzwischen haben sich die Eckdaten jedoch geändert“, schrieb die „Computerwoche“ in Heft 4 des Jahres 1999 und zitierte „Brendan Conway, Analyst der Gartner Group für Jahr-2000-Themen“48, mit der Aussage: „Unsere Annahme, daß allein auf den Testlauf der umgestellten

46 47

48

Ebd. Lier, Monika: Die Tücken der Technik: Das Jahr-2000-Problem. Kölnische Rück warnt vor grober Fahrlässigkeit. In: Versicherungswirtschaft, Jahrgang 53, Heft 12, 1998. S. 837 ff. (Lier: Tücken, 1998.) S. 838. Computerwoche: Aufwendige Testphase durch Zeitreisen verkürzen. Strategien zur Bewältigung des Jahr-2000-Problems. In: Computerwoche, 1999 Heft 4. S. 20 – 21. (Computerwoche: Testphase, 1999.) S. 20.

51

Kommunizierende Automaten Systeme rund die Hälfte des ursprünglich kalkulierten Aufwands entfällt, erhalten wir in Gesprächen mit Kunden immer stärker bestätigt.“49 Die Komplexität der Automatenprogramme und ihre kommunikative Verknüpfung zwangen die Programmierer, in der Änderung des Programmcodes mehr zu sehen als eine Änderung einer einzelnen Textzeile. Der Test der Programme behandelte nun neben der Prüfung der syntaktischen und semantischen Korrektheit verstärkt und vordringlich die pragmatischen Aspekte eines zweckdienlichen Handelns in verbundenen Systemen: „‚Früher beschränkte sich Testen auf die Überprüfung von Fehlerlosigkeit‘, sagt Gerald Pfeiffer, Senior Consultant der Compuware GmbH in Dreieich. Heute, so der Experte für Testverfahren in der SoftwareEntwicklung, konzentrieren sich die Anwender auf die Analyse von Software in Prozeßketten.“50 Die „Analyse von Software in Prozessketten“ meint die Analyse der Ergebnisse der Datenverarbeitung in kommunikativ agierenden Automatensystemen. Die Verbindung im Rahmen der künstlichen Kommunikation geschah durch die Übermittlung von Texten. Die Datenverarbeitung in Prozessketten konnte dadurch gelingen, weil den übermittelten Textelementen durch die Steuerungsprogramme die jeweils richtige semantische Bedeutung, also die, die der Sender intendiert hatte, zugewiesen wurde. Nach der richtigen Bedeutungszuweisung wurden durch den Empfänger die richtigen Handlungen eingeleitet. Daher wurden auch aus IT-Sicht Programme als Teil einer kommunikativ miteinander verbundenen Prozesskette betrachtet. Die hohe Zahl an Verbindungen zwischen Automatenanwendungen hätte zu einer großen Anzahl möglicher Fehlerquellen führen können. Bereits „für 100 IT-Applikationen ergeben sich rechnerisch 5000 Verbindungen“51, ermittelte die Unternehmensberatung McKinsey. In vielen Unternehmen und Verwaltungen ging die Zahl der IT-Anwendungen weit über 100 hinaus. Die Tests der Automatenanwendungen sollten auch ergründen, ob die Datenkommunikation zwischen den Programmen, die Jahr-2000-fähig waren, und solchen, die das nicht waren, zu Folgefehlern führen würden. Die Softwaretests wurden gerade im Hinblick auf die Integration der Einzelanwendung in die Gesamtabläufe zu einer entscheidenden Aufgabe im Rahmen der Herstellung der Jahr-2000-Fähigkeit. „Ein eingehend diskutiertes Thema 49 50 51

Ebd. Ebd. Bernotat, Jens und Alexander Scherdin: Enterprise Application Integration: Der Schlüssel zu flexiblen IT-Landschaften. Frankfurt, 2006. S. 2.

52

Abriss des Jahr-2000-Problems

innerhalb des Kernteams war die sogenannte Zeitreise und der damit verbundene Integrationstest über mehrere [simulierte; pfe] Jahre.“52 Die Zeitreise ist eine Vordatierung des durch die Programme eingelesenen Kalenderdatums. Die Software sollte so geändert worden sein, dass sie auch nach dem Jahrtausendwechsel jahrelang in der gewünschten Art und Weise funtionierte. Eine weitere Test- und Korrekturmöglichkeit stellte die Fenstertechnik (engl. windowing) dar. Der Programmtext musste an allen betreffenden Stellen jeweils so geändert werden, dass eine fehlerfreie Anwendung möglich war und alle anderen Programme und Automatensysteme mit den aus dem geänderten Programm hervorgehenden Ausgabedaten zielgerichtet und auftragsgemäß weiterarbeiten konnten. „Die Windowing-Technik hat ihren Namen von der Methode ein ,Zeitfenster‘ zu schaffen. Alle Jahreszahlen, die kleiner als ein bestimmtes Limit sind, zum Beispiel kleiner als 60, erhalten nach Art einer Übersetzung die 20, alle anderen die 19 vorgestellt.“ 53 Durch die mit der Fenstertechnik verbundenen Programmänderungen konnte die Schreibweise der Daten unverändert bestehen bleiben, jedoch musste an jeder Stelle eines Programms, an der die eingelesenen Daten interpretiert wurden, der Programmtext geändert werden. Hierzu konnte es dann notwendig sein, dass Daten, die mit vier Stellen eine vollständige Jahresangabe darstellen, wieder – der Konvention innerhalb der Programmlogik entsprechend – auf zwei Stellen verringert werden mussten. Durch die mit der Fenstertechnik verbundenen Eingriffe in das Programm konnten sich unerwünschte Änderungen ergeben. Daher mussten die geänderten Programme intensiv getestet werden. „Man muß dann immer noch etliche, aber bei weitem nicht mehr alle Datumsfelder ‚anpacken’. Das verkürzt die Umstellungszeit, aber nicht den Testaufwand. Denn die Implementierung solcher Übersetzer erfordert Eingriffe in die Programmlogik.“54 Die Korrekturen der Programmtexte mussten deshalb getestet werden, weil die Handlungen der Automaten durch die interne 52

53

54

Holtgrewe, Burkhard: Gründliche Vorarbeit zahlt sich aus. In den DVAktivitäten des Gerling Konzerns ist das Datumsproblem seit zwei Jahren ein Kernprojekt. In: Computerwoche Spezial „Problem 2000“. München Sonderheft vom 27.02.1998. (Holtgrewe: Vorarbeit, 1998.) S. 19. Schmitz, Ludger: Kurz vor dem Kollaps. Zahlenfresser auf Nulldiät. Keine industrielle Gesellschaft funktioniert mehr ohne Computer – obwohl die oftmals nicht einmal zwischen Jahrhunderten unterscheiden können. In: Computerwoche Spezial „ Problem 2000“. Sonderheft vom 27.02.1998. S. 8 – 10. (Schmitz: Kollaps, 1998.) S. 10. Ebd.

53

Kommunizierende Automaten und externe Kommunikation der übermittelten oder berechneten Werte nicht mit Bestimmtheit vorausgesagt werden konnten.

Öffentliche Aspekte Die Handlungen der Automaten, das heißt die tatsächlichen oder zu befürchtenden Konsequenzen daraus, waren es, die das Jahr2000-Problem zu einem Thema der Medien machten. Dadurch erschien das Thema in den Jahren 1996 bis 1999 als neu: „Because the financial and popular news media have only recently become aware of the issue and begun to explain and discuss the problem, the issue appears to be new.“55

Die Fehler, die in den Veröffentlichungen in Zeitungen und Zeitschriften aufgedeckt und prognostiziert wurden, waren ein Problem in einem zentralen Bereich der Automation. Durch die möglichen Schwierigkeiten, die auf die Unternehmen und Verwaltungen zukommen konnten, blieb das dirty old secret (Rabin) der Programmierer nicht länger geheim. Darüber hinaus blieb es auch kein Problem, das nur in IT-Fachkreisen diskutiert wurde. Das Jahr-2000-Problem wurde zu einem Gegenstand des öffentlichen Interesses. Allein das Archiv der Frankfurter Allgemeinen Zeitung weist mehr als 300 Artikel der „FAZ“ und der „FAZ am Sonntag“ zu den Suchkriterien „Jahr-2000-Problem“ sowie „Y2K“, „J2K“ oder „millenium-bug“ nach.56 Die Genios-Datenbank weist zu den selben Suchbegriffen über 3000 Artikel der deutschen „Tages- und Wochenpresse“ nach und über 1200 Artikel aus der deutschsprachigen „Fachpresse“.57 Überraschenderweise wurden 10 bis 15 Prozent der Artikel in den Jahren nach dem Ereignis, also nach dem Jahr 2000 veröffentlicht. Das Interesse an dem Thema Jahr-2000-Problem blieb zumindest in Bereichen der Pressemedien demnach erhalten. Auch in den Rundfunk- und Fernsehmedien wurde das Thema intensiv behandelt. So strahlte der WDR-Hörfunk eine Sendereihe mit dem Titel aus: „Verschiebt das Jahr 2000! Der Jahrtausendwechsel, die Computer und die politisch-ökonomischen 55 56 57

Rabin: Year 2000, 1996, S. 7 Siehe die Internet-Datenbank der Frankfurter Allgemeinen Zeitung http://fazarchiv.faz.net/. Siehe die Internet-Datenbank der GBI-Genios Deutsche Wirtschaftsdatenbank (German Business Informationen): http://www.gbi.de/. Angabe der GBI-Datenbank zur Recherche vom 03.02.2006: „gefundene Dokumente: 3026. Suchbegriffe: Jahr-2000-Problem, Y2K, J2K, milleniumbug“. Die Ergebnisse der Suche basieren auf einer Oder-Recherche.

54

Abriss des Jahr-2000-Problems Folgen“. Sie beschäftigte sich mit verschiedenen Aspekten des Jahr-2000-Problems.58 Der WDR strahlte neben Fachbeiträgen59 auch Hörspiele zum Thema aus60. Andere Sender berichteten ebenfalls ausführlich über das Jahr-2000-Problem.61 Zwei Aspekte sind am publizistischen Interesse auffällig: Einerseits behandelten politische Organisationen wie die EUKommission und internationale Großunternehmen das Thema in der Öffentlichkeit und dadurch entstand ein Interesse der Medien ihren Rezipienten Informationen zum Problem zu geben. Andererseits bildete den Kern des Jahr-2000-Problems „nur“ ein technisches Faktum, das die Schreibung des Datums im Rahmen der Programmierung von Automaten betraf, weshalb eigentlich ein weniger breites Interesse der Medien zu erwarten gewesen wäre. Im Zusammenhang mit dem Jahr-2000-Problem müssen also 58

59

60

61

Vgl. die Sendung: Der große Showdown oder: Alles bleibt, wie es ist...y2k und die Jahreswende. Manuskript: Udo Rudnitzki-Primbsch, in der WDR-Reihe „Verschiebt das Jahr 2000!“ im Hörfunkprogramm „Leonardo“ des WDR Radio 5 vom 7. Dezember 1999, Sendezeit 16.05 17.00 Uhr. Vgl. die folgende Auswahl von Sendungen in nach Datum absteigender Sortierung: 14. Oktober 1999 (19.30 – 20.00 Uhr), WDR 2 Langer Donnerstag: Verschiebt das Jahr 2000! Fragen und Antworten zum millennium bug. Folge 16: Wer zu spät kommt, den bestraft das Leben! Rufen y2k-Reparaturarbeiten Datengangster auf den Plan? / 3. August 1999 (16.05 – 17.00 Uhr), Leonardo, Radio 5: ‚Bitte am Silvestertag nicht krank werden!’ – Der Jahr-2000-Computer-Fehler in Kliniken und Arztpraxen. / 25. Juni 1999 (14.30 – 15.00 Uhr), WDR 2 Quintessenz: Das Jahr-2000-Computer-Problem im Haushalt. / 27. April 1999 (16.05 – 17.00 Uhr), Leonardo, Radio 5: ‚Runter kommen sie immer...’ – Mit dem Urlaubsflieger ins Jahr 2000. / 23. März 1999 (16.05 – 17.00 Uhr), Leonardo, Radio 5: Gut versichert ins Jahr 2000? Wie sich die Assekuranz auf den Jahreswechsel vorbereitet / 22. Februar 1999 (16.05 – 17.00 Uhr), Leonardo, Radio 5: Nicht nur der 1. Januar 2000.. Sensible Daten vor dem Jahrtausendwechsel. / 28. Januar 1999 (16.05 – 17.00 Uhr), Leonardo, Radio 5: ‚Wir haben alles im Griff’ – Deutschland und das Jahr-2000-Problem / 18. Januar 1999 (20.05 – 21.00 Uhr), WDR 3: Die Killerchips – Das Jahr 2000 und der elektronische Nervenzusammenbruch. / 22. Dezember 1998 (16.05 – 17.00 Uhr), Leonardo, Radio 5: Der Wettlauf mit der Zeit: Das Jahr-2000-Computer-Problem als Sicherheitsrisiko. / 26. November 1998 (16.05 – 17.00 Uhr), Leonardo, Radio 5: Ein globaler Showdown? Konsequenzen der Jahr-2000Umstellung für die Dritte Welt. / 16. Oktober 1998 (16.05 – 17.00 Uhr), Leonardo, Radio 5: Der denkbar schlechteste Zeitpunkt... Mit dem Euro ins Jahr 2000. / 20. August 1998 (16.05 – 17.00 Uhr), Leonardo, Radio 5: Verschiebt das Jahr 2000! Der Jahrtausendwechsel, die Computer und die Folgen. Vgl. das Hörspiel „Bugs Jitterclub“. Szenarien der Zukunft. WDR 1999, Regie: Erich Hübner, Buch: Heinz Dravenau und Hartmut Przybylski unter Mitarbeit von Udo Rudnitzki-Primbsch und Ulrich Timmermann. (Dravenau: Bugs Jitterclub, 1999.) Vgl. unter vielen anderen die Sendung zum Jahr-2000-Problem im Hörfunk-Programm HR 1 des Hessischen Rundfunks vom 28.02.1999 um 11:06 Uhr.

55

Kommunizierende Automaten zusätzliche Beweggründe eine Rolle gespielt haben, die zu dieser Publizität führten. In der Jahr-2000-Krise offenbarte sich für die Medien ein neues Phänomen, das durch den in allen Bereichen des öffentlichen Lebens anzutreffenden Einsatz von Automaten bzw. Computern in Verwaltung und Wirtschaft entstanden war62, und „politisch-ökonomische Folgen“ (WDR) einschloss. Durch den Einsatz von Technik und das damit verbundene Automatenhandeln wurden existentielle Bedrohungen für jeden einzelnen Bürger eines Landes zum Zeitpunkt der Jahrtausendwende sichtbar.63 Die Auswirkungen dieses technischen Fehlers wurden vereinzelt auch als „Fluch“ bezeichnet.64 Ein genuin technisches Problem verlor dadurch den Charakter eines Spezialistenproblems. Die Jahr-2000-Problematik wurde zu einem Thema von Allgemeininteresse. Aus Sicht der Bundesministerien für Wirtschaft und des Inneren schien ein allgemeines Interesse der Bürger der Bundesrepublik Deutschland an dieser Problematik nicht mehr auszureichen. Die beiden Ministerien wollten die Leser verpflichten, sich mit dem Thema auseinanderzusetzen. Sie nutzten daher im Untertitel ihrer Schrift das verpflichtende Verb „müssen“: „Was Sie über das Jahr-2000-Problem wissen müssen [Hervorhebung P. F.].“65 Der historische Zusammenhang der Nutzung einer Medientechnik und der sozioökonomischen sowie politischen Bedingungen wird hier offenbar. Die Politik, die gesellschaftlichen Institutionen, die Unternehmen mussten reagieren, weil der Mediengebrauch selbst zur Schaffung von Bedingungen geführt hatte. Die Information über diese neuen Bedingungen und jene Handlun-

62 63

64

65

Vgl. beispielsweise die Ausführungen in EU-Kommission: Jahr-2000Problem, 1999 BMI und BMWI: Sind Sie fit, 1999 und IBM: Year, 2000. Vgl. a) den Aufmacher auf der Titelseite der Computer Bild „Das Jahr2000-Problem.Was wirklich passieren kann.“ in Heft 10 vom 10. Mai 1999. b) Die Serie in der Frankfurter Allgemeinen Zeitung: „Das verflixte Jahr 2000“. Hieraus beispielsweise den Beitrag von Elke Bohl: „Vor dem Jahrtausendwechsel muss der Vorstand auf der Hut sein. Wer den ‚Millenium Bug’ nicht ernst nimmt, setzt sich Forderungen des eigenen Unternehmens aus.“ vom 23. August 1999. c) Den Beitrag von Hardy Prothmann „Endzeit-Probleme. Schon mal darüber nachgedacht, ob Sie selbst vom Jahr-2000-Problem betroffen sind? Nein? Dann wird es Zeit.“ in der Zeitschrift MediumMagazin in Heft 11 des Jahres 1999, S. 72 f. Vgl. beispielsweise den Beitrag von Wiglaf Droste zum MilleniumProblem „Auf der Flucht vor dem Fluch“ in der Zeitschrift „online today“, Nr. 12, 1999. Vgl. den Titel der Schrift: Sind Sie fit fürs nächste Jahrtausend. Was Sie über das Jahr-2000-Problem wissen müssen. Siehe: BMI und BMWI: Sind Sie fit, 1999.

56

Abriss des Jahr-2000-Problems gen, die von Maschinen aufgrund von Interpretationen von Befehlen ausgeführt werden konnten, zwang Ministerien wie Bürger zur Beschäftigung mit dem neuen Kommunikationsgebrauch. Nicht das Medium selbst schafft die neuen gesellschaftlichen Implikationen, sondern der Einsatz des Mediums führt zu einer neuen Situation. Die Folgen des Einsatzes der neuen technischen Medien, der Automaten, waren für den Fall eines auftretenden Fehlers nicht klar abzusehen. Auch dies machte einen Teil des publizistischen Interesses aus. „Was das J2K-Problem so einmalig macht, ist, daß es weltweit auftritt und daß man die Konsequenzen letztlich nicht vorhersagen kann.“66 Überraschenderweise ist bei der Annäherung an das Ereignis Jahrtausendwechsel aus informationstechnischer Sicht interessant, dass die Problematik zunächst nicht wahrgenommen und trotz früher Veröffentlichung nicht beachtet wurde. Hohmann führt zur Rezeptionsgeschichte des Jahr-2000-Problems aus: „In den USA erschien die erste Buchveröffentlichung 1984, und 1992 veröffentlichte die Institution of Electrical Engineers (IEE) ihre Millenium-Strategy; beide Veröffentlichungen hatten nicht die nötige Breitenwirkung.“67 Die Nichtbeachtung des Jahr-2000-Problems „änderte sich schlagartig mit einem Aufsatz von de Jaeger, in dessen Folge eine Flut von Büchern, Zeitschriften-Aufsätzen und InternetNachrichten erschien.“68 In einer Fußnote merkt Hohmann zu dem Aufsatz von de Jaeger in der amerikanischen Ausgabe der Zeitschrift Computer World vom 6.9.1993 an: „Er verglich die Situation mit den Sekunden-Bruchteilen vor einem Verkehrsunfall, wenn der Fahrer die Situation erkennt, aber nicht mehr rechtzeitig reagieren kann.“69 Die breite Öffentlichkeit, zu der hier auch die IT-Auftraggeber und IT-Anwender zu zählen sind, 66 67

68 69

EU-Kommission: EU-Infrastrukturen und das Jahr-2000-Problem, 1999. S. 5. Hohmann, Harald: Haftung der Softwarehersteller für das "Jahr-2000Problem". In: Neue Juristische Wochenschrift, 52. Jahrgang, Heft 8, S. 520 – 526. (Hohmann: Haftung, 1999.) S. 522. Hohmann bezieht sich bei seiner nicht näher nachgewiesenen Nennung vermutlich a) auf das Buch von Murray, Jerome T. und Marilyn J. Murray: Computer in Crisis. How to Avoid the Coming Worldwide Computer Systems Collapse. New York, 1984 und b) auf Institution of Electrical Engineers (IEEE): Guidance Y2K. 1992. Das Buch von Jerome und Marylin Murray wurde 1996 erneut veröffentlicht unter dem Titel: The Year 2000 Computing Crisis. A Millenium Date Conversion Plan. Hohmann: Haftung, 1999. S. 522. Ebd. Vgl. de Jaeger, Peter: DOOMSDAY 2000. In: ComputerWorld, Jahrgang 27, Heft 36 vom 06.09.1993. S. 105 – 109.

57

Kommunizierende Automaten

erkennen die ernsthafte Gefahr, die sich mit einer Verschriftung von Handlungsanweisungen für Automaten einstellte, erst in einem vergleichsweise kurzen Zeitraum vor dem möglichen Eintreten einer Gefahr. Warum waren Gefährdungen der ohne Zweifel für jede moderne Gesellschaft zentralen und lebenswichtigen Bereiche, die durch die Übertragung von Aufgaben, Entscheidungen und Handlungen an Automaten entstehen können, nicht dauerhafter Teil der Risikobetrachtungen? Was trübte zumindest in den Jahren 1984 bis Mitte 1993 die Aufmerksamkeit der Unternehmen, der öffentlichen Verwaltungen, der Unternehmensberatungen, der Versicherungen? Auch nach den Veröffentlichungen in Publikumszeitschriften und Medien wie Fernsehen und Radio wurde das Problem nicht in allen Unternehmen wahrgenommen. Einer Untersuchung des Jahres 1997 zufolge waren bis zu diesem Zeitpunkt viele Unternehmen nicht gewillt, sich der Angelegenheit überhaupt anzunehmen: „Aufgrund einer jüngst publizierten Befragung des EDV-Dienstleisters EDS unter europäischen Führungskräften hat sich bestätigt, daß die meisten größeren Unternehmen ihre Systeme noch nicht angepaßt haben und mehr als 1/3 der Unternehmensorgane sich der Risiken bis zum Jahre 1997 noch nicht einmal bewußt war.“70 Drei Gründe können für zögerliche Haltung gegenüber den notwendigen Korrekturen des Programmcodes in vielen Automaten zur Lösung des Jahr-2000-Problems ausschlaggebend sein. Zum Ersten war die Codierung von Aufgaben, die die Automaten zu erledigen haben, nicht Gegenstand der Fachabteilungen in Unternehmen und Verwaltungen. Das dirty old secret der Programmierer konnte geheim bleiben, weil der Quellcode den Auftraggebern in der allergrößten Mehrzahl der Fälle unbekannt geblieben war. Erst die Darstellung der möglichen Auswirkungen eines maschinellen Fehlverhaltens weckte das Bewußtsein für den Codierungs-Fehler in den Fachabteilungen. Die Korrekturaufgabe wurde jedoch oft als internes Problem der IT-Abteilungen gesehen. Zum Zweiten bestand in den 1990er Jahren eine deutlich unterschiedliche Nutzung von Automatensystemen in Großunter70

Wollner, Karola und Dr. Carsten Oermann: Das „Jahr-2000-Problem“ als Haftungsrisiko von Management und Aufsichtsrat. In: Versicherungswirtschaft, Jahrgang 53, Heft 9. S. 611 (Wollner: Haftungsrisiko, 1998.) Wollner verweist in diesem Zusammenhang auch auf einen Artikel der Financial Times vom 8. 1. 1997: Year 2000: A $ 600 Bio. Headache. „Bio“ bedeutet hier: Billions, dies entspricht nach deutscher Zählung dem Begriff Milliarden.

58

Abriss des Jahr-2000-Problems nehmen und mittelständischen Firmen. Die Großunternehmen, die wie zum Beispiel Mercedes-Benz mehr als 80.000 Individualprogramme71, geschrieben in der Programmiersprache COBOL72, einsetzten, waren sich des Problems bewusst. Mittelständische Unternehmen setzten damals weniger programmgesteuerte Automaten ein und in vielen kleineren Betrieben waren die kommunikativen Verbindungen der Automaten weniger ausgeprägt. Daher, so ist zu vermuten, nahmen die Betriebsleitungen an, das Problem beträfe sie nicht. Zum Dritten war die Abhängigkeit der modernen Gesellschaften vom Gelingen der Automatenhandlungen vielen nicht bewusst und es bedurfte der Veröffentlichungen zum Beispiel der EU und bundesdeutscher Ministerien, um hier Aufmerksamkeit zu schaffen und für Aufklärung zu sorgen. Diese Haltung der Unternehmen wurde daher nicht von ungefähr besonders in der Versicherungswirtschaft und im Rechtswesen diskutiert. Versucht wurde, die möglicherweise bevorstehenden rechtlichen Auseinandersetzungen sowie die ggf. drohenden ökonomischen Belastungen und Risiken und damit das gesamte Ausmaß der Gefährdungen im Vorfeld des Jahrtausendwechsels einzuschätzen.73

Ökonomische Aspekte Tatsächlich mussten die Unternehmen umfangreiche personelle, organisatorische und finanzielle Ressourcen bereitstellen, um Lösungen für das Jahr-2000-Problem umsetzen zu können. Beispiele der geschätzten finanziellen Dimension benannte die Neue Züricher Zeitung im Jahr 1998: „600 Mio $ (Citicorp), 300 Mio £ (British Telecom), 380 Mio $ (BankAmerica) oder 275 Mio (Swiss Bank). Diese Beträge wollen die genannten Firmen für die Lösung der Computerprobleme ausgeben, die sich wegen des

71 72

73

Dischler: Fleißarbeit, 1998. S. 95. Die Abkürzung Cobol steht für Common Business-Oriented Language. Cobol wurde Ende der 1950er Jahre entwickelt und ist damit eine der ersten Programmiersprachen, die im Bereich der Wirtschaft eingesetzt wird. Auch im Jahr 2006 sind in Cobol geschriebene Programme im betrieblichen Einsatz noch weit verbreitet. Vgl. Bartsch: Software, 1998 der explizit im Titel auf die „Haftung und den Versicherungsschutz“ vor dem Hintergrund möglicher Folgen des Jahr-2000-Problems hinweist. Vgl. u.a. auch Schnabel: Jahr 2000, 1998.

59

Kommunizierende Automaten Datumswechsels von 1999 auf 2000 stellen.“74 Das Finanzunternehmen J. P. Morgan umriss 1996 das geschätzte Gesamtvolumen: „a $200 billion market could spring up seemingly overnight“.75 „Der M[organ] S[tanley]-Studie zufolge dürfte die Computer-Umstellung die Konzerne, die den S&P-500-Index ausmachen, zusammen 33 bis 35 Milliarden Dollar kosten.“76 Nach einer vorsichtigen Schätzung von Morgan und Stanley kostete die Lösung des Jahr-2000-Problems „die amerikanische Wirtschaft insgesamt“ „bis 89 Milliarden Dollar“.77 Andere Wirtschaftsinstitute gingen von geschätzten Gesamtkosten allein in den USA von ca. 270 Milliarden Dollar aus.78 J. P. Morgan betonte daher auch mehr als drei Jahre vor dem wahrscheinlichen Eintritt der Computerprobleme: „We emphasize that the problem is real, huge, and did not, in fact, develop overnight.“79 Der Frankfurter Rechtsanwalt Harald Hohmann gab 1999 in einem Aufsatz für die Neue Juristische Wochenschrift „einen Überblick über die Schadensszenarien des Jahr-2000-Problems“ und führte zum Umfang des zu leistenden Korrekturaufwandes aus: „Das ‚Jahr-2000-Problem’ ist inzwischen zur Hauptbeschäftigung der Informationstechnologie (IT)-Abteilungen von Firmen auf der ganzen Welt geworden.“80 Der Deutsche Industrie- und Handelstag (DIHT) empfahl in seinem „Wegweiser zum Jahr-2000Problem“ den Unternehmern, sie mögen „sich so schnell wie möglich mit der Umstellung Ihrer DV-Anlagen auf das Jahr 2000“ beschäftigen.81 Diesen Rat erteilte der DIHT, weil „alle betroffen sind, kleinere Einzelhändler ebenso wie Industriekonzerne“82. Er 74 75

76

77 78

79 80 81 82

Neue Zürcher Zeitung vom 02.05.1998: Gefährlicher Jahrtausend-Bazillus. Rabin, William D.: The Year 2000 Problem. Ready or Not, Here It Comes. In: Equity Research herausgegeben von J. P. Morgan Seurities Inc. New York, 22. Juli 1996. (Rabin: Year 2000, 1996) S. 7 Vgl. FAZ (bf): Amerikas Konzerne haben „Jahr-2000-Problem“ im Griff. Studie von Morgan Stanley. Computer-Umstellung kommt voran. Kosten geringer als erwartet. In: Frankfurter Allgemeine Zeitung vom 25.09.1999. (FAZ (bf): Amerikas, 1999). Ebd. Vgl. ebd. Ein Vergleich zu der Höhe der Kosten: In der Bundesrepublik Deutschland lag einem Bericht des Finanzministeriums zufolge die Höhe der Gesamtausgaben des Bundeshaushalts im Jahr 1999 bei ca. 483 Milliarden DM, das entspricht 246 Milliarden Euro. 1999 waren dies umgerechnet ca. 246 Mrd. US Dollar. Die geschätzte Höhe der Kosten der Umstellung der IT-Systeme auf Jahr-2000-Fähigkeit entsprach in den USA dem Gesamthaushalt der Bundesrepublik Deutschland des Jahres 1999. Ebd. Hohmann: Haftung, 1999. S. 520. DIHT: Jahr-2000-Problem, 1998. S. 9. Ebd. S. 10.

60

Abriss des Jahr-2000-Problems drängte darauf, das „Jahr-2000-Problem zur Chefsache“ zu machen, „denn es geht um das Überleben Ihres gesamten Unternehmens.“83 Das drastische Bild einer ökonomischen Überlebensfrage wurde nicht nur vom DIHT benutzt, sondern fand sich auch im Titel zahlreicher Veröffentlichungen84. Auch Verantwortliche im Bereich der Wirtschaft, wie der damalige Präsident der New York Federal Reserve Bank F. Cairncross, gingen davon aus, „daß das Problem möglicherweise ein ‚Überlebensproblem für Firmen oder Märkte’ darstellt.“85 Das Bild einer existenziellen Notlage, die durch das Scheitern der Handlungen hervorgerufen werden konnte, die auf Automaten übertragen worden waren, wurde in diesen Äußerungen überaus deutlich. Hohmann stellte mögliche Schadensfälle dar: „Denkbare Schadensszenarien mit Erreichen des Jahres 2000 sind: unrichtiges Erfassen von Kalenderdaten, Verfälschen korrekt erfaßter Kalenderdaten, Nicht-Erfassen und Nicht-Mahnen von Forderungen, unpünktliche Lieferungen (mit der Folge von Schadensersatzforderungen), unsachgemäße Materialbehandlung bzw. Ausschußproduktion oder Generieren falscher Daten, Systemabstürze, bis hin zu Gesundheitsgefahren.“86

Diese wenigen Worte veranschaulichen nicht nur die Gefahrenszenarien, sondern sind auch ein Indiz für die Vielfalt der Steuerungsaufgaben, die bereits am Ende des letzten Jahrhunderts auf Automaten übertragen worden waren. Die Produktion („unsachgemäße Materialbehandlung“) und die mit ihr verbundene Verwaltung („Erfassen von Kalenderdaten“, Erfassen und Mahnen von Forderungen) wurden in großem Umfang durch Automaten erledigt. Der DIHT stellte den Umfang dieser Aufgabenübertragung mit Blick auf das Jahr-2000-Problem in einen übergreifenden Zusammenhang: Habe „auch nur ein einziger wichtiger Lieferant nicht rechtzeitig die notwendigen Maßnahmen ergriffen, um sich auf die Datumsumstellung auf das Jahr 2000 einzurichten,“87 seien Geschäftspartner möglicherweise so davon betroffen, dass deren Produktion „zum Stillstand“88 kommen könne. 83 84

85

86 87 88

Ebd. S. 11. Vgl. zur Wortwahl „Überlebensproblem“ u.a. die oben in der Fußnote wiedergegebenen Literaturangaben zu Kunz, de Jaeger und Hyatt, die alle die Begriffe „survive“ oder „survival“ im Titel bzw. Untertitel führen. Hohmann: Haftung, 1999, S. 520; Hohmann zitiert aus dem Aufsatz von F. Cairncross in „The Economist“ vom 19.09.1998: „Survey The Millenium Bug“. Hohmann: Haftung, 1999, S. 520 DIHT: Jahr-2000-Problem, 1998. S. 9. Ebd.

61

Kommunizierende Automaten Ein reales Problem von Industrie und Dienstleistung führt Willfried Schnabel, 1998 Direktor der Kölnischen Rückversicherungs-Gesellschaft AG und verantwortlich für das Sach- und Transport-Geschäft, aus: „Durch das Jahr-2000-Problem wird es sehr wahrscheinlich zu Betriebsstörungen und Betriebsunterbrechungen sowie zu Verlusten von Daten und Informationen bei den versicherten Unternehmen kommen. Es ist ohne Zweifel, daß die Versicherungsindustrie auch im Sachversicherungsbereich einem unbekannten Schaden(-kumul)-potential gegenübersteht.“89

Betriebsunterbrechungen, Verfälschungen korrekt erfasster Daten, Verlust von Daten und Informationen, die zu einem nicht vorab zu beziffernden Schaden in den Unternehmen und öffentlichen Verwaltungen führen konnten, traten als Gefahren im Rahmen des Jahr-2000-Problems auf. Ein wirkungsvoller Schutz gegen diese Gefahren war aufgrund der maschinell geleisteten Interpretationsarbeit nicht durch Sicherung der Daten in Form von Kopien auf Magnetband möglich, denn ein erneutes Bearbeiten der Daten mit dem ungeänderten Programmcode hätte zu demselben (falschen) Ergebnis geführt. Um diesen Gefahren begegnen zu können, musste der an die Maschinen übertragene Text, der die Entscheidungs- und Verarbeitungsfunktionen in den Programmen steuerte, geändert werden, das heißt, für die Unternehmen entstanden Personal- und Sachkosten. Der Aufwand allein hierfür wurde von Analysten „mit bis zu zweieinhalb Mark pro Zeile“ veranschlagt.90 Für die Großunternehmen bedeutete dies einen Aufwand in Millionenhöhe: „Die Gartner Group ging 1995 von rund zwölf Millionen Lines of Code pro Unternehmen aus. Andere bezifferten den manuellen Umstellungsaufwand pro Programm auf drei bis fünf Manntage.“91 Ein Arbeitsumfang, der enorme technische und personelle Kapazitäten sowie finanzielle Mittel band. „Auf der Basis eines von der Gartner Group statistisch ermittelten Preises von rund 2,40 Mark pro Line of Code wurden den einzelnen Bereichen folgende strategische Kosten pro Programmzeile zugerechnet: externe Honorare 0,80 Mark, DVAufwand 1,20 Mark, Fachbereich 0,20 Mark, Hard- und Software 0,20 Mark.“92 Hohmann erläuterte in einem an ein juristisches Fachpublikum adressierten Aufsatz den Umfang und die Bedeutung, die der IT-Einsatz mittlerweile gewonnen hatte: „Vor allem die Wirt89 90 91 92

Schnabel: Jahr-2000, 1998. S. 1200. Computerwoche: Testphase, 1999. S. 20. Ebd. Holtgrewe: Vorarbeit, 1997. S. 16.

62

Abriss des Jahr-2000-Problems schaftsbereiche Strom, Wasser, Kommunikation, Transport und Finanzen hängen besonders intensiv von IT ab“.93 Dass die möglichen Auswirkungen einer Störung oder Unterbrechung der informationstechnologischen Unterstützung in diesen Bereichen auch die Regierungen und Verwaltungen beschäftigt haben, erklärt sich aus deren Selbstverständnis. Die Versorgung mit Strom und Wasser, der Transport von Waren, die Kommunikation und die Sicherheit der Staatsfinanzen sowie die Stabilität der konvertiblen Währungen zählten zu den Kernaufgaben der öffentlichen Einrichtungen. Eine Gefährdung der Versorgung in diesen Bereichen berührte die öffentliche Ordnung massiv und war somit ein hochpolitischer Prozess. Im Verlauf des „Berichts der Kommission an den Rat, das Europäische Parlament, den Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen“94 wurden wichtige Teilaspekte des gesellschaftlichen Lebens, so genannte EU-Infrastrukturen, im Einzelnen in Bezug auf ihre Jahr-2000-Fähigkeit dargestellt. Wie oben bereits von Hohmann mit Blick auf Wirtschaftsbereiche formuliert worden war, sah auch die EU-Kommission unter anderem die folgenden EU-Infrastrukturen als möglicherweise gefährdet an95: • •



• •

• 93 94 95

Energie Elektrizität, Erdgas, Erdöl Nukleare Sicherheit Internationale Aktivitäten im Bereich der nuklearen Sicherheit Nukleare Sicherheit in der EU, in den mittel- und osteuropäischen Ländern (MOEL) und den Neuen Unabhängigen Staaten (NUS) Verkehr Luftfahrt, Internationale Aktivitäten in der Zivilluftfahrt, Seeverkehr, Schienenverkehr, Straßenverkehr Telekommunikation Finanzen Offenlegung von Informationen über die Jahr-2000-Bereitschaft Das Europäische System der Zentralbanken (ESZB) und die Europäische Zentralbank (EZB) Zahlungssysteme, Liquidität für Privatpersonen und Großhandel sowie die zugehörigen Infrastrukturen EU-Banken und Kreditpolitik, Börsen in der EU, das Versicherungsgewerbe in der EU Die volkswirtschaftlichen Auswirkungen des Jahres 2000 Die Versorgung mit Lebensmitteln, insbesondere Wasser Hohmann: Haftung, 1999. S. 520. EU-Kommission: EU-Infrastrukturen und das Jahr-2000-Problem, 1999 Vgl. zur folgenden Aufzählung: EU-Kommission: EU-Infrastrukturen und das Jahr-2000-Problem, 1999. S. 4 ff.

63

Kommunizierende Automaten Laut Angaben der EU-Kommission war die obige Aufzählung der betroffenen Bereiche nicht vollständig, wie auch der „Bericht nur einen recht oberflächlichen Eindruck vom Stand der Vorbereitungen in diesen Sektoren vermitteln“ kann.96 Die EU-Kommission hatte sich vor allem auf den öffentlichen Bereich bezogen und „in diesem Zusammenhang auf die EU-weite Zusammenarbeit zwischen den staatlichen Stellen und Einrichtungen der Wirtschaft, die mit dem J2K-Problem befaßt sind“, hingewiesen.97 Von der Europäischen Kommission wurde der Zustand des nationalen und internationalen Problems am Ende des Jahres 1999 nicht nur sorgenvoll gesehen, sondern auch voll Vertrauen in die Wirksamkeit der unternommenen Gegenmaßnahmen. „Dieses Vertrauen gründet sich darauf, dass im Laufe des Jahres 1999 Privatwirtschaft und öffentlicher Sektor in bislang beispielloser Weise gemeinsam an der Lösung des Problems gearbeitet haben.“98 Die Ergebnisse der experimenten Epistemologie hatten eine Zusammenarbeit ohne historische Beispiele notwendig gemacht, um deren möglicherweise katastrophalen Folgen zu begrenzen. Die Korrektur typographischer Schriften war zu einer politischen und gesellschaftlichen Aufgabe geworden.

Rechtliche Aspekte Das Problemfeld Recht und Informatik wurde im Umfeld des Jahr-2000-Problems ebenfalls diskutiert.99 Auch aktuell werden auf internationalen Kongressen rechtliche Fragestellungen über die Erstellung, den Vertrieb und den Einsatz von Automatenprogrammen diskutiert.100 Die rechtlichen Konsequenzen, die sich mit dem Automatenhandeln und vor allem dessen möglichem Versagen angesichts des Jahr-2000-Problems hätten einstellen können, waren in den Jahren vor der Jahrtausendwende ungeklärt. Karola Wollner und Carsten Oermann gehen 1998 in ihrem Aufsatz „Das ‚Jahr-2000-Problem’ als Haftungsrisiko von Management und Aufsichtsrat“ auf die neue Situation ein: 96 97 98 99 100

Ebd. S. 6. Ebd. Ebd. S. 4. Vgl. Bartsch: Software, 1998. Vgl. weiterführend zu diesem Thema auch die Veröffentlichungen der „Deutschen Gesellschaft für Recht und Informatik“ (DGRI), Erster Vorsitzender der Gesellschaft im Jahr 2006: RA Prof. Wolfgang Büchner, Geschäftsführer Prof. Dr. Thomas Dreier, Institut für Informationsrecht, Universität Karlsruhe. Vgl. bspw. die Veranstaltungen der DGRI und deren Informationen in den Mitgliederrundbriefen.

64

Abriss des Jahr-2000-Problems „Sollten die Negativinformationen stimmen und Unternehmen Schäden erleiden, z. B. dadurch, daß Produktionsstillstand (auch durch integrierte Zulieferer) erfolgt und daß Leistungen falsch erbracht werden (Überweisungen, Zinsberechnungen, Versicherungsauszahlungen etc.) haften Unternehmensorgane, wenn sie nicht angemessen Vorsorge getroffen haben, da das Jahr2000-Problem vorhersehbar war.“101

Die Verantwortung, die Haftung, war klar geregelt. „Die Haftung der Unternehmensorgane besteht sowohl gegenüber der eigenen Gesellschaft im Innenverhältnis als auch gegenüber Dritten im Außenverhältnis.“102 Es war jedoch nicht geregelt, wofür im maschinellen Handeln im Einzelnen Verantwortung zu übernehmen ist. Die Verantwortlichen in den Unternehmen waren über die Handlungsoptionen, die die Automaten wegen ihres „weiten Einsatzgeflechts“ ausüben konnten, und damit über die Schäden, die sie verursachen konnten, nicht ausreichend informiert. „Aufgrund des weiten Einsatzgeflechtes von Software/EDV können alle Unternehmen in unterschiedlichster Weise durch fehlerhafte Software betroffen sein.“103 Den Unternehmen fehlte es an Kenntnis darüber, was tatsächlich passieren konnte, wenn die Automaten anders als intendiert reagierten würden. Daher versuchten sie sich der Verantwortung für das Automatenhandeln dadurch zu entledigen, dass sie keine Angaben über den Stand der Jahr-2000-Fähigkeiten der IT-Systeme in ihren Unternehmen machten. Einen Fragebogen, den das Versicherungsunternehmen Allianz an versicherte Unternehmen gesandt hatte, hatten weniger als 10 Prozent der Unternehmen beantwortet.104 Die eigene rechtliche Position sollte möglicherweise dadurch gestärkt werden, dass eventuelle Mängel nicht vom Unternehmen offenbart wurden, sondern vom eventuell Geschädigten nachgewiesen werden mussten. Deutlich wird aus der fehlenden Bereitschaft zur Offenbarung des Jahr-2000-Projektstandes, dass die bestehenden rechtlichen Regelungen zur Übernahme von Verantwortung und die tatsächliche Übernahme der Verantwortung vor der Gesellschaft einander nicht (mehr) entsprechen. Um sich persönlich nicht in Gefahr zu bringen, machten die Unternehmen die Risiken, die der Einsatz von Automaten für andere mit sich bringen konnte, nicht öffent101 102 103 104

Wollner: Haftungsrisiko, 1998. S 610. Ebd. Ebd. Vgl. Herr, Joachim: Die Versicherer stoßen an die Grenzen der Versicherbarkeit. Ausschluss des Millenium-Risikos kommt nicht in Frage, auch spezielle Deckung nicht. In: Frankfurter Allgemeine Zeitung vom 6.9.1999. (Herr: Versicherer, 1999.) S. 27

65

Kommunizierende Automaten lich. Die Ergebnisse, die die maschinenausführbare Formalisierung von Wahrnehmungsvorgängen, von Entscheindungskriterien, von Handlungsanweisungen mit sich brachte, schienen den Unternehmensleitungen vor dem Hintergrund der Übernahme rechtlicher Verantwortung für dieses Tun nicht mehr berechenbar, nicht mehr definitiv vorhersehbar. Obwohl die Auswirkungen eines Versagens der Informationstechnologie über das jeweilige Unternehmen weit hinausgehen können (siehe die EU-Angaben zur Nahrungsmittelproduktion und Chemischen Industrie), wird, folgt man den Angaben des Unternehmens Allianz, von den Unternehmen auf Kommunikation mit dem eigenen Versicherer und erst recht mit der Öffentlichkeit verzichtet. Wollner führt zum Haftungsrisiko des Geschäftsführers, seinem Recht Aufgaben zu delegieren und zu den unternehmenseigenen Abwehrmaßnahmen aus: „Unklar ist, ob wegen der Bedeutung des Jahr-2000-Problems, das hohe Haftungsrisiken für das Unternehmen beinhaltet, den Geschäftsführer die persönlich wahrzunehmende Pflicht trifft, die Aufstellung eines Projekts zu organisieren. Unter dieser Voraussetzung würde er bei Delegation für die Folgen bei einem Verschulden des Mitarbeiters haften.“105

Der Geschäftsführer eines Unternehmens musste rasch und richtig auf einem Gebiet handeln, für das bislang keine praktischen Erfahrungen vorlagen. Die Formalisierung von Handlungsanweisungen für kybernetische Maschinen, die McCulloch experimentelle Epistemologie genannt hatte, hatte den Menschen tatsächlich Folgen beschert, die sie zum Experementieren zwangen: Wie sollten neue Handlungsmuster für Geschäftsführer und Mitarbeiter gestaltet werden? Wie konnte Verantwortung für das Automatenhandeln auch und gerade im Hinblick auf Fehler geregelt werden? Wer hatte die Verantwortung zu tragen? Dies war zum Beispiel vor dem Hintergrund der damals weit über 80.000 Cobol-Programme bei Daimler-Benz keine triviale Aufgabe. Zu neu waren die Erkenntnisse über die Gefahren, die sich mit der Nutzung der Automaten einstellen konnten. Von der Rechtsseite her versuchte man die Verantwortung durch den Grad der Kenntnis über die Automatenfunktionen zu differenzieren. Je mehr ein Geschäftsführer als Fachmann eingestuft werden konnte, desto größer wurde die von ihm zu tragende Verantwortung veranschlagt:

105

Ebd.

66

Abriss des Jahr-2000-Problems „Der Geschäftsführer hat das Risikopotential für sein Unternehmen abzuwägen. Je höher das Risiko für sein Unternehmen erscheint, desto weniger wird eine Delegationsmöglichkeit gegeben sein. Für einen SoftwarehausGeschäftsführer wird das Haftungsrisiko in der Regel höhere Bedeutung haben als für den eines Softwareanwenders.“ 106

Die rechtlichen Regelungen verlangten von dem Geschäftsführer nicht, die technischen Details der Automatensteuerung und Automatenkommunikation zu beherrschen, oder zu wissen, wie die Korrekturaufgaben durchzuführen waren. „Im Gegensatz zur Aufstellung eines Projekts wird die organisatorische Durchführung selbst vom Geschäftsführer nicht persönlich wahrgenommen werden müssen.“107 Jedoch sollte er die Kontrolle über die durchgeführten Maßnahmen wahrnehmen. „Er haftet lediglich dann, wenn er seiner Kontrollpflicht, z. B. durch Abfordern detaillierter Statusberichte, hinsichtlich des durchzuführenden Projekts nicht nachkommt.“108 Für die Geschäftsführer stellte sich somit die gleiche Frage wie für die Versicherungen zur Erhöhung der Prämie und für die staatlichen Organe zur Formulierung von Sanktionen: Was sind die richtigen Maßnahmen, wie muss mit dieser neuen Situation umgegangen werden? Wollner betont durch ihre Ausführungen die hohe Bedeutung, die dem Jahr-2000-Problem auch aus rechtlicher Seite beigemessen wurde. Die Form, in welcher der Geschäftsführer sich des Problems anzunehmen hatte, war ihrer Auffassung nach nicht eindeutig festgelegt. Gewiss war jedoch, dass das Unternehmen, gleichgültig ob der Geschäftsführer die Aufgaben delegiert hatte oder nicht, Lösungen herbeiführen musste. Der Weg zu dieser Lösung musste in jedem Unternehmen durch deren Leitung kontrolliert werden. Die rechtliche Absicherung konnte, wie oben ausgeführt, ein möglicher Grund für das Schweigen der Unternehmen auf die Befragung durch die Allianz sein. Ein anderer ergibt sich aus dem Umstand, dass die Unternehmen in großem Maße Beratungsleistungen eingekauft haben.109 Drückt sich hier eine Unsicherheit 106 107 108 109

Ebd. Ebd. Ebd. Vgl. Kölner Stadt-Anzeiger vom 31.12.1999, unter der Überschrift: „Millionen fahren Sonderschichten. Jahr-2000-Vorbereitung verschlang bisher einige Hundert Milliarden DM.“ druckt dieser eine Meldung der afp: „Überall auf der Welt haben Regierungen und Wirtschaft Initiativen gestartet, um Fehlerquellen aufzuspüren und diese vor dem Datumssprung auszuschalten. Die Aufgabe war immens. Banken, Versicherungen und Großunternehmen rekrutierten gleich ganze Hundertschaften

67

Kommunizierende Automaten gegenüber der eigenen Informationstechnologie aus? Hatte sich ein Mediengebrauch in den Unternehmen etabliert, für den die Unternehmensleitungen (noch) nicht die richtige Form der Steuerung gefunden hatten? Wurde Zurückhaltung bei den Aussagen über den Status der Jahr-2000-Fähigkeit geübt, weil den Unternehmensleitungen keine entsprechenden Kenntnisse vorlagen und sie im Hinblick auf IT-Aufgaben – und somit die Nutzung der neuen Medien – keine Erfahrungen besaßen? Gerade aus dem sprachlichen Charakter der Automatenprogramme wurde deutlich, dass die Produktion, der Test und der Einsatz der Programmtexte hochgradig komplex geworden waren und sich mit der erweiterten Kommunikation der Automaten untereinander immer komplexer gestaltet hatten. Es war seinerzeit und wird auch heute kaum mehr möglich sein, ein professionelles Programm einer mittleren Komplexitätsstufe durch nur einen Programmierer erstellen und durch einen einzigen Tester in allen seinen möglichen Funktionszuständen testen zu lassen.110 Eine systematische Abstimmung der Auftraggeber, der Entwickler und der Tester sowie der Anwender des Programms war bereits vor der Jahrhundertwende unabdingbar geworden.111 Die Wahrnehmung von Kontrollpflichten durch Unternehmensleitungen, wie oben in den Aussagen von Wollner dargelegt, war daher äußerst schwierig und ohne die relevanten technischen Informationen zum Programmtext und seiner Ausführung so gut wie unmöglich. Selbst wenn der Unternehmensleiter ein ausgebildeter Programmierer gewesen wäre, hätte er im Rahmen der Herstellung der Jahr-2000-Fähigkeit von Programmen den Test komplexer Automatensteuerungen in der Regel nicht neben seinem Hauptberuf erledigen können. Dafür waren die Anzahl der Programme und der Tests und die zugehörigen rechtlich belastbaren Dokumentationen der Testergebnisse zu aufwändig und zu langwierig.112 Geschäftsführer und Unternehmensleitungen – aber auch die Leiter der IT-Abteilungen – waren damit überfordert, die Verantwortung für das zu übernehmen, was in den Automaten

110

111 112

von Computer-Experten. Ein ganzer Industriezweig lebt gut von dem Jahr-2000-Problem, das damit wahrscheinlich zum größten weltumspannenden ‚Arbeitsbeschaffungsprogramm’ in Friedenszeiten wurde.“ Vgl. Balzert, Helmut: Lehrbuch der Software-Technik. Software-Management, Sofware-Qualitätssicherung, Unternehmensmodellierung. Lehrbücher für Informatik, Bd. 2. Heidelberg, Berlin 1998. (Balzert: Software-Management, 1998.) Vgl. Computerwoche: Testphase, 1999. S. 20 Vgl. oben die Ausführungen zur Anzahl der bei Unternehmen eingesetzten Programme (im Jahr 1998 waren es beispielsweise allein bei Mercedes-Benz ca. 81.000).

68

Abriss des Jahr-2000-Problems als mögliche Handlung verschriftet war, gerade vor dem Hintergrund der eigenständigen Automatenkommunikation und der damit verbundenen Initiierung weiterer Handlungen in entfernten Automaten Von daher ist nachzuvollziehen, dass sich die Unternehmen im Hinblick auf die Feststellung der Jahr-2000-Fähigkeit ihrer IT-Systeme zurückhielten.

69

Die Bedeutung von Sprache, Text und Programm Der Einsatz kybernetischer Maschinen gründet sich auf Programme, welche die Automaten und deren Interpretationsvorgänge von Daten steuern. Die ausführbaren Formalisierungen dieser Steuerungen werden ermöglicht durch den Einsatz und die Wirkung künstlicher bzw. formaler Sprachen1, die als „elektromagnetische Schrift“2, als „typographische“ bzw. „operative Schrift“3 oder „digitale Schrift“4 notiert werden. Die formalen Sprachen grenzen den Bereich der möglichen Schriftrealisierungen ein: „Formale Sprachen sind definiert als Mengen von Wörtern über einem endlichen Alphabet.“5 Sie sind „logische und informatische Sprachen“ die aus „atomaren Zeichen, z. B. Buchstaben, Ziffern, Junktoren und Quantoren, Operatoren, Klammern“ bestehen.6 In den formalen Sprachen werden die Regeln festgelegt, mit denen die Zeichen operativ verknüpft werden können. 1

2

3

4

5

6

Vgl. Hopcroft, John E., Rajeev Motwani und Jeffrey D. Ullman: Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. Originaltitel: Introducing to Automata Theory, Languages, and Computation. München 22002. (Hopcroft: Automatentheorie, 2002.) Vgl. die Titel der Schriften: Zimmer, Dieter E.: Die Elektrifizierung der Sprache. Über Sprechen, Schreiben, Computer, Gehirne und Geist. Zürich 1991. (Zimmer: Elektrifizierung, 1991); Burckhardt, Martin: Unter Strom. Der Autor und die elektromagnetische Schrift. (Burckhardt: Strom, 1998.) In: Krämer, Sybille (Hrsg.): Medien Computer Realität. Wirklichkeitsvorstellungen und Neue Medien. Frankfurt am Main 1998. (Krämer: Medien, 1998.) S. 27 – 54. Vgl. Ramming: Worten, 2006. S. 23. Vgl. Krämer, Sybille: Sprache und Schrift oder: Ist Schrift verschriftete Sprache? In: Zeitschrift für Sprachwissenschaft Heft 15, 1996. S. 92 - 112. Vgl. Gramelsberger, Gabriele: Semiotik und Simulation: Fortführung der Schrift ins Dynamische. Entwurf einer Symboltheorie der numerischen Simulation und ihrer Visualisierung. Institut für Philosophie, Freie Universität Berlin, 2002. (Gramelsberger: Semiotik.2002.) Fischer, Martin: Schrift als Notation. In: Koch, Peter, Krämer, Sybille: Schrift, Medien, Kognition. Über die Exteriorität des Geistes. Tübingen, 1997. S. 83 - 101. (Fischer: Schrift, 1997.) S. 93 Ebd.

71

Kommunizierende Automaten

Schrift als operative Schrift Gramelsberger erläutert in ihrer Dissertation „Semiotik und Simulation: Fortführung der Schrift ins Dynamische“ diese Funktion der Schrift am Beispiel der Computersimulation. Diese ist für Gramelsberger „nicht nur eine neue Methode in den Wissenschaften, sondern auch ein neues Symbolsystem, das auf einem neuen Typus von Schriftlichkeit basiert – der digitalen Schrift.“7 In den Automaten wirkt also ein neuer „Typus von Schrift“, „die eine der wesentlichen Innovationen neuzeitlicher Wissenschaften darstellt“.8 Die operative Schrift weist ein „syntaktisch disjunktes und differenziertes Symbolschema“9 auf und entspricht damit der Schrift-Definition von Nelson Goodman.10 Damit wird die digitale Schrift dadurch gekennzeichnet, dass ihre Zeichen „diskret“ und „digital differenziert“ sind. Gramelsberger sieht in dieser Verfasstheit der automatensteuernden Schrift eine „Auflösung der notationalen Ikonizität“. In der Folge dieser medientechnischen Entwickung hat sich „die Schrift von der Sprache emanzipiert“11 und zwar von der Rolle, die sie „als graphisches Darstellungsmittel von Sprache(n) charakterisiert“12. Diese Form von Schrift ist nach Krämer nicht länger „als „Transskribierung der Lautsprache‘, als ‚graphische Fixierung von gesprochener Sprache‘ definiert“.13 Coy führt hierzu aus, dass diese neuen Zeichen „einen rein ideographischen Charakter [besitzen], an dem keine Eierschalen einer phonemischen Geburt mehr kleben.“14 An den Zeichen selbst ist kein Bezug auf gesprochene Sprache, auf ein „phonographisches Schriftkonzept“15 mehr feststellbar. „Ziffern sind“ im Bereich der Textprogramme, die Automaten anweisen zu

7 8

9 10 11

12 13 14 15

Gramelsberger: Semiotik.2002. S. 7 Krämer, Sybille: ‚Schriftbildlichkeit‘ oder: Über eine (fast) vergessene Dimension der Schrift. In: Krämer, Sybille, Bredekamp, Horst: Bild, Schrift, Zahl. Reihe Kulturtechnik. München, 2003. S. 157 - 176 (Krämer: Schriftbildlichkeit, 2003.) S. 169 Gramelsberger: Semiotik.2002. S. 8 Ebd. S. 8 Vgl. Goodman, Nelson: Sprachen der Kunst. Entwurf einer Symboltheorie, Frankfurt, 1995. Gramelsberger, Gabriele: Im Zeichen der Wissenschaften. Simulation als semiotische Rekonstruktion wissenschaftlicher Objekte. In: Grube, Gernot, Kogge, Werner und Sybille Krämer (Hrsg.): Schrift. Kulturtechnik zwischen Auge, Hand und Maschine. München, 2005. S. 439 - 452. (Gramelsberger: Zeichen, 2005.) S. 443 Fischer: Schrift, 1997. S. 83 Krämer: Schriftbildlichkeit, 2003. S. 161 Coy: Analog, o. J. S. 3. Krämer: Schriftbildlichkeit, 2003. S. 161

72

Die Bedeutung von Sprache, Text und Programm handeln, Daten zu lesen und zu interpretieren, „universelle Zeichen“ geworden.16 In Ergänzung zu den Ausführungen Gramelsbergers ist anzumerken, dass der binäre Zeichenvorrat nicht zwingend die Basis eines Computeralphabets und ein Byte nicht in allen formalen Sprachen die „grundlegende Differenzierungseinheit“17 sind. Auch in der digitalen Schrift lassen sich andere Zeichenvorräte als das binäre „Ein“ und „Aus“ denken, ebenso wie andere Basismengen als acht Zeichen – zusammengefasst zu einem Byte – für die Worte in der digitalen Sprache möglich sind. Krämer setzt die Begriffe „formale Sprache“ und „operative Schrift“, „die wir gewöhnlich – und missverständlich – unter dem Namen ‚formale Sprache‘ kennen“18, deutlich voneinander ab. Die maschinell ausführbare Schrift zeigt nach Krämer „die ihr eigene Verbindung von Repräsentation und Operation“, das heißt von schriftlicher Fixierung eines Befehls und gleichzeitiger Steuerung der Ausführung. Ein „Kunstgriff der operativen Schrift“ sei es, gerade diese Verbindung auch wieder zu entkoppeln. Dieser Entkoppelungsvorgang der operativen Schrift besteht darin, dass „das „Rezeptewissen und das Begründungswissen“ sich trennen, dass „sich das Wissen, wie eine Aufgabe zu lösen ist, vom Wissen, warum diese Lösung ‚funktioniert‘“19 löst. Krämer vergleicht dies mit der Verschriftung mathematischer „Transformationsregeln“ in einer Form, die „allgemeingültig notiert“ wurde, und schlussfolgert: „Lange vor dem Computer als Universalmedium und programmierbarer Maschine, entwickelten wir den Computer ‚in uns‘, hier verstanden als das maschinenhafte, interpretationsentlastete Umgehen mit Zeichen auf Papier.“20

Die neuen medialen Möglichkeiten, die sich in Automaten und Computern darstellen, werden realisierbar, weil es schriftliche, maschinenverständliche Anweisungen bzw. Formalisierungen gibt, nicht weil es Elektrizität gibt. Die Bildlichkeit der Zeichen, ihr Bezug zur gesprochenen Sprache und ihre Funktion als Visualisierung letzterer gehen vollständig verloren oder treten doch weitgehend in den Hintergrund. „Der Computer bleibt […] eine ‚Schrift-Maschine‘. ‚Schrift‘ allerdings in eben jenem neuge-

16 17 18 19 20

Coy: Analog, o. J. S. 3. Gramelsberger: Semiotik.2002. S. 8 Krämer: Schriftbildlichkeit, 2003. S. 169 Ebd. S. 170 Ebd. S. 171

73

Kommunizierende Automaten wonnenen Sinne, der denkbar weit von der Verschriftlichung der Lautsprache entfernt ist.“21 Darüber hinaus sind die kybernetischen Skripte nicht „unabhängig von der jeweiligen Realisierungsform des ‚Sprachlichen’“22 zu sehen. Automaten benötigen zu ihrer Steuerung eine „dauerhafte Darstellung einer Mitteilung auf einem physikalischen Medium“, die nach Goos „schriftliche Darstellung oder Inschrift“23 heißt. „Das physikalische Medium heißt Schriftträger.“24 Auf diesem Schriftträger sind in codierter Form die Signale verschriftet, welche die Automaten verarbeiten bzw. die, wie Jörg Pflüger in seinem Aufsatz über den maschinellen Sprachbau ausführt, „von einer Maschine ‚interpretiert’ und ausgeführt werden können“25. Der programmgesteuerte Vorgang der Signalrezeption durch die Automaten kann demnach als Auslesen bzw. Interpretieren, Transformieren oder Übersetzen der auf einem Schriftträger befindlichen Informationen betrachtet werden.26 Die zu interpretierenden „Informationen“ werden in Form „von Signalen und Nachrichten“ dargestellt.27 „Eine hierfür geeignete Nachricht heißt eine Codierung der Information“, definiert Goos in seinen Vorlesungen über Informatik.28 Die zur Steuerung der Automaten genutzten Signale bzw. die Änderungen der „Werte der Signalparameter“29, die Codierungen der Information, können – theoretisch gesehen – kontinuierlich ausgelesen werden. Die Formalisierung der Aufgabe eines dauernden Messvorgangs „analoger Signale“ im Zuge „analoger Signalverarbeitung“30 hat sich jedoch im Rahmen der elektronischen Informationsverarbeitung, wie Helmut Hoelzer in seinem Aufsatz über Analog-Computer31 ausführt, nicht durchsetzen 21 22

23 24 25 26 27 28 29 30 31

Ebd. S. 172 Heinemann, Margot und Wolfgang Heinemann: Grundlagen der Textlinguistik. Interaktion – Text – Diskurs. Reihe: Reihe Germanistische Linguistik. Herausgegeben von Helmut Henne, Horst Sitta und Herbert Ernst Wiegang. Band: 230. Tübingen 2002. (Heinemann: Textlinguistik, 2002.) S. 97. Goos: Informatik, 2000. S. 1. Ebd. Pflüger: Sprachbau, 1999. S. 161. Vgl. auch oben die Ausführungen von Tanenbaum. Vgl. Goos: Informatik, 2000. S. 11 f.; Tanenbaum: Computerarchitektur, 2001. S. 21 f. Goos: Informatik, 2000. S. 7. Ebd. Ebd. S. 6. Ebd. Vgl. Hoelzer, Helmut: 50 Jahre Analogcomputer. (Hoelzer: Analogcomputer, 1999.) In: Bolz, Norbert, Friedrich Kittler und Georg-Christoph

74

Die Bedeutung von Sprache, Text und Programm können. „Die Informatik beschäftigt sich in der Hauptsache mit der Verarbeitung digitaler Daten und Informationen“, deren Werte nur „zu diskreten Zeitpunkten“, also nicht kontinuierlich bestimmt werden.32 Dies ist vor allem vor dem Hintergrund der Speicherung und eindeutigen Interpretation und Verarbeitung der Daten von Bedeutung, denn „je mehr Werte dabei unterschieden werden, um so weniger scharf ist die Trennung zwischen benachbarten Werten, und um so unzuverlässiger ist der Speicher.“33 Zur Speicherung von „diskreten oder digitalen Signalen, Daten und Informationen“34 werden aus diesem Grund im Rahmen der heutigen Technik lediglich die beiden Zustände Impuls und NichtImpuls genutzt. Die binären Zeichen, welche die gegenwärtigen digitalen Maschinen tatsächlich verarbeiten, sind damit als zwei Ladungszustände beschreibbar. Bei der Verwendung des zweistelligen Zeichenvorrats werden alle Ausdrücke in einem „Binärcode“35 geschrieben. Alles wird durch „die binäre Ziffer“, die „entweder eine 0 oder eine 1“36 sein kann, ausgedrückt. Dies hat technische Vorteile: „Beim binären Zahlensystem müssen sich nur zwei Werte voneinander unterscheiden lassen. Daher bietet es die zuverlässigste Methode für die Kodierung digitaler Daten.“37 Anstelle der beiden Ziffern können auch die Termini ‚low’ und ‚high’ bzw. ‚ein’ und ‚aus’ stehen.38 „Die Verarbeitung digitaler Daten abstrahiert zumeist von der physikalischen Repräsentation der Zeichen und verwendet die abstrakte zweiwertige Grundmenge B = {O, L} als Code.“39 Die Ströme der Daten sind als eine Folge von Nullen und Einsen definiert. Hinter der Auswahl des Binärsystems steht das unter anderem von Tanenbaum vorgebrachte Argument, dass es „die einfachste mögliche Einheit“ der Verschriftung darstellt.40 Diese „Grundeinheit des Speichers“41 kann immer exakt einem

32 33 34 35 36 37 38

39 40 41

Tholen (Hrsg.): Computer als Medium. München 21999. S. 69 – 90. (Bolz: Computer, 1999.) Goos: Informatik, 2000. S. 7. Tanenbaum: Computerarchitektur, 2001. S. 83. Goos: Informatik, 2000. S. 7. Die Adjektive diskret und digital sind in diesem Zusammenhang bedeutungsgleich. Goos: Informatik, 2000. S. 9. Ebd. Tanenbaum: Computerarchitektur, 2001. S. 83. Vgl. Shannon, Claude E: Ein – Aus. Ausgewählte Schriften zur Kommunikations- und Nachrichtentheorie. Hrsg. von Friedrich A. Kittler, Peter Berz, David Hauptmann und Axel Roch. Berlin 2000. (Shannon: Ein – Aus, 2000.) Goos: Informatik, 2000. S. 9. Tanenbaum: Computerarchitektur, 2001. S. 82. Ebd.

75

Kommunizierende Automaten Wert zugeordnet werden. Das Binärsystem besitzt in den zwei Ziffern den am weitesten reduzierten Zeichenvorrat, der für eine Verschriftung genutzt werden kann. „Ein Gerät, das nur zur Speicherung von Nullen fähig ist, könnte nicht die Grundlage eines Speichersystems bilden – es sind mindestens zwei Werte erforderlich.“42 Der Zeichenvorrat typographischer Skripte im digitalen System ist demnach nicht durch technische Rahmenbedingungen zwingend vorgegeben. Neben dem binären Codealphabet kann ein hiervon differenter Code definiert werden, der eine größere Anzahl von Zeichen beinhaltet. Es ist ein „elektronisches Gerät“ denkbar, „das die Zahlen von 0 bis 9 unmittelbar speichern kann, indem der Bereich von 0 bis 10 Volt in 10 Intervalle unterteilt wird“.43 Damit würde sich die digitale Schrift nicht mehr auf die Basis 2 stützen, sondern auf die Basis 10, das gebräuchliche „Zehnersystem“44. Auch diese „[d]igitale Schrift ist syntaktisch disjunkt – nämlich diskret – und syntaktisch differenziert – nämlich digital differenziert“45. Das Binäre, die duale Gegensetzlichkeit der Zeichen, wird somit zur Formung kybernetischer Konstrukte bewusst gewählt und kann theoretisch wie praktisch gegen andere Formen der Verschriftung ausgetauscht werden. Es sind „andere Beispiele für Zeichenvorräte“ 46 vorstellbar und praktisch nutzbar. Das betrifft, um gebräuchliche Zahlensysteme zu wählen, etwa die Zahl 6 oder die Zahl 24. Die Zahl 6, die wir üblicherweise zur Messung der Zeit verwenden, dieses „Sexagesimalsystem der Babylonier“, dient uns zur „Einteilung von Stunden in Minuten und Sekunden“.47 Die Basiszahl 24 einer digitalen Schrift würde der Anzahl der (willkürlich eingeteilten) Tagesstunden entsprechen. All diese möglichen Basiszahlen der typographischen Schrift „sind geordnet und heißen Alphabete“.48 Die Auswahl des binären Codes zur Steuerung der gegenwärtigen digitalen Automaten und zur Speicherung von Daten geschah aus technischem Kalkül und willkürlich, ebenso willkürlich wie die Setzung des Zeichenvorrats im Zusammenhang mit der schriftlichen Fixierung der natürlichen Sprache.49 Allerdings 42 43 44 45 46 47 48 49

Ebd. Tanenbaum: Computerarchitektur, 2001. S. 83; vgl. auch Goos: Informatik, 2000. S. 6 ff. Goos: Informatik, 2000, S. 9. Gramelsberger: Semiotik.2002. S. 8 Goos: Informatik, 2000, S. 9. Ebd. Ebd. Vgl. zur Geschichte der Schrift, die im Folgenden nicht weiter thematisiert wird: a) Földes-Papp, Karoly: Vom Felsbild zum Alphabet. Die Ge-

76

Die Bedeutung von Sprache, Text und Programm steht bereits bei der Entstehung der digitalen Schrift der Gedanke an ihre Operationalisierbarkeit Pate. Krämer ist auf die Entwicklung operativer Zeichen in der Vorgeschichte der Informatik eingegangen.50 Durch die typographische Schrift gelingt „programmierbaren Medien“ „die multimediale Integration“.51 In Informatik-Systemen können „digitalisierte Texte und Daten“ „Bild, Grafik, Ton und Film“ darstellen bzw. jeweils „ergänzen“.52 Wolfgang Coy beschreibt hier die Mächtigkeit der digitalen Verschriftung, welche die Tendenz aller Medien vorantreibt, mediale „Funktionen zu akkumulieren“53. Dazu ist die sprachgesteuerte Textbearbeitung mit den im kybernetischen System verbundenen informationstechnischen Bestandteilen unabdingbar notwendig. Die Ziffern, die Daten und Anweisungen repräsentieren, sind nur Symbole. Tatsächlich sind es elektrische Impulse, welche die automatische Rezeptions-, Interpretations- und Wiedergabearbeit ermöglichen. Die elektrischen Impulse selbst sind jedoch nicht dauerhaft speicherbar, sie selbst können auf keinem Schriftträger festgehalten werden. Sie sind als Spannungszustände flüchtig. Die Impulse, die der Automat vom Speicher ausliest und in diskrete elektrische Impulse umsetzt, müssen daher in anderer Form gespeichert bzw. aufgeschrieben werden. Diese Form der Verschriftung elektrischer Impulse lässt sich an dem Beispiel eines aktuell vielfach eingesetzten Speichers digitaler Anweisungen und Daten exemplifizieren.

50

51

52 53

schichte der Schrift von ihren frühesten Vorstufen bis zur modernen lateinischen Schreibschrift. Bayreuth, 1975; b) Haarmann, Harald: Geschichte der Schrift. München 2002; c) Haarmann: Harald: Universalgeschichte der Schrift. Frankfurt am Main 1990; d) Jackson, Donald: Alphabet. Die Geschichte vom Schreiben. Frankfurt am Main 1981; e) Kuckenberg, Martin: … und sprachen das erste Wort. Die Entstehung von Sprache und Schrift. Eine Kulturgeschichte der menschlichen Verständigung. Düsseldorf 1996; f) Meier, Gert: Und das Wort ward Schrift. Von der Spracharchäologie zur Archäologie der Ideogramme. Ein Beitrag zur Entstehung des Alphabets. Bern u.a. 1991; g) Naveh, Joseph: Die Entstehung des Alphabets. Zürich u.a. 1979. Vgl. a) Krämer, Sybille: Symbolische Maschinen – Die Idee der Formalisierung in geschichtlichem Abriß. Darmstadt 1998 (Krämer: Symbolische, 1998); b) Krämer, Sybille. Operative Schriften als Geistestechnik. Zur Vorgeschichte der Informatik. In: Schefe, Peter et al. (Hrsg.): Informatik und Philosophie, Mannheim, Zürich 1993 (Krämer: Operative, 1993). Coy, Wolfgang: Aus der Vorgeschichte des Mediums Computer. (Coy: Vorgeschichte, 1999.) In: Bolz, Norbert, Friedrich Kittler und GeorgChristoph Tholen (Hrsg.): Computer als Medium. München 21999. S. 36. Ebd. Hickethier: Medienwissenschaft, 2003. S. 21

77

Kommunizierende Automaten Die Compact Disk (CD) speichert Informationen in Form des binären Codes. Die auf einer CD gespeicherten binären Zeichen werden als „Pits“ und „Lands“ bezeichnet. Beim Abspielen werden die Zeichen von der CD ausgelesen und in Impulse umgewandelt. In dem Informatik-System CD-Spieler gelten Konventionen zur Abarbeitung der Instruktionen. Diese müssen von allen informationstechnischen Bestandteilen des Systems eingehalten werden. Eine dieser Konventionen betrifft die simple Annahme, was als Zeichen zu verstehen ist: „Obwohl es am einfachsten erscheint, ein Pit zur Aufzeichnung einer 0 und eine Land für eine 1 zu verwenden, ist es zuverlässiger, einen Pit/Land- oder Land/PitÜbergang für die 0 und die Abwesenheit eines solchen Übergangs als 1 zu definieren.“54 Die Definition der binären Schrift als syntaktisch disjunkt und syntaktisch differenziert (Gramelsberger) wird in der Praxis präzisiert. Bereits die Unterscheidung von 1 und 0 bzw. low und high wird vereinfacht zu low und nicht low. Die Bedeutung der eingelesenen Zeichen, die in Impulse umgewandelt werden, wird über programmierte Kontextbedingungen gesteuert. „Die Frage, wie diese Zeichen einem Signal entnommen werden, ist kontextabhängig“.55 Das programmierbare Medium steuert auf diese Weise selbsttätig die Wiedergabe. Würde ein anderes Programm in demselben CD-Spieler genutzt, könnte eine andere Form der Wiedergabe – wiederum selbsttätig gesteuert – erfolgen.56 Die Zeichen der digitalen Schrift unterscheiden sich durch ihre verarbeitungsprogrammabhängige universale Verwendbarkeit von den gewohnten Buchstabenschriften. An dem oben beschriebenen Beispiel der CD-Nutzung kann beispielhaft verdeutlicht werden, dass die für digitale Automaten notwendige Form der Verschriftung keinen hinweisenden Bezug zum Verschrifteten mehr aufweist. Durch die Abstraktion und die Universalität der Zeichen tritt der Gegenstand, der bezeichnet wurde, vollkommen hinter die Schrift und die Anweisungen zu ihrer Interpretation zurück. Erst durch die „Verarbeitung“ der „Signale und Inschriften“, also „der technischen Gegenstände, auf denen die Informatik aufbaut“,57 kann ein Ausdruck Bedeutung gewinnen. Erst durch die ausführbaren Anweisungen können den referenzierten Objekten Bedeutungen innerhalb eines Programmtextes und damit innerhalb des Automatenhandelns zugewiesen. 54 55 56

57

Tanenbaum: Computerarchitektur, 2001. S. 110. Goos: Informatik, 2000. S. 9. Auf diese Handlung der Automaten, die Krämer „Welterzeugung“ genannt hat, wird weiter unten eingegangen. Vgl. die Ausführungen auf S. 161 f. und Krämer: Medium, 1998. S. 85 Goos: Informatik, 2000. S. 2.

78

Die Bedeutung von Sprache, Text und Programm Darüber hinaus werden durch die Verschriftung der Gegenstände im Goosschen Sinne die Dinge und Sachverhalte innerhalb der textimmanenten Welt geschaffen. „Dinge und Sachverhalte können dabei sowohl Gegenstände der realen Welt als auch einer gedachten Modellwelt sein.“58 Das heißt, auch die innertextlichen Bezeichnungen und die Regeln, die zu ihrer Erstellung und Interpretation angewandt werden müssen, treten vollkommen hinter die Form der binären Schreibung zurück. Für die automatische Verarbeitung digitaler Schrift ist „die schriftsprachliche Übermittlung von Informationen an Partner“59, die in diesem Fall selbst Bestandteile des informationstechnischen Systems sind, eine grundlegende Bedingung. Außerhalb dieser schriftsprachlichen Form können im Bereich der Automaten keine Informationen rezepiert, interpretiert und verarbeitet werden. Alle Anweisungen und alle Daten werden in diese Schriftlichkeit transformiert.

Sprache als Programmiersprache Die auf der formalen Sprache aufsetzende und durch sie begrenzte digitale Schrift dient zur Übertragung ausformulierter Anweisungstexten an Automaten. In „künstlichen Sprachen, Computersprachen“60 werden jene Gesetzmäßigkeiten entworfen, mit denen die medientechnische Apparatur gesteuert wird. Diese in einer Computer- oder – allgemeiner ausgedrückt – Programmiersprache formulierten Anweisungen verwandeln einen Computer oder – allgemeiner gesprochen – einen Automaten in „eine Maschine, die Probleme für Personen dadurch lösen kann, daß sie Instruktionen ausführt“.61 Es versteht sich von selbst, dass die Anweisungen in einer Sprache formuliert sein müssen, die es der Maschine ermöglichen, sie als „Instruktionen erkennen“ zu können, „ehe sie ausgeführt werden können“.62 Letztendlich werden alle Anweisun-

58 59 60

61

62

Ebd. Heinemann: Textlinguistik, 2002. S. 97. Vgl. Vater, Heinz: Einführung in die Sprachwissenschaft. Reihe: Universitätstaschenbuch, Band: 1799. München 42002. (Vater: Sprachwissenschaft, 2002) S. 13. Tanenbaum, Andrew S. und James Goodman: Computerarchitektur. Strukturen, Konzepte, Grundlagen. Originaltitel: Structured Computer Organization. München 2001. (Tanenbaum: Computerarchitektur, 2001) S. 19. Ebd.

79

Kommunizierende Automaten

gen in eine maschinenverständliche, eine so genannte „Maschinensprache (Machine Language)“ übersetzt.63 Die Programmiersprachen bereiten mit ihren Eigenschaften den Boden dafür, was in Programmen an Wahrnehmungs-, Verarbeitungs-, Entscheidungs- und Handlungskompetenz umgesetzt werden kann. In Bezug auf die Grammatikbildung der Programmiersprachen bedeutet dies: Eine rein deskriptive, beobachtende Grammatik reicht für eine Steuerung eines Automaten nicht aus. Es werden künstliche Sprachen geschaffen und diese künstlichen Sprachen von ihren menschlichen (und automatischen64) Programmierern gelernt. Bevor auf diese Gedankengänge näher eingegangen wird, seien hier allgemeine Definitionen der Aufgaben von Programmiersprachen wiedergegeben: Die Encyclopaedia Britannica schreibt, dass „a program is prepared by first formulating a task and then expressing it in an appropriate computer language, presumably one suited to the application.“65 Demnach wird von einer Aufgabenstellung (task) ausgegangen. Dieser Ausgangspunkt führt zu einer Programmiersprache (appropriate computer language), die am besten für die Problemlösung geeignet scheint. Die in Programmiersprache geschriebenen Anweisungen werden in mehreren Stufen in ein durch einen Automaten direkt auszuführendes Programm übersetzt. „The specification thus rendered is translated, commonly in several stages, into a coded program directly executable by the computer on which the task is to be run.“66 Die sprachliche Unterscheidung zwischen Programmiersprache und Maschinensprache wird deutlich herausgestellt. Während die eine Sprache noch ganz unseren Begriffen des Denkens und der Problemlösung zugeordnet wird, gehört die andere Sprache schon ganz der Maschine an, sie ist Maschinensprache. „The coded program is said to be in machine language, while languages suitable for original formulation are called problemoriented languages.“67 „[T]this coded language“ – die Maschinensprache – „can be understood and executed directly by the computer without conversion or translation“.68 Der Automat kann

63 64

65 66 67 68

Ebd. Es sei auf die vielen Hilfstools verwiesen, die auf dem Markt der Programmierwerkzeuge angeboten werden, und ohne die der Programmierer seine Arbeit nicht mehr verrichten kann. Vgl. dazu die oben dargestellten Ausführungen von IBM: Year 2000, 1997 (1995). Encyclopaedia Britannica, Artikel: „Computer programming language”. Ebd. Ebd. Ebd.

80

Die Bedeutung von Sprache, Text und Programm verstehen (understood) und handeln (execute), weil alle Angaben, Steueranweisungen und Daten in einen maschinellen Code übertragen worden sind. Der Maschinencode „consists of binary digits representing operation codes and memory addresses”69 in einem Text oder – wie Tholen es fasst – weil „Daten und Instruktionen in einer Mitteilung“70 vereint sind. Die unterschiedlichen Anforderungen an jene Sprachen, die dem Menschen helfen sollen, Probleme durch lösen, und in denen er sich auszudrücken weiß, hat eine große Anzahl an problemorientierten Programmiersprachen nach sich gezogen.71 „A wide array of problem-oriented languages has been developed, some of the principal ones being COBOL (Common Business-Oriented Language), FORTRAN (Formula Translation), BASIC (Beginner’s All-Purpose Symbolic Instruction Code)“ 72. Viele weitere Sprachen, von denen zum Beispiel LISP73 als Vertreterin einer Sprache für die Programmierung von Problemlösungen im Rahmen einer künstlichen Intelligenz zu nennen ist, sind entwickelt worden. Es würde den Rahmen dieser Arbeit überdehnen, auf die Geschichte der Entwicklung der Programmiersprachen einzugehen.74 „Programmiersprachen sind künstliche Sprachen, die der Kommunikation zwischen Mensch und Maschine dienen.“75 Elfriede Fehr betont aus Sicht der Informatik den kommunikativen und sprachlichen Charakter der Automatensteuerung. Wie bei den natürlichen Sprachen sieht sie die Aspekte Syntax, Semantik und Pragmatik auch im Hinblick auf die künstlichen Sprachen gegeben: „Beim Studium von Sprachen unterscheidet man allgemein drei Aspekte: Syntax, Semantik und Pragmatik.“76 Fehr wendet die drei allgemeinen sprachwissenschaftlichen Betrachtungsperspektiven auch auf das Studium der Programmiersprachen an. Sie zieht, bei aller notwendigen Unterscheidung

69 70 71

72 73 74

75

76

Ebd. Tholen: Platzverweis, 1999. S. 123. Siehe zum Thema „Sprache oder Problem“ in dieser Arbeit die Ausführungen auf S. 150 ff. und vgl. wie dort angegeben Hopcroft: Automatentheorie, 2002. S. 42 ff. Encyclopaedia Britannica, Artikel: „Computer programming language”. LISP steht als Abkürzung für die englische Bezeichnung List Processing Language. Einen Überblick über die Geschichte der Programmiersprachen geben Henning, Peter A. und Stephan Bayer (Hrsg.): Taschenbuch der Programmiersprachen. München u.a. 2004. Fehr: Semantik. 1989, S. 1. Vgl. auch die Ausführungen in den Prologomena von Tanenbaum zur „Sprache, in der sich Personen mit dem Computer unterhalten können.“ Tanenbaum: Computerarchitektur, 2001. S. 19. Fehr: Semantik. 1989, S. 1.

81

Kommunizierende Automaten von natürlicher Sprache und künstlicher Programmiersprache, Parallelen zwischen diesen. Die Bedeutung, die innerhalb der künstlichen Sprache Zeichen, Zeichenfolgen und den Beziehungen zwischen diesen zugewiesen wird, sowie die geschaffenen Regeln sind für die Maschinen in Bezug auf Kommunikation, Entscheidung, Handlung prägend. Ohne die Sprache könnte mit den Automaten nicht kommuniziert werden. Die Maschinen blieben weiterhin nicht verständig, wären nicht automatisch handlungsfähig. Die „appropriate computer language“ macht die Leistungsfähigkeit und damit die Brauchbarkeit einer Maschine aus. Lacan fasst die Fähigkeit, die gestalterische Potenz der Schrift in dem Satz: „Die kompliziertesten Maschinen sind nur mit Worten [...] gemacht.“ 77 Dass die Schriftsprache die „kompliziertesten Maschinen“ steuert, wurde durch die Beschreibung des Jahr-2000-Problems und der befürchteten Folgen bei einem Versagen der sprachgesteuerten Automaten deutlich. Die Leistung, welche die Sprache bzw. deren Verschriftung in den Automaten erfüllen, steht in einem historischen Prozess. Die Formalisierungen in Mathematik, Naturwissenschaft und Logik gingen der Entwicklung der künstlichen Sprachen zur Automatensteuerung voran. Coy fasst die Entwicklung der Sprache zur Programmiersprache in zwei Sätzen zusammen: „Die geschriebene Lautsprache bildete die Matrix geschriebener Fachsprachen, als deren extremste die Formelnotation der Algebra und ihre Derivate in der formalen Logik erschienen. Heute stehen diesen die formalen Befehlsstrukturen der Programmiersprachen der Computertechnik zur Seite.“78

Heinz Peter Gumm und Manfred Sommer heben im Vergleich zu den historischen Vorgängern die Parallelität der Beschreibungsmöglichkeiten für „natürliche Sprachen“ und „Programmiersprachen“ hervor.79 „Programmiersprachen lassen sich, wie eine natürliche Sprache auch, in zwei Stufen beschreiben. In der ersten Stufe wird definiert, wie die Wörter der Sprache aus Einzelzeichen zusammengesetzt sind. In der zweiten Stufe wird definiert, wie man mit diesen Wörtern korrekte Sätze in der Sprache bilden kann.“80

77

78 79 80

Lacan, Jacques: Das Ich in der Theorie Freuds und in der Technik der Psychoanalyse. Reihe: Das Seminar, Bd. II. Weinheim 21991. S. 64. (Lacan: Ich, 1980.) Coy: Turing, 1995. S. 49. Gumm: Informatik, 2002. S. 597. Ebd.

82

Die Bedeutung von Sprache, Text und Programm Gumm und Sommer bleiben durch den Verweis auf korrekte Sätze in Bezug auf die Automatenkommunikation hinter den Ergebnissen zurück, die aus den Analysen des Jahr-2000Problems gezogen werden können. Die Formulierung korrekter Sätze ist im Rahmen der Automatenkommunikation sicher eine notwendige Bedingung für eine erfolgreiche Informationsübermittlung. Darüber hinaus müssen die Automaten die richtigen Bezüge zwischen den einzelnen Sätzen herstellen. Sie müssen den Zeichenfolgen die intendierte Aussageabsicht zuweisen und entsprechend handeln. Im Rahmen des Jahr-2000-Problems waren es nicht unkorrekt formulierte Sätze, die zur Katastrophe hätten führen können. Unter diesen Vorgaben waren zum Teil über Jahrzehnte hinweg einwandfreie automatisierte Kommunikationsergebnisse erzielt worden. Im Fall des Jahr-2000-Problems waren es die Konventionen über den Gebrauch der Aussagen, über deren maschinelle Interpretation, die – trotz korrekt formulierter Sätze – nicht mehr ausreichten. Der Text, in dem die Sätze eingebettet waren, wurde nicht mehr wie gewünscht verstanden. Die Formung eines Textes in der Art, dass er durch Automaten verstanden und bearbeitet werden konnte, hatte neue und, wie das Jahr-2000-Problem gezeigt hat, nicht stets beherrschte Möglichkeiten des Handelns erschlossen. So wie die Formalisierung physikalischer Gesetzmäßigkeiten das Weltbild und das Handlungsvermögen geändert hat, können die neuen Ausdrucksmöglichkeiten (i. e. Formalisierungen in einer künstlichen Sprache) im Bereich der Automaten die Vorstellungen vom Handeln der Menschen ändern bzw. erweitern. Das Agieren des Automaten, die durch das Programm bewirkte Zustandsänderung wird zum beschreibenden Merkmal der Bedeutung eines Automaten: „Seit den frühen sechziger Jahren, als erste Arbeiten über Semantik von Programmiersprachen entstanden, besteht Einigkeit darüber, dass die Bedeutung eines Programms durch seine Wirkung auf den Zustandsraum einer Maschine beschrieben werden kann.“81 Die Programmiersprachen bedienen sich dazu wie die natürlichen Sprachen der grammatikalisch festgelegten Syntax, der Semantik und dienen – ebenfalls wie die natürlichen Sprachen – pragmatischen Zwecken und Zielen. Erfordert ein Problem eine andere sprachliche Fassung, kann eine neue künstliche Sprache geschaffen werden, mit der die Automaten gesteuert werden. Es ist eine neue kulturelle

81

Fehr: Semantik. 1989, S. 2.

83

Kommunizierende Automaten Leistung, dass zur Lösung von Problemen die Schaffung neuer künstlicher Sprachen genutzt werden kann. Die Welt des Problems und die Welt der Sprache rücken zumindest aus dem Blickwinkel des Programmierers näher zusammen.

Notation für Automaten – der Compiler Die Grammatik einer Programmiersprache, welche die Konventionen zur Regelung ihrer Benutzung enthält, beruht im Gegensatz zu den natürlichen Sprachen stärker auf anwendungsbezogenen (problemorientierten) Gesichtspunkten. Aussagen in einer Programmiersprache wollen eine Handlung an einen Automaten delegieren. Die Programme werden an ihrer Wirksamkeit, an den intentional bewirkten Änderungen im Zustandsraum der Maschine (Fehr) gemessen. Aus diesem Blickwinkel tritt der pragmatische Charakter der künstlichen Sprachen und der sie regelnden Grammatiken deutlich in den Vordergrund. Auch die Sprachkonventionen müssen dem Handlungszweck des Automaten dienen. Die Frage nach der Brauchbarkeit eines Programms ist die Frage einer zielgerichteten Verschriftung. Günter Görz beschreibt diesen Vorgang zunächst in Bezug auf die syntaktische Korrektheit eines Programms. „Betrachten wir etwa eine Programmiersprache K [mit der Menge der Objekte] (L(G), f), so wird ein Verfahren benötigt, zu entscheiden, ob ein bestimmtes Programm x bezüglich K syntaktisch richtig ist (Wortproblem, Verifikation) und wie es aus den Produktionen in G konstruiert werden kann (Zerlegungsproblem, Analyse).“ 82 Nur wenn die syntaktischen Regeln eingehalten wurden, „ist es möglich, das Programm x [Element] K in ein Programm x einer anderen Sprache K’ (etwa ALGOL 60 in eine Maschinensprache) zu übersetzen, das heißt eine Funktion g:K ->- K’ anzugeben, so dass für jedes x’ = g(x) mit x [Element] K die ‚Bedeutung’ von x mit der von x’ übereinstimmt.“83 Während der Übersetzung in Maschinensprache nutzt der Compiler einer Programmiersprache – im Zitat wird ALGOL60 erwähnt – einen logischen Algorithmus, der es erlaubt, syntaktische Fehler in dem niedergeschriebenen Programm maschinell zu erkennen. Auch das Compilerprogramm und die darin enthaltene Syntaxprüfung sind zuvor aus einer höheren Programmiersprache in Maschinensprache übersetzt worden: Ein in Maschinensprache

82 83

Görz: Gedanken, 1972. S. 16. Ebd.

84

Die Bedeutung von Sprache, Text und Programm

übersetztes Automatenprogramm prüft im Verlauf des Übersetzungsvorgangs einen Programmtext einer höheren Programmiersprache, der in Maschinensprache übersetzt wird. Sprache und Rechnerstruktur, Grammatik, Semantik und Syntax haben ihren Vermittler in Form eines jeweils spezifischen Compilers. „Im Grunde ist ein Compiler ein Programm, das ein in einer bestimmten Sprache - der Quell-Sprache - geschriebenes Programm liest und es in ein äquivalentes Programm einer anderen Sprache - der Ziel-Sprache - übersetzt.“84 Dies bringt die Vorgänge zur Erstellung eines ausführbaren Codes in die Nähe der Vorgänge, die zur Analyse und Übersetzung von Texten in natürlicher Sprache genutzt werden. „Innerhalb der theoretischen Computerlinguistik geht es um die Frage, wie natürliche Sprache formalisiert und maschinell verarbeitet werden kann, ohne dass der Blickwinkel durch die Notwendigkeit, ein tatsächlich funktionierendes System bauen zu müssen, eingeschränkt wird.“85 Im Bereich der computerlinguistischen Forschung gehören daher Kenntnisse über den Compilerbau zu den wichtigen Fachgrundlagen: „Abhängig vom tatsächlichen Fachgebiet sind Logik, formale Linguistik und Compilerbau wichtige Grundlagen für erfolgreiche Forschung, während Detailwissen um anwendungsrelevante Aspekte nicht zentral erscheint.“86 Die Berührungspunkte sind aus der wissenschaftlichen Aufgabenstellung ableitbar: „Wichtigster Motor für die Aktivitäten zur syntaktischen Analyse waren sicherlich die Bedürfnisse der Maschinellen Übersetzung, wo man sich von dem Rückgriff auf syntaktische Repräsentationen einen deutlichen Forschritt gegenüber den rein wortformbasierten Ansätzen versprach.“87 Die Zerlegung der Sprache in die Einheiten, die durch das syntaktische Gerät rasch und korrekt verarbeitet werden konnten, war Antrieb einer neuen Sicht auf Sprache. „Zum anderen lag hier ein enger Berührungspunkt mit parallelen Entwicklungen im Bereich der Programmiersprachen vor, wo beim Compilerbau durchaus vergleichbare Techniken zum Einsatz kamen.“88 Die Überlegungen 84 85

86 87

88

Aho: Compiler, 1999, S. 1. Amtrup, Jan W.: Computerlinguistik – Was ist das? Aspekte der Computerlinguistik. (Amtrup: Aspekte, 2001.) S. 20 In: Carstensen, Kai Uwe, Christian Ebert, Cornelia Endriss et. al. (Hrsg.): Computerlinguistik und Sprachtechnologie. Eine Einführung. Heidelberg, Berlin 2001. (Carstensen: Computerlinguistik, 2001.) S. 10 – 23. Ebd. Menzel, Wolfgang: Computerlinguistik – Was ist das? Zur Geschichte der Computerlinguisitik. (Menzel: Geschichte, 2001.) S. 3. In: Carstensen: Computerlinguistik, 2001. S. 1 – 9. Ebd.

85

Kommunizierende Automaten zum adäquaten Übersetzen der natürlichen Sprache und die Überlegungen zum Übersetzen formalisierter Anweisungen an Automaten ergänzten und durchdrangen sich thematisch. „Dadurch gab es insbesondere in den sechziger und siebziger Jahren eine starke wechselseitige Befruchtung.“89 Es ergeben sich – überraschenderweise in einem sehr technischen Bereich – Berührungspunkte zwischen Kulturwissenschaften und der Automatentheorie. Die Bearbeitung und die Erstellung von Anweisungen zur Ausführung durch einen Rechner (!) sind realiter sprachliche (!) Verarbeitungen (Übersetzungen) textbasierter Konstrukte. Die Erkenntnis und Verarbeitung der natürlichen Sprache im Bereich der Linguistik und die Gestaltung eines ausführbaren Automaten-Programms im Bereich der Informatik haben viele Berührungspunkte und haben sich sogar gegenseitig befruchtet. In dem bereits zitierten Grundlagenwerk von Alfred V. Aho, Ravi Sethi und Jeffrey D. Ullmann werden die Aufgaben und Rahmenbedingungen von Compilern beschrieben: „Compilerbau umfaßt Programmiersprachen, Rechnerarchitektur, Sprachtheorie, Algorithmen und Software-Engineering.“90 Im Compilerbau, das heißt in der Schöpfung eines Übersetzungsprogramms, findet sich die ganze Komplexität eines Informatik-Systems wieder. Die sprachlichen (formalen) Fehler, die im Rahmen eines Übersetzungsvorgangs entdeckt werden können, werden dem Anwender des Programms mitgeteilt. „Eine wichtige Teilaufgabe des Compilers besteht darin, dem Benutzer Fehler, die im Quellprogramm enthalten sind, zu melden.“91

89 90 91

Ebd. Aho: Compiler, 1999, S. 1 Ebd.

86

Die Bedeutun ng von Sprache, Text und Programm Aho et. al. fassen den oben geschilderten Vorgang in einer einfachen Grafik zusam mmen, die sie kurz „Ein Compiler“ gena annt haben. Ab bbildung 1: „Ein Compiler“

Quellprogramm

Compiler

Zielprogram mm

Fehlermeldungen e: Aho: Compilerbau, 1999. S. 1 Quelle Die Grafik verdeutlic cht die zentrale Stellung, die das Überrsetzungsprogramm im Zuge Z der Erstellung ausführbarer Program mme einnimmt. Es stellt gleichzeitig ein Bindeglied und einen Filter F zwischen auftraggebe endem Menschen und Maschine dar. Der Compiler muss prüfe en, ob die Form und der Inhalt der zu üb bertragenden Anweisung gen zum Automaten passen. „Die für eiinen Rechner verfügbaren n Instruktionen bilden die so genan nnte Maschinensprache.“922 Die Ausstattung einer Programmierspra ache mit Befehlen, die nu ur für einen besonderen Rechner in Anw wendung kommen könn nen, sind eine gewünschte Optimierung der Problemlösungsfähigk keit des Automaten. Dies bedeutet im Umkehrschluss, dass s sich die Programmiersprache notwendiigerweise weiter von der natürlichen Sprache entfernt. Damit istt die natürliche Sprache vom v Einsatz als Programmierwerkzeug auch a aus diesem Grund au usgeschlossen. Gumm stellt in seiner „Einführung in die Informatik“ die Überlegungen zur Strruktur eines Compilers in den Vordergru und. „Compiler bestehen aus a einem Analyseteil und einem Syntheseteil. Diese sind ihre erseits in weitere Bereiche oder Abschn nitte gegliedert, wie die folg gende Übersicht zeigt:“ 93

92 93

Gumm: Informatik,, 2002. S. 590 Gumm: Informatik,, 2002. S. 596.

87

Kommunizierende Automaten Abbildung 2: „Struktur eines Compilers“

lexikalische Analyse Analyseteil

syntaktische Analyse semantische Analyse

Compiler Adressvergabe Syntheseteil

Befehlsauswahl Maschinencodegenerierung

Grafik nach Gumm: Informatik, 2002, S. 596 Gumm führt weiter aus: „Die erste Phase eines Compilers ist die Analyse, das ist die Zerlegung des zur Übersetzung vorgelegten Programmtextes in seine Bestandteile zueinander.“94 Der Programmtext wird so aufgeteilt, dass die Beziehungen seiner Bestandteile deutlich werden. „Wenn diese Beziehungen geklärt sind, können sie durch einen so genannten Syntaxbaum repräsentiert werden.“95 Es werden jene Abhängigkeiten und Relationen erstellt, die im Nachhinein einen Teil jener Code-Reflexivität bilden, die Trogemann und Viehoff beschrieben haben. Nachdem die sprachlichen Beziehungen der Bestandteile des Programmtextes aus der Perspektive der Maschinenausführbarkeit aufbereitet wurden, werden diese Beziehungen in einen ausführbaren Code übertragen. Anweisungen, Sprache und Maschine bilden im ausführbaren Programm eine Synthese. „In der zweiten Phase, der Synthese wird aus dem Syntaxbaum ein entsprechender Maschinencode erzeugt.“96 Im Rahmen des Jahr-2000-Problems ist die Aufgabe des Compilers, zum Beispiel eines COBOL-Compilers, deshalb hervorzuheben, weil dieser für Finanzprogramme von Versicherungen

94 95 96

Ebd. Ebd. Ebd.

88

Die Bedeutung von Sprache, Text und Programm und Banken häufig eingesetzte Compiler, bis zum Jahr 1998 eine sechsstellige Schreibweise der Jahresangaben zwingend vorsah.97 Das heißt, der Programmierer hätte bei einer Deklaration des Datums in der Spezifikation DATE mit acht Stellen eine Fehlermeldung erhalten. Das Programm wäre in dieser Form nicht übersetzt worden. Aus textpragmatischer Sicht weist diese Feststellung darauf hin, dass es dem Benutzer einer Programmiersprache mitunter an entscheidender Stelle verwehrt ist, einen aus Handlungsgesichtspunkten korrekten Befehl zu formulieren. Das Jahr-2000Problem hat gezeigt, dass aus diesem formalen Grund eine gegebene Programmstruktur potenziell mehrdeutig und damit unberechenbar werden kann. Aho führt dazu unter der Absatzüberschrift „Mehrdeutigkeit“ aus: „Wir sollten vorsichtig sein, wenn wir im Zusammenhang mit einer Grammatik von der Struktur eines Wortes reden.“98 Auch in der Maschinensprache können Wörter „mehr als eine Bedeutung haben“ und daher „sind wir im Zusammenhang mit Übersetzungen gezwungen, eindeutige Grammatiken zu entwerfen oder bei der Verwendung mehrdeutiger Grammatiken die Mehrdeutigkeit mit Hilfe spezieller Regeln aufzulösen.“99 Die Sprache als Mittel zur Lösung von Problemen bringt als Medium ihre spezifischen Probleme in diesen Prozess ein.

Die Sprache, der Compiler, der Betrug Die Bedeutung des Compilerbaus und die Abhängigkeit der Anwender einer Programmiersprache von den veröffentlichten Spezifikationen verdeutlicht ein Beispiel, das Kling in dem Kapitel „Beyond Outlaws, Hackers, and Pirates“ angibt. Kling führt aus, dass ökonomische Ziele einem wahrheitsgemäßen und verantwortungsvollen Auftreten der Herstellerfirmen gegenüber den entsprechenden Fachöffentlichkeiten, zum Beispiel zur Offenlegung von nicht beseitigten Fehlern einer bestimmten Compiler-Version oder zu Abweichungen vom Standard, entgegenstehen können. Die Verbindung von Quell-Programm, Programmiersprache, Compilerspezifikationen und Ausführung durch die Maschinen kann unter diesen Bedingungen nicht stets gelingen. Alle Programm-

97 98 99

Vgl. dazu die Ausführungen von IBM über die ISO Norm 8601 in dieser Arbeit auf S. 40 sowie Bartsch: Software, 1999. S. 27. Aho: Compilerbau, 1999. S. 37. Ebd.

89

Kommunizierende Automaten anweisungen, die sich auf die fälschlicherweise als gültig angegebenen Spezifikationen berufen, müssen zwangsläufig scheitern. Aufgrund fehlender Kontrollen – es gibt für die Erstellung von Compilern und anderen Programmierwerkzeugen keine zertifizierende Stelle – kann eine wirkungsvolle Prüfung nicht geleistet werden. Eine aufgrund dieser Prüfungsergebnisse durchzuführende Korrektur wird nicht vorgenommen. In diesem Zusammenhang zitiert Kling John McAuley, der in seinem Aufsatz „Exploring Issues in Culture and Competence“ von einemso genannten ‘macho management’ große Gefährdungen ausgehen sieht.100 „One of the distinctive features of the computing industry today is a relatively high level of technological innovation. Technologically innovative organizations often engender a form of smart, aggressive, and quick acting management that McAuley (1994) refers to as ‘macho management’.“101 Durch das Macho Management werden ökonomische Interessen des Compiler produzierenden Unternehmens höher gestellt als die korrekte Umsetzung von Vorgaben. Dadurch können falsche Angaben zur „Interpretation“ von sprachlichen Anweisungen geschaffen werden. In einem etwas ausführlicheren Zitat sollen die Rahmenbedingungen des Compiler-Erwerbs und des vermeintlich mitgelieferten Befehlssatzes dargestellt werden. „An illustrative example concerns a major computer manufacturer that provided a FORTRAN compiler on a particular machine series, pseudonymed here as SUMMA. This FORTRAN was contracted and advertised to meet ANSI FORTRAN Standards. The programmer was assigned to maintain SUMMA FORTRAN by implementing enhancements, repairing errors, and issuing memos about new developments. Some of the error reports that she received from installations using SUMMA FORTRAN indicated subtle but important discrepancies between SUMMA FORTRAN and ANSI FORTRAN. FORTRAN programmers who believed that SUMMA FORTRAN was compatible with the ANSI standard wrote programs which did not appear to run properly.“102

Unter einer falschen Annahme über die Verwendung von Anweisungen werden Programme geschrieben, die in der maschinellen Ausführung nicht richtig arbeiten können. Die Programmierer werden durch falsche Informationen über den Compiler in die Irre geführt. Eine Programmiererin des Compilers will diese Irrefüh100

101 102

Vgl. McAuley, John: Exploring Issues in Culture and Competence. In: Human Relations, Ausgabe April (4) 1994, Heft 47. Oxford, London. S. S. 417 – 430. (McAuly: Issues, 1994.) Vgl. auch die Aussagen Castells in dem Kapitel Die perverse Koppelung: Die globale kriminelle Ökonomie. In: Castells: Jahrtausendwende, 2003. S. 175 ff. Kling, Outlaws, 1996. S. 858. Ebd. S. 857.

90

Die Bedeutung von Sprache, Text und Programm

rung durch eine Information korrigieren. „SUMMA’s programmer prepared a variance report that she planned to send to all sites which had adopted SUMMA FORTRAN.” Die aufklärerische Korrekturmaßnahme wird durch ihren Vorgesetzten verboten. „Her supervisor objected and argued that the firm could not acknowledge any discrepancy between SUMMA FORTRAN and ANSI FORTRAN since it was contractually obligated to provide an ANSI-compatible FORTRAN.“103 Der Versuch einer Fehlerbehebung endet mit der Drohung einer Kündigung. „She persisted, since she knew of the difficulties that the unexpected discrepancy between published specifications and actual behavior of SUMMA FORTRAN was causing in the field. After her supervisor threatened to fire her, she relented, and did not publish a report of the discrepancy.“104

Die Angst und die hierarchischen Strukturen siegen zunächst. „The supervisor had little ethical justification for his actions; but he had the power of the paycheck to enforce his will.” Doch die Repression zeigt Folgen. „But she was demoralized, and left the firm several months later.“105 Die ökonomische Macht (paycheck) wirkt sich direkt auf die moralische Integrität Einzelner und die Gestaltung medialer Entitäten aus. Die experimentelle Epistemologie zum Betrieb kybernetischer Maschinen erfährt in ihrer praktischen Umsetzung die Macht gesellschaftlicher Realität. Die Medien und deren potenzielle Möglichkeiten schaffen aus sich heraus keine neuen Bedingungen ihres Gebrauchs, sondern die von Hickethier angesprochenen Geschichte prägenden Kräfte wie gesellschaftliche Produktionsbedingungen und Politik (fehlende Zertifizierung) schaffen den Rahmen, in denen sich die Medien entfalten können. Nicht nur durch das so genannte Macho-Management werden fehlende Kontrollmechanismen ausgenutzt.106 Gleichzeitig werden von den Organisationen, die als Interessensgruppen und Zusammenschlüsse von Programmierern, Informationstechnologen und IT-Anwender fungieren, keine Regulierungen verlangt. Als Beispiel

103 104 105 106

Ebd. Ebd. Ebd. Vgl. die Auseinandersetzungen zum Thema Programmiersprache C++ in Informatikerkreisen aus dem Jahr 2006 unter der Überschrift: „C++ oder die lukrativen Lügen der Softwareindustrie...“. Der Moderator der Diskussionsgruppe, Karlheinz Buchegger, schreibt am 13.9.2006: „Selbst die C++-Gurus wissen, und diskutieren offen darüber, dass es in der Sprache mehr als eine einzige Problemstelle gibt.“ http://www. mikrocontroller.net/topic/53837 (Zugriff Mai 2009)

91

Kommunizierende Automaten dient hier die Association for Computing Machinery (ACM) “the world’s largest educational and scientific computing society”107. Sie vertritt den Anspruch, dass der ACM “delivers resources that advance computing as a science and a profession”108. Zu den Vorstellungen von Wissenschaft und Beruf zählt jedoch anscheinend nicht die Unterstützung der Mitarbeiter, die unethisches – unter Umständen sogar regelwidriges – Verhalten von IT-Firmen aufdecken wollen: „For example, this episode with SUMMA FORTRAN violates precepts 2.1 and 2.6 of the ACM’s professional code. But the ACM provides no explicit support, such as counselling, legal advice or employment help, for members who believe that some of their company’s practices are unethical.“109

Für die betroffenen Mitarbeiter, die Aufklärung leisten wollen, gibt es keine Unterstützung im Rahmen eines aggressiven Marketings. „Unfortunately, professional societies for information and computer professionals may be incapable of effectively regulating their members’ professional behavior if major computer firms do not encourage ethical behavior by their employees.“110

Sprachfunktionen, Y2K und Fehler der Benutzung Diese Produktions- und Vertriebsstrategien eines Compilers sind nicht die einzigen Gründe, die zu einer fehlerhaften Dokumentation von Programmiersprachen führen können. In Bezug auf das Jahr-2000-Problem hat der Informatiker Gerd Leibrock einen solchen Fehler in der Programmiersprache C festgestellt. Hintergrund seiner Analyse der so genannten Modulo-Funktion in dieser Programmiersprache war eine Auseinandersetzung über die Kalenderformel des Mathematikers Carl-Friedrich Gauß. Dieser „ist unter anderem für seine Osterformel berühmt, mit der er die außerordentlich komplexe Berechnung des Osterfestes auf wenige Rechenschritte reduzierte.“111 Diese Formel wird in heutigen Computersprachen ebenso genutzt wie die von Gauß entwickelte Formel zur „Berechnung des Wochentags zu einem beliebigen Datum“.112 „Zuerst wird eine Summe berechnet, in die signifikante Faktoren des Datums eingehen, und diese Summe wird anschließend durch sieben geteilt. Der Rest, genauer der 107 108 109 110 111 112

Vgl. http://www.acm.org/ (Zugriff Mai 2009) Siehe ebd. Kling, Outlaws, 1996. S. 857. Ebd. Leibrock: Gauß, 1998. S. 21. Ebd.

92

Die Bedeutung von Sprache, Text und Programm Modulowert, stellt die Nummer des Wochentags dar (0 = Sonntag, 1 = Montag und so weiter).“ 113 Die Modulo-Funktion gibt als Ergebnis einer Division die gerundete Ganzzahl aus; 33:7 = 4,71 beispielsweise entspricht dem Modulo-Wert: 5. In der Programmiersprache C tritt ein Fehler auf, will man die Modulo-Funktion verwenden: „Übrigens bietet die Programmiersprache C einen besonders schönen Fallstrick. Der Operator ‚%’ wird als Modulo-Operator bezeichnet, liefert aber tatsächlich nur den Divisionsrest.“114 In dem obigen Beispiel ergäbe sich die Zahl 7 als Rest-Ergebnis. Auch in diesem Fall wurde bei dem renommierten Hersteller der Programmiersprache eine Korrektur der fehlerhaft deklarierten Funktion unterlassen. Die Anwender wurden in die Irre geleitet. Verwendet der sich korrekt an die Eigenschaftsbeschreibung haltende Programmierer die Funktion, wird er fehlerhafte Ergebnisse erhalten und mit diesen – sie für richtig wähnend – weiterarbeiten. „Was Wunder, wenn ein Programmierer diesen sogenannten Modulo-Operator auf Treu und Glauben verwendet und dann tatsächlich feststellen muß, daß der auf die Nase gefallen ist.“115 Sofern er es feststellt. Denn zur Feststellung des Fehlers sind Prüfungen nötig, die nicht an der Syntax oder Semantik, sondern allein an der Pragmatik ausgerichtet sind. Dieser Fehler wird sich erst dann herausstellen, wenn die Ergebnisse des Handelns des Automaten evaluiert werden. Die fehlende Qualität des Compilers und die irreführende Beschreibung im Handbuch zur Programmiersprache können, wie Leibrock zeigt, zu Fehlern führen. Ob diese Qualitätsmängel im konkreten Fall der Programmiersprache C einem „Macho Management“ geschuldet sind oder einer menschlichen Nachlässigkeit ist nicht zu entscheiden. Die Wirkung auf die Programme und die damit verbundenen Entscheidungen und Handlungen sind die gleichen. Im Übrigen hat die Berechnungsformel von Gauß auch im Rahmen des Jahr-2000-Problems eine Rolle gespielt. „In einem Jahr-2000-Fragen- und Antwortenkatalog im Internet [wird; pf] behauptet, die Gaußsche Wochentagsformel habe einen Defekt, der erst ab dem Jahr 2000 zum Tragen komme.“116 Auch in diesem Fall wird auf eine Formel in einer Programmiersprache hingewiesen, die durch einen Compiler in ausführbaren Maschinencode übersetzt wird. Er „programmierte daher die Gaußche 113 114 115 116

Ebd. S. 21 f. Ebd. S. 22. Ebd. Ebd.

93

Kommunizierende Automaten Formel“ in einer Programmiersprache.117 Leibrock „testete sie für Daten des 21. Jahrhunderts aus. Und siehe da, die Wochentagsberechnung war ab dem Jahr 2000 in den Monaten März bis Dezember teilweise falsch.“118 Wieder, so scheint es, hat ein Fehler in einem Compiler die Programmierer überrascht und deren Programmierarbeit zunichte gemacht. Doch die Möglichkeiten einer falschen sprachlichen Ansteuerung von Automaten sind vielfältiger und in einem gewissen Sinne auch menschlich. Leibrock „sah es daher als ein Gebot der Fairneß an“, sein „Programm zu überdenken. Tatsächlich stellte sich heraus, daß nicht Gauß, sondern“ Leibrock „und viele andere Programmierer einen Fehler gemacht“ hatten.119 Die Ansteuerung einer Maschine kann bereits der Eingabe wenig komplexer Formeln, die „auf wenige Rechenschritte reduziert“ (Leibrock) sind, enorme Schwierigkeiten bereiten. „Das Ergebnis der Gaußschen Formel kann nämlich negativ sein, und in diesem Fall muß man noch sieben auf die Wochentagsnummer addieren, um das richtige Resultat zu erhalten.“120 Der Test des Programms offenbarte den „Fehler“ einer Formel, der nicht in der Formel begründet war, sondern in dem Unvermögen des Anwenders, die Formel richtig anzuwenden und einzugeben. „Fairneß“ hat den Informatiker Leibrock verpflichtet der Ursache eines (glücklicherweise) entdeckten Fehlers nachzugehen. Gerade im Hinblick auf die Jahr-2000-Problematik sind diese Beispiele der falschen Modulo-Funktion in der Programmiersprache C und die eines auch bei „vielen anderen Programmierern“ (Leibrock) missglückten Gebrauchs der Datumsberechnung nach Gauß wichtige Hinweise auf die Ursachen für ein Scheitern der Codierung. Wie in der natürlichen Sprache auch können Fehler im Gebrauch der Konventionen auftreten. Die Ausführungen zeigen, dass die Fehler in Automaten steuernden Programmen nicht nur durch die unzureichende Schreibung eines Datums auftreten können. In Verbindung mit diesem Datumsfehler können weitere Fehler eintreten – einerseits verschuldet durch eine falsche und irreführende Konstruktion einer Programmiersprache, andererseits durch ein Unvermögen der Sprachanwender. Die Komplexität der Behebung solcher Fehler wächst durch ihre möglichen Verbindungen im Rahmen der programmeigenen Code-Reflexivität. 117 118 119 120

Ebd. Ebd. Ebd. Ebd.

94

Die Bedeutung von Sprache, Text und Programm Leibrock hat seinen Fehler selbst korrigieren können. Wie steht es nun in solchen Situationen, in denen der Programmierer keinen Impuls für Sorgfalt, Fairness und Selbstkritik verspürt oder diese schlichtweg wegen der Arbeitsbelastung nicht leisten kann? Neben den formal-logischen und den sprachlichen Gesichtspunkten spielen weitere Aspekte bei der Lösung von Aufgabenstellungen durch Programmierung eine nicht zu unterschätzende Rolle. Hierbei handelt es sich, wie an den Beispielen von Kling sowie Leibrock dargestellt werden konnte, auch um ökonomische und psychologische Gründe.

Worte und Bedeutung Die semantischen Rahmenbedingungen des Programms oder gar die pragmatischen Zwecksetzungen sind durch die oben angegebenen Prüfungen im Rahmen des Übersetzungsvorgangs nur in sehr beschränktem Umfang möglich. Während im syntaktischen Gerät Kontrollen auf syntaktische Korrektheit gut durchzuführen sind, entziehen sich Prüfungen auf semantische Korrektheit in ihrer Sinnhaftigkeit den jetzigen Kontrollmöglichkeiten der Automatensprachen. Semantische Verknüpfungen auf Zulässigkeit zu prüfen, muss bedeuten, die referenzierte Welt auf bestimmte Sachverhalte beschränken und diese mit unveränderbaren Kennzeichen invariant abbilden zu können. Görz führt diese Beschränkung der Bedeutungsvielfalt von Ausdrücken in seiner Arbeit in Bezug auf den Aspekt der Semantik aus. „Wenn wir die Semantik einer Programmiersprache definieren wollen, so muß diese Definition invariant bezüglich jeder solchen Abbildung sein.“121 Die Bedeutungen, die Ausdrücke annehmen können, werden im vorhinein unveränderbar festgelegt, wenn Automaten diese regelgerecht prüfen sollen. Auch in künstlichen Sprachen kann auf die Semantik eines Wortes nicht logisch geschlussfolgert werden. Syntax und Semantik bleiben auch in künstlichen Sprachen getrennt oder bilden wie der Informatiker Zemanek oben zitiert wurde unterschiedliche Schichten der Automaten steuernden Sprache. Die Bedeutung eines Ausdrucks stellt sich im durch die Code-Reflexivität vorgegebenen Kontext ein. In der Schreibweise der Aussagen kann sich deren Bedeutung nicht wieder finden: „Für semantische Belange ist es gleichgültig, ob 121

Görz, Günther: Die Sprache GEDANKEN als ein Beitrag zur syntaktischen und semantischen Definition von Programmiersprachen. Erlangen 1972. S. 74. (Görz: Gedanken, 1972.)

95

Kommunizierende Automaten etwa ein Term ‚a+B‘ als Zeichenkette ‚a+b‘ in Infix-Schreibweise, als Zeichenkette ‚+ab‘ oder ‚ab+‘ in ‘Präfix-‘ bzw. ‚Postfix-Schreibweise‘, als ‚(PLUS A B)‘ als LISP-S-Ausdruck, als Gödelzahl ‚7a11b‘“ dargestellt wird.122 Die Aufzählung der verschiedenen Schreibweisen des Terms a+B erinnert an die Aufzählung der verschiedenen Schreibweisen, die zur Notation eines Datums genutzt werden können.123 Obwohl die Ausdrücke möglicherweise das gleiche Datum meinen, erscheinen sie in unterschiedlicher Schreibweise und werden dadurch möglicherweise für den programmierten Automaten zu einer Quelle von Fehlinterpretationen. Die arbiträre Struktur der Schreibweisen im Computerprogramm ist vergleichbar mit der arbiträren Schreibung von Wörtern in natürlichen Sprachen. Es gibt, wie Görz exemplarisch aufgeführt hat, keinen der Sache oder der Logik entspringenden Grund, in einer Programmiersprache einen Term oder auch nur ein einzelnes Zeichen auf eine bestimmte Weise zu schreiben. Eine Programmiersprache ist von ihren Möglichkeiten her geeignet, potenziell jede Darstellungsform eines Wortes oder eines Terms zu verarbeiten. Eine Einschränkung dieser unendlichen Möglichkeiten ergibt sich durch die Notwendigkeit, ein geschriebenes Computerprogramm richtig, das heißt im Sinne des zugrunde gelegten Algorithmus in ausführbare Anweisungen zu übersetzen. Die Vereinbarungen darüber, welche Zeichen zu einer Sprache gehören und wie diese syntaktisch behandelt werden dürfen und welche semantischen Bedeutungen sie annehmen können, müssen daher exakt festgelegt sein. Da sich die semantische Dimension eines Ausdrucks nicht in allen Variationen des Gebrauchs in der notwendigen Exaktheit maschinell prüfen lässt, wird die mit der Ausführung des Programms beabsichtigte Wirkung zur Messlatte einer korrekten sprachlichen Gestaltung. „Während die syntaktischen Aspekte bereits zufriedenstellend formalisiert sind und weitgehend einheitlich in der Literatur behandelt werden, gibt es bei den Semantikspezifikationen ein breites Spektrum unterschiedlicher Ansätze, die sich grob als operationell, denotationell und axiomatisch klassifizieren lassen.“124

122

123 124

Ebd. Bei der Infix-Schreibweise sitzen die Operatoren zwischen den Operanden, bei der Präfix-Schreibweise davor, bei der Postfix-Schreibweise danach. Die Schreibweisen für LISP und Gödel sind im Rahmen der jeweiligen Konvention festgelegt. Vgl. oben die Tabelle der Datumsformate Fehr: Semantik. 1989, S.3.

96

Die Bedeutung von Sprache, Text und Programm Im Vordergrund steht stets für alle Methoden die Prüfung eines Programms auf das Erreichen der beabsichtigten Wirkung: „Die operationelle Methode beschreibt die Wirkung von Programmen als schrittweise Zustandsänderung einer abstrakten oder konkreten Maschine.“125 Fehr führt – die „operationelle“ Methode bewertend – weiter aus: „Wenn die Semantik einer Programmiersprache im Hinblick auf eine korrekte Implementierung formalisiert werden soll, so ist sicher die operationelle Methode am besten geeignet.“ 126 Jedoch hat das Jahr-2000-Problem offenbart, dass die Semantikprüfungen, da scheitern, wo Daten zwischen Rechnern ausgetauscht werden. Die Semantikprüfungen der einzelnen Programme wären in Bezug auf die kommunikativen Vernetzungen der Automaten zum Scheitern verurteilt gewesen. Die Prüfung eines Programms auf eine korrekte Semantik und – mehr noch – Pragmatik kann erst dadurch wirksam durchgeführt werden, dass der Zustandsraum, in dem sich Automaten befinden und handelnd bewegen, soweit semantisch differenziert und vorab invariant festgelegt werden kann, dass alle syntaktisch richtigen Ausdrücke auf das jeweils Gemeinte in allen denkbaren Kommunikations- und Entscheidungssituationen stets korrekt bezogen werden können. Dies ist allerdings eine Aufgabe, der auch die Semantik und Pragmatik der natürlichen Kommunikation bis heute nicht gerecht geworden ist. Es ist fraglich, ob sich maschinelle Prüfroutinen zur Erledigung dieser Aufgabe werden finden lassen. Ein Beispiel für einen weiteren Versuch einer Semantikprüfung stellt die von Fehr oben erwähnte „denotationelle Methode“ dar. Fehr erläutert: „Die denotationelle Methode abstrahiert von der schrittweisen Zustandsänderung einer Maschine und ordnet in statischer Weise jedem Programm die entsprechende Ein/Ausgabefunktion als Semantik zu“.127 Auch hier wird die Wirkung des Programms zum Ausdruck seiner semantischen Bedeutung. Die durch Bedingungen gesteuerten Schleifendurchläufe eines Programms dienen hier zur Messung dessen, ob die Bedeutung eines Wortes richtig verstanden wurde. „Der entscheidende Gedanke dabei ist, dass Programmschleifen auf der Ebene der Semantikfunktionen durch Fixpunktbildung modelliert werden können; daher spricht man auch von Fixpunktsemantik.“128 125 126 127 128

Ebd. Fehr: Semantik. 1989, S.4. Ebd. Ebd. S. 4 f. Fehr führt mit Blick auf die denotationellen Semantikspezifikationen weiter aus: „Ein wichtiger Anwendungsbereich der denotationellen Semantik ist der Compilerbau. Es existieren mehrere Ansätze,

97

Kommunizierende Automaten Sprachwissenschaftsgeschichtlich kann die „Grundidee der denotationellen Semantik, nämlich die Bedeutung der elementaren syntaktischen Einheiten direkt in einer allgemein verständlichen Sprache anzugeben und die Bedeutung der zusammengesetzten Einheiten induktiv unter Verwendung der Bedeutung ihrer unmittelbaren Komponenten zu erklären“, „bereits auf Frege129, Carnap130 und Tarski131 zurückgeführt werden.“ 132 Die von diesen unternommenen Ansätze stellen neben den Beiträgen Wittgensteins wichtige Anzeichen für eine Neubewertung des Sprachgebrauchs und dessen semantischer Interpretation dar. Die Überlegungen von Frege, Carnap und Tarski deuten zu einer Zeit, in der es keine programmierten Automaten gab, die Rolle der Sprache neu. Sie führen im Rahmen der Entstehung der Programmiersprachen zu einer eigenständigen Behandlung semantischer Zusammenhänge und deren graphischer Darstellung. Für die künstlichen Sprachen hat McCarthy versucht Semantikprüfungen zu automatisieren. „Die ersten Ansätze zur denotationellen Semantik von Programmiersprachen stammen von McCarthy. Er entwickelt eine Methode, die es ermöglicht, einfache Flußdiagramme in rekursive Gleichungssysteme über Zustandsvektoren zu übersetzen133.“134 Die „denotationellen Semantikspezifikation“ erlauben darüber hinaus den Einsatz von „mathematischen Methoden zum Beweisen von Programmeigenschaften.“135 Ebenfalls in der letzten von Fehr genannten Methode zur Prüfung der semantischen Korrektheit, es ist die „axiomatische Methode“, werden logische Beweisformeln genutzt: „Jedem atomaren Bestandteil einer Sprache wird ein Axiom, eine elementare Relation zwischen Vor- und Nachbedingungen zugeordnet. Jedem zusammengesetzten Programmteil wird eine Ableitungsregel zugeordnet, mit deren Hilfe sich aus den Vor- und Nachbedingungen seiner Komponenten die Vor- und Nachbedingung dieses Pro-

129

130 131 132 133

134 135

aus einer standardisierten denotationellen Semantikspezifikation automatisch Übersetzer zu erzeugen.“ Vgl. Frege, Gottlob: Über Sinn und Bedeutung. In: Zeitschrift für Philosophie und philosophische Kritik, Heft 100, 1982. S. 25 – 50. (Frege: Über Sinn, 1892.) Vgl. Carnap, Rudolf: Meaning and Necessity. A Study in Semantics and Modal Logic. Chicago 21956. (Carnap: Meaning, 1947.) Vgl. Tarki, Alfred: Logic, Semantics and Metamathematics. Papers from 1923 to 1938. Oxford 1956. (Tarski: Logic, 1956.) Fehr: Semantik. 1989, S. 4 f. Vgl. McCarthy, John: Towards a Mathematical Science of Computation. In: Popplewell, C. M. (Hrsg.): Proceedings IFIP Congress 62. München 1963. S. 21 – 28. (McCarthy: Mathematical Science, 1963.) Fehr: Semantik. 1989, S. 5. Ebd.

98

Die Bedeutung von Sprache, Text und Programm grammteils gewinnen läßt.“ 136 Auch bei dieser Methode steht die Wirkung des Programms im Mittelpunkt. Es werden Bedingungen für den Ausgangspunkt bzw. einen Anfangszustand eines Programmschrittes und die daraus sich ergebende logische Folge definiert. „Wenn die Bedingung Q für einen Anfangszustand erfüllt ist, dann gilt nach Ausführung die Bedingung R für den Endzustand.“137 Die Prüfung der verschrifteten Anweisungen, genauer: ihrer semantischen Eigenschaften, findet im Rahmen formal-logischer Ableitungen statt. „Als Beweismethoden stehen alle prädikatenlogischen Beweisverfahren zur Verfügung. Spezielle Techniken gibt es zur Aufstellung von Schleifeninvarianten.“138 Sprache und Problem gehen als gedankliches Konstrukt ineinander über. Die Prüfungen der Einhaltung der syntaktischen und semantischen Regelungen im Programm stimmen mit dem Ablauf der Anwendungen des Automaten, die es steuern soll, zumindest gedanklich überein: Die Bedingungen des Anfangszustands werden festgehalten und mit dem zu erreichenden Endzustand, dem Zustand nach der Verarbeitung, verglichen. Die vorgetragenen semantischen Prüfungen sind dem Umfang des aktuellen schriftgesteuerten Automateneinsatzes nicht angemessen. So werden im Rahmen des modernen SoftwareEngineering die genannten Methoden durch weitere ergänzt. Es werden vor jeder Programmrealisierung Datenmodelle entworfen, die dazu dienen, die Bedeutung eines Ausdrucks an ein zu verarbeitendes Objekt zu binden.139 Nach den Ausführungen von Balzert ist es das Ziel dieser „semantische[n] Datenmodellierungen“, „ein konzeptionales Modell“ zu erstellen, „das gegen Veränderungen der Funktionalität weitgehend stabil ist.“140 Ein einmal 136 137 138

139 140

Ebd. S. 6. Ebd. Ebd. In Abwandlung dieser Axiomatischen Methode gibt es eine weitere Form eines“„Programmkorrektheitsbeweis[es]: [Die] Axiomatische Methode nach Hoare: Bei dieser Art die Korrektheit einer Anweisung, Prozedur oder eines Programms nachzuweisen wird das Programm rückwärts durchgearbeitet: Es wird jeweils überprüft, welche Vorbedingungen zu der zugesicherten Nachbedingung führen können. Ist die zugesicherte Vorbedingung in der Menge der möglichen Vorbedingungen enthalten, so ist der zu prüfende Abschnitt korrekt.“ aus: http://www.fh-wedel.de/~wol/seminar/gruppe9-10/axiom.html, Februar 2000. Vgl. Balzert: Software-Entwicklung, 2000. S. 224 ff. Balzert: Software-Entwicklung, 2000. S. 224. Vgl. ebd.: Nach Balzert werden „semantische Datenmodellierungen“ genutzt, die auf einem „Entity-Relationship-Modell (kurz: ER-Modell oder ERM)“ beruhen, das „um die Konzepte Aggregation und Vererbung“ erweitert wurde. „Ziel des ER-Modells ist es, die permanent gespeicherten Daten und ihre Be-

99

Kommunizierende Automaten definierter Ausdruck erhält zumindest in diesem einen Programm eine feste Bedeutung zugeschrieben. Gleichwohl werden durch diese semantischen Invarianzen nicht die Bedeutungsveränderungen eliminiert, die durch kommunikative Verbindungen von Programmen und den damit verbundenen Austausch von Daten entstehen können. Das Jahr-2000-Problem hat deutlich gemacht, dass viele Programme, bereits durch eine abweichende Notation eines so einfachen Wertes, wie es ein Datum nun einmal darstellt, nicht mehr korrekt arbeiten konnten und der sie steuernde Programmtext jeweils geändert werden musste. Diese sich durch eine einfache Ursache einstellende Irritation des Automatentextes und die (noch) gänzlich fehlende maschinelle Prüfung auf pragmatische Korrektheit lassen vermuten, dass die modernen Gesellschaften erst am Anfang jener Entwicklung stehen, die durch die Möglichkeiten zur Verschriftung von Handlungsanweisungen für Automaten eingeleitet wurde. Auch hier werden Regeln zum besseren Gebrauch der Sprache entwickelt werden müssen. Flussers Annahme, dass zunächst erst eine neue Theorie über die Möglichkeiten der Nutzung programmierbarer Medien als Vorbedingung zu deren Gebrauch entwickelt werden müsste, hat sich, wie das Fehlen von Semantik- und Pragmatik-Modellen zeigt, nicht bestätigen lassen.141 Die modernen Gesellschaften haben mit der Verschriftung von Handlungsanweisungen begonnen, ohne eine entsprechende Theorie entwickelt zu haben. Diese Leistung muss noch erbracht werden.

Unscharfe Regeln – Der Automat wägt Möglichkeiten ab Die Regeln, die im syntaktischen Gerät, das semantische Aspekte berücksichtigen und pragmatische Erwartungen erfüllen muss, dem Automaten, zur Anwendung kommen, betreffen, wie oben gezeigt werden konnte, in erster Linie die sprachliche Gestaltung der Anweisungen. Darüber hinaus gibt es eine weitere Art von Regeln, die in einem direkten Bezug zum Handeln der Automaten stehen. Hiermit sind an dieser Stelle die Aufgabenstellungen gemeint, für die sich wegen ihrer Komplexität, die Anwendung der üblichen Schritt-für-Schritt-Anleitung nicht eignet bzw. nicht eignen kann, da die Lösung des Problems im Sinne einer umsetzbaren und ausführbaren Programmierung – zum Beispiel aus

141

ziehungen untereinander zu beschreiben.“ Vgl. zur semantischen Datenmodellierung auch ebd. S. 252 ff. Flusser: Schrift, 2002. S. 136.

100

Die Bedeutung von Sprache, Text und Programm Gründen des Zeitbedarfs – nicht handhabbar ist. Überspitzt gesagt: Bevor der auf übliche Weise gesteuerte Automat nach dem Durchlaufen aller Schleifen und Entscheidungswege handeln würde, wäre die Welt schon untergegangen oder doch zumindest die zu lösende Aufgabe nicht mehr aktuell. Es werden also Regeln zur Steuerung des Automatenhandelns benötigt, die explizit in Sprache gefasst werden können, die es dem Automaten jedoch gestatten, in einem gewissen Sinne unvorhersagbar zu entscheiden. Hopcroft et al. verweisen in diesem Zusammenhang auf Handlungsprobleme, deren ausführbare Schritte im einzelnen nicht vorab festgelegt, das heißt nicht dezidiert verschriftet werden können. Für viele dieser Aufgabenstellungen sollen jedoch automatische Lösungen gefunden werden. Es ist hier stets die Frage zu stellen, ob die Aufgabenstellung als unlösbar abgetan wird „oder ob wir eine Möglichkeit finden müssen, das nicht handhabbare Problem zu umgehen: durch eine Approximation, die Verwendung einer Heuristik oder durch eine andere Methode, um die Menge an Zeit zu beschränken, die das Programm zur Lösung des Problems aufwendet.“142 Die Regeln, die hier angewandt werden, entstammen der Mathematik. Die verschrifteten Anweisungen werden dazu genutzt, dem Automaten die Möglichkeit zu geben, zum Beispiel durch die Annäherung an eine Problemlösung oder durch Auswahlverfahren die richtige Vorgehensweise zu finden. In Bezug auf das im vorigen Kapitel geschilderte Problem des richtigen semantischen Gebrauchs eines Wortes oder Wertes stellen diese Regeln eine Erhöhung der Komplexität des automatischen Sprachgebrauchs dar. Der Datentext, die Annäherung an die richtige Erkenntnis der Bedingungen im Zustandsraum der Maschine und die die Verarbeitung steuernden Formeln müssen in ihrem Gebrauch aufeinander abgestimmt sein. Wilfried Brauer gibt ein Beispiel einer zunächst als nicht handhabbares Problem erscheinenden Aufgabenstellung. Er erwähnt die Auswertung von Kräften, die während einer Autofahrt entstehen können und von Automaten als Daten gemessen werden. Die Automaten haben die Aufgabe, in das Fahrgeschehen einzugreifen, wenn gewisse Risikowerte überschritten werden. Die übliche Konstruktion der Programme reicht nicht aus, um in der extrem kurzen Zeit die Umweltdaten des Fahrzeugs richtig und vollständig zu bewerten, maschinelle Entscheidungen zu treffen

142

Hopcroft: Automatentheorie, 2002. S. 12.

101

Kommunizierende Automaten und zu handeln. Zur Lösung dieser zeitkritischen Aufgabe bedarf es eines anderen Vorgehens. Der abzuarbeitende Steuerungstext muss „auf unscharfe Entscheidungskriterien, also auf FuzzyLogik und Fuzzy-Regelung“ zurückgreifen und diese anwenden.143 Hier fällt auf, dass die oben diskutierte syntaktische und semantische Korrektheit gegeben sein muss und gleichzeitig der Automat bzw. das in ihm arbeitende Programm unscharfe Regelungen anwenden soll. Der Automat wird und soll seine eigenen Wege gehen, damit die Aufgabe zeitgerecht und automatisch erledigt werden kann. Damit der Automat diesen Weg gehen kann, müssen die entsprechenden Regeln zum Verständnis unscharfer Entscheidungssituationen programmiert werden. Es werden Regeln in Automaten implementiert, die es dem Programmierer nicht mehr erlauben, definitiv vorher zu sagen, wie eine Maschine reagieren wird. Die aufgrund der Annäherungs- oder heuristischen Regeln getroffenen Automatenentscheidungen werden trotz bester Programmierung und fehlerloser Hardware des Automaten nicht immer vollständig logisch nachvollziehbar sein. Verstärkt werden diese Freiheiten des Automaten (gemeint sind die nicht vorhersagbaren Handlungen), wenn dieser seine Entscheidungen aufgrund von Erfahrungswerten trifft. Brauer führt aus, dass diese in der Regel in einer Datenbank abgelegt sind, die die Ergebnisse früherer Entscheidungen enthält.144 Dieses sich selbst rückkoppelnde System bietet Chancen, weist aber auch Lücken auf. Die Chancen bestehen darin, dass die aus Handlung resultierenden Erfahrungen viel exakter auf bestimmte Bedingungen der aktuellen Situation angewandt werden können. Doch es besteht auch die Gefahr, dass dem System aufgrund der Beschränktheit der semantischen Bedeutungsvariationen nicht alle entscheidungsrelevanten Daten der Außenwelt in der richtigen Bedeutung übermittelt werden. Das System kann diese Daten daher nicht immer richtig berücksichtigen. Die gegebenen Umweltfakten werden nicht zu eingelesenen Daten und fehlen zur Begründung einer vollständig rational nachvollziehbaren Entscheidung und Handlung. Das Jahr-2000-Problem hat gezeigt, wie rasch ein nicht richtig verstandener Wert im Zustandsraum der Maschine zu Fehlern in der Verarbeitung und damit zu enormen Risiken führen kann. 143

144

Brauer, Wilfried: Informatikbetrachtungen. Versuch einer Beschreibung des Fachs Informatik. S. 28. In: Desel: Informatik, 2001. S. 117 – 134 (Brauer: Informatikbetrachtungen, 2001.) Vgl. Brauer: Informatikbetrachtungen, 2001

102

Die Bedeutung von Sprache, Text und Programm In der oben geschilderten unscharfen Steuerung der Maschine fließt eine menschliche Verhaltensweise in maschinelles Handeln ein. Der Automat rechnet mit Annäherungen, heuristischen oder anderen mathematischen Methoden. Der programmierende Mensch überträgt auf den Automaten Eigenschaften, die als zutiefst menschlich galten: Aus der – auf eine Datenbank gestützten – Erfahrung werden die notwendig lückenhaft bleibenden Abschätzungen der Umweltbedingungen ergänzt und die wahrscheinlich beste Lösung ausgewählt. Die prinzipielle Unberechenbarkeit soll mit dem menschlichen Vorgehen des sich Erinnerns ausgeglichen werden. Je komplexer die Umwelt ist, die untersucht werden muss, je kürzer die Zeit ist, die zur Verfügung steht, je mehr Unbekannte berechnet werden müssen, desto stärker gleicht sich das Verhalten des Rechners jener Situation an, die er ursprünglich verbessern sollte. Anstatt rein formallogisch zu handeln, ruft er Daten ab, die ihm helfen sollen, in einer nur unzureichend erfassten Situation das Richtige zu tun. Die aufgrund von unscharfen Entscheidungskriterien handelnden Automaten sind allerdings auch Zeugnis für die menschliche Fähigkeit, Probleme, die nicht handhabbar zu sein schienen, zu lösen. Ähnlich wie die auf übliche Weise konstruierten Programme niemals alle Eventualitäten eines Programmablaufs werden berücksichtigen und im Anweisungstext werden abdecken können, so werden die eingesetzten, auf Fuzzy-Logik beruhenden Programme niemals für alle möglichen Umweltkonstellationen stets die richtige Lösung benennen können. In menschlichen Kategorien ausgedrückt: Die Automaten werden irren. Dieses Irren ist aber nicht (mehr) die falsche Entscheidung eines Automaten, gemäß dem Satz: Da wurde ein falsches Programm erstellt. Vielmehr ist dies das Scheitern eines handlungsbeauftragten Automaten an der Komplexität Welt oder an einer unlösbaren Aufgabe. Ein Scheitern, das menschlicher kaum denkbar ist. Der oben geschilderten Anpassung des Denkens145 an die von einer digitalen Maschine geforderte Logik steht in den auf FuzzyLogik beruhenden Handlungen die partielle Angleichung der Maschine an den Menschen gegenüber. Wenngleich auch Steinmüller zuzustimmen ist, der dem Automaten allenfalls zutraut, „von den Tiefen des menschlichen Geistes (und Körpers) allenfalls einige formale Strukturen simulieren oder imitieren“ zu können.146

145 146

Vgl. hierzu die Ausführungen in dieser Arbeit S. 185 ff. Steinmüller: Informationstechnologie, 1993, S. 329 f.

103

Kommunizierende Automaten

Text – Verbindung von formalen Sprachen und operativen Schriften Die ausführbaren Kalküle der kybernetischen Maschinen werden in Worten und Regeln erstellt, die definierte Teilmengen formaler Sprachen sind. Erdacht werden die Handlungsanweisungen in der Umgangssprache. „Ohne Umgangssprache nämlich wäre eine Kalkülsprache nicht aufzubauen, ohne sie wäre nicht deutlich zu machen, wofür ein Kalkül eine repraesentatio leisten soll.“147 Das Entwerfen und Schreiben von Automatentexten benötigt jedoch andere Einsichten und Fähigkeiten als es das Externalisieren von Gedanken verlangte, obwohl in gewisser Weise eine ursprüngliche Verwandtschaft zwischen dem Prozess des Schreibens und dem Programmieren kybernetischer Formeln besteht. Volmert führt über das Schreibenlernen „in natürlichen Kommunikationssituationen“148 aus: „Bezieht man alle kognitiven Instanzen in die Betrachtung ein, die an der Produktion schriftsprachlicher Texte beteiligt sind, so erscheint diese als ein quasikybernetischer Prozess, als ein Durchlaufen verschiedener Regelkreise.“149 Die Komplexität der Erstellungs- und Prüfprozesse und die Anzahl der zu durchlaufenden Regelkreise sind im Rahmen des Schreibens für künstliche Kommunikationssituationen umfangreicher. Der Text, der als operative Schrift auf die Automaten übertragen wird, kann sich aus diesem Grund als dynamische Verschriftung umso mehr vom Verfasser des Textes lösen, je mächtiger und kommunikativer das Informatik-System ist. Die Planer und Schreiber von Automatenprogrammen müssen Kulturtechniken lernen, die über das Niederschreiben gesprochener Sprache hinausgehen, weil sie selbst durch den Einsatz von Automaten neue Kommunikationstechniken anwenden. Die der Verschriftung im Rahmen der experimentellen Epistemologie zugrundeliegenden Vorstellungen der maschinellen Rezeption, Interpretation und des Handelns äußern sich zunächst als Ideen oder Wünsche. Wie in der Turing-Maschine der Automat das Band auf Wunsch bewegen soll, so entsteht aus dem Verlangen der Handlungsdelegation jener Text, welcher der Maschine jene Anweisungen geben soll, die regeln, was sie wann wie zu tun hat. Wünsche werden zu Worten, Worte zu Sätzen, Sätze zu 147

148 149

Poser, Hans: Zeichentheorie und natürliche Sprache bei Leibniz. In: Koch, Peter, Krämer, Sybille (Hrsg.): Schrift, Medien, Kognition. Über die Exteriorität des Geistes. Probleme der Semiotik, Band 19. Tübingen, 1977. S. 127 – 147. (Poser: Zeichentheorie, 1997.) S. 140 Ebd. S. 257. Ebd. S. 256.

104

Die Bedeutung von Sprache, Text und Programm Texten, Texte zu rekursiven Textgebilden. Die digitale Schrift dynamisiert den Text zur Handlung. Die Entwicklung von Automatenprogrammen umfasst daher mehr als die Äußerung von Befehlen und die ungefähre Vorstellung von geplanten Abläufen, wie sie in der natürlichen Kommunikation vorkommen. Auf vielfältige Weise müssen in den Entwicklungsarbeiten die angestrebten Handlungsziele, die Kommunikation der Maschinen mit dem Menschen, die Kommunikation der Automaten untereinander sowie die maschinelle Verarbeitung der eingelesenen und berechneten Werte vorausgesehen werden. Helmut Balzert fasst die Entwicklung von Steuerungsprogrammen (die Software-Entwicklung) in den erweiterten Rahmen einer Software-Technik: „Die Software-Technik selbst lässt sich in drei Teildisziplinen gliedern: • die Software-Entwicklung, • das Software-Management, • das Software-Qualitätsmanagement. Die (technische) Software-Entwicklung hat die Aufgabe, ein Produkt zu planen, zu definieren, zu entwerfen und zu realisieren, das die geforderten Qualitätseigenschaften besitzt und die Kundenwünsche erfüllt.“150

Der Auftraggeber muss sich, möchte er einen Programmauftrag erstellen, einer besonderen Betrachtungsweise beugen: Er muss Ablaufpläne generieren und „mathematical notation in formal specification“151 durchführen, also Aufgaben erledigen, die möglicherweise auch in Zukunft Spezialistentum bleiben werden. Dieser Frage geht Kate Finney nach und fragt, ob diese Tätigkeit „Too Difficult for the Masses?“152 sei. Die Formalisierung von Problemstellungen in abstrakte Anweisungen und die Handhabung symbolischer Ausdrücke scheinen für die breite Masse der Bevölkerung Stolpersteine bzw. kaum zu überwindende Hindernisse darzustellen. „The formalization of problems into abstract statements and the manipulation of symbolic expressions seem to be real stumbling blocks to the vast majority of the population“.153 Dem von Finney und anderen durchgeführten Experiment in der School of Computing and Mathematical Sciences, Greenwich,

150

151

152 153

Balzert: Software-Entwicklung, 2000. S. 39. Darin auch eine umfangreiche Literaturliste zum Thema Software-Entwicklung auf den Seiten 46 – 49. Vgl. den Titel des Aufsatzes: Finney, Kate: Mathematical notation in formal specification. Too difficult for the masses?. In: IEEE Transactions on Software Engeneering, Jg. 22, 1996, Heft 2. S. 158 – 159. (Finney: Mathematical, 1996.) Ebd. S. 158. Ebd.

105

Kommunizierende Automaten London, kommt im statistischen Sinne keine signifikante Bedeutung zu. Dennoch geben die Ergebnisse Hinweise darauf, dass auch in Kreisen, die an Computerprogrammierung besonders interessiert sind, die formalen Anforderungen unterschätzt werden. Die Anforderung an die Programmierung von Automaten verlangt im Hinblick auf die Strukturierung und die Formalisierung der Niederschrift eine besondere Einübung: „The familiarity with notation and structure that comes naturally to them takes time, training, and practice to acquire.“154 Diese durch Übung ausgeprägten Fähigkeiten werden in allen Stufen der Computerprogrammierung benötigt. Diese umfassen in der Regel a) die Analyse und Notierung der Anforderungsspezifikationen, b) die Niederschrift in Programmcode und c) das (Korrektur-)Lesen des Programmcodes mit Blick auf die zugrunde liegenden Anforderungen der Auftraggeber.155 Finney erläutert diese Vorstellung an drei Phänotypen von Anwendern: den Analytikern, den Codierern und den Systemtestern, „those who write the specifications, those who interpret and try to implement them in code, and those who need to read the specification to check it has captured the client´s requirements.“156 Sie setzt sich in ihrer Untersuchung mit der Annahme auseinander, dass die Anforderungen zur Ausübung der neuen kulturellen Technik, der Verschriftung von Anweisungen für Automaten, – das Interesse der Lernenden vorausgesetzt – rasch erfüllt werden könnten. „However,” führt sie über die Vermutungen aus, „the assumptions made are that with a short period of training […] they will quickly feel comfortable with the concepts and expressions and be reading or writing specifications“.157 Ebendiese Annahme hat sich durch ihre Untersuchung nicht erhärten lassen. Das Schreiben und Lesen von formalen Aussagen fällt auch jenen nicht leicht(er), die eine mathematische Vorerziehung aufweisen. Meines Erachtens drückt sich in Finneys Untersuchungen aus, dass eine neue Kulturtechnik abseits der Schreib und Denkweise der natürlichen Sprache sowie auch abseits der Mathematik entstanden ist. Sie fasst das Ergebnis ihrer Arbeit folgendermaßen zusammen: „A small experiment in reading specifications revealed that students already trained in discrete mathematics and the specification notation performed very 154 155 156 157

Ebd. Vgl. ebd. Ebd. Ebd.

106

Die Bedeutung von Sprache, Text und Programm poorly; much worse than could reasonably be expected if formal methods proponents are to be believed.“158. Diese neue Technik der Verschriftung grenzt sich von den bisherigen Formen der Verschriftung, auch der Notation in mathematischen Formeln, ab.159 Grenzen entstehen nicht (nur) durch die Fremdheit der Programmiersprache, die zur Steuerung eines Automaten erlernt werden muss. Die Grenzen entstehen durch die umfassenden Spezifikationen, die notwendig zu bedenken und zu entwerfen sind, damit der auszuführende Algorithmus in Form einer wie auch immer gearteten Sprache ausführbar beschrieben werden kann. Das Programmieren eines Rechners ist kein Rechnen, und mit dem Schreiben von Anweisungen für Automaten entsteht keine Literatur. In Abwandlung eines weiter unten zitierten Wortes von Sibylle Krämer160 über die Welterzeugung, die mit Medientechnologien erreicht wird, möchte ich formulieren: Das Schreiben für einen Automaten bedeutet Weltinterpretation, programmierte Entscheidung, Verarbeitung und Handlung. Es ist letztlich ein Akt der bedingten und folgenreichen, konditionierten Welterzeugung. Das ist der schöpferische Vorgang im Rahmen des Programmierens. Auf diesen wird unten in der Arbeit detailliert eingegangen. Die sprachlichen Anforderungen und Fremdheiten, welche die Automatensteuerung erfordert, werden nicht durch die Programmiersprache oder die Formelhaftigkeit einer experimentellen Epistemologie aufgenötigt. Vielmehr ist es der Steuerungsprozess selbst, der neue Ansprüche an Eindeutigkeit, Zielsicherheit und Vollständigkeit der Verschriftung stellt. Der durch Automaten zu verarbeitende Text dient einerseits zur Speicherung von Daten und andererseits zur Steuerung ihrer Verarbeitungsprozesse. Unter dem Begriff ‚Text’ soll in dieser Arbeit in Anlehnung an Klaus Brinker „eine begrenzte Folge von Zeichen“ verstanden werden, „die in sich kohärent ist und als Ganzes eine erkennbare kommunikative Funktion signalisiert“.161 Diese Definition betrachtet die „Grundpositionen der Textlinguistik“, den sprachsystematisch ausgerichteten und den kommunikationsorientierten Ansatz, als „komplementäre Konzeptionen“.162 158 159 160 161

162

Ebd. Vgl. Fischer: Schrift,1997. Vgl. Krämer: Medium, 1998. S. 85. Vgl. in dieser Arbeit auch die Ausführungen auf S. 161. Brinker, Klaus: Linguistische Textanalyse. Eine Einführung in Grundbegriffe und Methoden. Reihe: Reihe Grundlagen der Germanistik, Band: 29. Berlin 62005. S. 17. (Brinker: Textanalyse, 2005.) Ebd.

107

Kommunizierende Automaten Mit diesem Textbegriff werden auch die Texte erfasst, die für Automaten geschrieben werden. Der Textbegriff ist in seiner Verwendung vieldeutig. Wie Margot und Wolfgang Heinemann in ihren „Grundlagen der Textlinguistik“ ausführen, lassen sich „mühelos Hunderte von Textdefinitionen“163 finden. Dennoch trüge eine solche Aufstellung nur wenig zu einem besseren Verständnis des Textbegriffes bei, der im Hinblick auf das Automatenhandeln als Verständnisgrundlage genutzt werden kann, da die meisten Textdefinitionen die natürliche Kommunikationssituation voraussetzen.164 Die in diesen Definitionen aufgestellten Annahmen über den Textbegriff können nur in Form einer Übertragung für den Bereich der Automatentexte gelten. Diese Ergänzung betrifft die Sprachlichkeit der in einem Text verwendeten „Folge von Zeichen“ (Brinker). In dieser Arbeit wird nicht „von einem weiten Textbegriff“ ausgegangen, der „die Gesamtheit aller Signale in der Interaktion“ einbezieht, sondern es wird in Anlehnung an Heinemann „eine engere Textauffassung“ vertreten, „nach der nur sprachlich geprägte kommunikative Signalketten unter diesem Terminus zusammengefasst werden“.165 Die codereflexive Form, in der Automaten Daten bearbeiten und übergeben weist auf Überlegungen zum Begriff der Kohärenz hin, welche die Textlinguisten Robert-Alain de Beaugrande und Wolfgang Ulrich Dressler formuliert haben.166 Ein Text, im Rahmen des Jahr-2000-Problems ein Automatentext mit einem Datum, erschließt nach der Auffassung Beaugrandes seinen Sinn nicht von selbst, sondern durch die Interpretation der textimmanenten Aussagen vor dem Hintergrund eines umfassenderen Zusammenhangs. Dieser umfassendere Zusammenhang ist für die Automaten durch den in Sprache umgesetzten Algorithmus definiert. In diesem durch Sprache vorgegebenen Rahmen finden

163

164

165 166

Heinemann: Textlinguistik, 2002. S. 96. Vgl. zur Geschichte der wissenschaftlichen Definitionen des Begriffs Text neben Heinemann: Textlinguistik 2002; auch Brinker: Textanalyse, 2005 und Vater, Heinz: Einführung in die Textlinguistik. Reihe: Uni-Taschenbücher, Band: 1660. München 32001. (Vater: Textlinguistik, 2001.) Vgl. die Ausführungen in a) Heinemann: Textlinguistik, 2002. S. 4 ff. sowie b) Brinker: Textanalyse, 2005. S. 12 f.: „Bei aller Unterschiedlichkeit im einzelnen definieren diese linguistischen Forschungsrichtungen das Sprachsystem (Langue, Kompetenz) als ihren spezifischen Untersuchungsgegenstand und verstehen darunter den Sprachbesitz einer Gruppe, das einzelsprachliche System von Elementen und Relationen“. Heinemann: Textlinguistik, 2002. S. 96 f. Beaugrande, Robert-Alain de und Wolfgang UlrichDressler: Einführung in die Textlinguistik. Reihe: Konzepte der Sprach- und Literaturwissenschaft, Band: 28. Tübingen 1981. (Beaugrande: Textlinguistik, 1981.)

108

Die Bedeutung von Sprache, Text und Programm

die Vorgänge der Textinterpretation und der Kommunikation statt. Beaugrande fasst den Vorgang in Bezug auf die menschliche Kommunikation Vorgang so: „Ein Text ergibt nicht von selbst Sinn, sondern eher durch die Interaktion von Textwissen mit gespeichertem Weltwissen der jeweiligen Sprachverwender.“167 Der Sprachverwender in der Automatenkommunikation ist das Zielprogramm, also das Programm, das mit seinem Textwissen Sinn aus dem übergebenen Datum herstellen soll. Die Anforderungen an einen kohärenten Gebrauch steigen mit der Anzahl der Kommunikationssituationen. Mit der Aufgabe zur Lösung der Kommunikationsaufgaben von Automaten verbindet sich die weit reichende Anforderung, den Ablauf einer Automatenkommunikation vollständig zu überblicken. Hierzu sind laut IBM eine strategische Planung, die Bereitstellung von ausgebildeten Menschen und von technischen Ressourcen in entsprechender Zahl und Qualität vonnöten. Darüber hinaus ist eine umfassende Umsetzungsstrategie, die Testphasen zur kommunikativen Datenumwandlung beinhaltet, unabdingbar.168 Programmierer benötigen neben einem Übersetzungsprogramm, einem Compiler, der nur ein Teil dessen ist, was „programmers need today to develop“, auch „tools that generate statistics form code; modularize, migrate, or restructure code; or search class libraries“.169 Die von IBM angesprochenen Unterstützungswerkzeuge weisen darauf hin, dass zur Produktion von durch Maschinen ausführbarem Code wiederum Automaten und deren Programme benötigt werden. Um einen Text in einer Sprache zu erstellen bzw. zu ändern, der durch ein anderes Medium (Compiler) übersetzt wird, um wiederum von einem anderen Medium (Automat) ausgeführt werden zu können, bedarf es technischer Unterstützung von weiteren technischen Medien (Hilfswerkzeuge, tools), die den erstellten Text in Abschnitte aufteilen (modularize), in andere Textformen übertragen (migrate), neu zusammenstellen (restructure) oder bestimmte Funktionen in andere Programme, so genannte Bibliotheken, auslagern (Beispiel: search class libraries). Die Struktur dieser Texte ist auch für den Schöpfer der Lösungsalgorithmen oder den Programmierer selbst kaum mehr ohne Hilfsmittel zu durchschauen. Die Programmtexte folgen durch die Art und Weise, wie sie erstellt werden, der oben angesprochenen Tendenz, sich vom Emittenten zu lösen. 167 168 169

Ebd. S. 8. Vgl. IBM: Year 2000, 1997. S. 2-5. Ebd.

109

Kommunizierende Automaten Auch hierin zeigen sich für Zemanek Parallelen der Automatentexte zur formalen Notation im Bereich der Physik und der Mathematik: „Natürlich hat die mathematische Formel eine Bedeutung, aber diese kann auf Zeichenmechanismen zurückgeführt werden.“170 Doch auf der Ebene der Handlung, die von den Automaten selbstständig ausgeführt wird, differenziert sich das Bild: Durch die Handlung der Automaten kommt eine weitere Dimension hinzu. Die Automaten nehmen – die vorgefundenen oder übermittelten Daten verarbeitend – durch die Kommunikation zwischen Programmbestandteilen eines oder mehrerer Automaten Werte auf und verhalten sich nach dem eingegebenen Algorithmus. Durch diese pragmatische Wendung schaffen die Automaten neue Wirklichkeiten.171 Sie fügen den syntaktischen Zeichenmechanismen die Ebenen der Semantik und Pragmatik hinzu. Abweichungen von der Intention des Emittenten dürfen unter der Herrschaft der Maschinen weder bei der Interpretation der Daten noch bei deren Verarbeitung auftreten. Die epistemische Anweisung hat es jedoch nicht nur mit der syntaktischen Dimension einer Aussage zu tun, sondern muss dem intendierten Sinn entsprechen, ohne den Sinn einer Handlung selbst bestimmen oder evaluieren zu können. Die entkoppelten Dimensionen der Mitteilung treten durch die Handlung wieder in Beziehung. Sprachwissenschaftlich gewendet, bedeutet dies, „dass jeder Satz eine kognitive Repräsentation (die Tiefenstruktur) und eine tatsächliche Ausprägung (eine Oberflächenstruktur) aufweist“.172 In Bezug auf die Automatenanweisungen kann die Trennung von Oberflächenstruktur und Tiefenstruktur an Microsofts Beispiel für die unterschiedliche Interpetation der syntaktisch gleichlautenden Datumsangabe aufgezeigt werden. Die Formulierung des Befehls „prüfe, ob es jetzt Nacht ist“ (in einer Programmiersprache beispielsweise als Formel „Get Date/Time“ ausgedrückt) kann unterschiedlich interpretiert werden, „in Abhängigkeit davon, […] welche Datumseinstellungen zur Kompilierzeit wirksam waren“.173 Dieselbe Oberfläche einer Aussage kann tiefenstrukturell zu anderen Aussagen führen. Hintergrund der unterschiedlichen Interpretation sind nicht wie in der menschlichen Kommunikation beispielsweise die unterschiedlichen Interpretationen einer Situa170 171 172 173

Zemanek: Information, 1986. S. 25 Vgl. Krämer: Medium, 1998. S. 85. Ernst: Sprachwissenschaft, 2004. S. 147 f. Microsoft: XNA Developer Center. MSDN Library: Visual FoxPro 7.0: Datumsunterstützung für das Jahr 2000. In: http://msdn.microsoft.com/de-de/library/aa695166(VS.71).aspx (Zugriff 6.5.2009.)

110

Die Bedeutung von Sprache, Text und Programm tion, sondern die differierenden maschinensprachlichen Konventionen. Die identische Oberfläche einer maschinentauglichen Formel kann im Handlungsbereich der Automaten zu unterschiedlichen Handlungen führen. Die mögliche Divergenz von Oberflächen- und Tiefenstruktur einer maschinellen Aussage wird logischerweise dadurch gesteigert, dass Aussagen zwischen Programmen ausgetauscht werden, die in unterschiedlichen Programmiersprachen geschrieben wurden. Über die Überlegungen der Textpragmatiker aus den frühen 1980er Jahren zu varianten Oberflächenstrukturen schreiben Linke et al. „diese erscheinen, indem sie auf dieselbe D-Struktur zurückgeführt werden können, als syntaktisch verwandt, als syntaktische Variationen einer gleichen Grundstruktur“.174 Auch Zemanek betrachtet die Oberflächenstruktur eines Textes, die bei ihm allerdings „syntaktisches Modell“ lautet, von der Tiefenstruktur her – bei Zemanek „Bedeutungszusammenhang“ –: „Die Situation ist deshalb so kompliziert, weil man von Bedeutungszusammenhängen syntaktische Modelle machen kann – die Mathematik ist das fundamentale Beispiel für diese Vorgangsweise – und innerhalb des Modells bewegt sich der Computer mit der ihm eigenen Perfektion.“175

Wird in Bezug auf ein rezipierendes Programm eine falsche Oberfläche gebildet, wird zum Beispiel ein Datums-Ausdruck falsch, also anders als vorhergesehen, geschrieben, scheitert die Rekonstruktion von Bedeutung innerhalb des vorgegebenen Interpretationsmodells. Die sprachliche Darstellung im Kontext der Automatenkommunikation wirft die Frage auf, ob es überhaupt stets möglich ist, die Eindeutigkeit und intersubjektive Gültigkeit von Messverfahren herzustellen. Die Programme der Automaten erlauben diesen, Aussagen, die sie von außen erhalten oder eigenständig erstellen, zeit- und raumversetzt zu bewerten. Der Programmierer steht somit in der Pflicht, alle möglichen maschinellen Interpretationen eines eingegebenen Datums vorherzusehen und bereits im Vorfeld alle richtigen Antworten zu geben. Hat der Buchdruck die Beteiligung der Menschen an einer mündlichen Kommunikation erkennbar beseitigt, so ist in der Automatenkommunikation der menschliche Autor des Programms aus dem verselbständigten automatischen Entscheidungs- und Handlungsprozess ausgeschlossen. „Erst der Buchdruck multipliziert das Schriftgut so stark, daß eine mündliche Interaktion aller an Kommunikation 174 175

Linke: Linguistik, 2004. S. 140 f. Zemanek: Information, 1986. S. 40

111

Kommunizierende Automaten Beteiligten wirksam und sichtbar ausgeschlossen wird.“176 Der mit dem Buchdruck eingeschlagene Prozess wird in der Kommunikation der Automaten auf eine höhere Stufe gehoben. Die Sprache, die die Automaten steuert, muß alle notwendigen Formalisierungen schon zum Zeitpunkt der Niederschrift beinhalten, damit alle referentiellen Interpretationsleistungen für jeden möglichen Zustand der Maschine kalkulierbar werden. Jede Abweichung von der sprachlichen Konvention kann zu Verarbeitungsfehlern führen. Daher ist es nachvollziehbar, dass die Angaben über Zeit und Raum, über Personen und Waren usw. für alle an einem Prozess beteiligten Maschinen weitgehend eindeutig sein müssen. Jedoch überblickt der einzelne Programmierer in der Regel nicht alle Applikationen bzw. Programmteile, die an einem Verarbeitungsprozess beteiligt sind.177 Noch viel weniger kann er voraussehen, welche Programme und maschinellen Systeme in Zukunft noch hinzukommen. Die Texte, die er zur Steuerung der Automaten schreibt, unterliegen stets der Gefahr, der geforderten und unabdingbar notwendigen Eindeutigkeit zu entbehren. Das Einhalten der sprachlichen Konvention in der Automatenkommunikation im Hinblick auf Syntax, Semantik und Pragmatik ist damit gefährdet. Dass diese Gefährdung bereits in einem Programmbereich auftrat, der durch einen vorsehbaren und jedem bekannten Zustand, den Jahrtausendwechsel, gekennzeichnet war, lässt vermuten, dass ähnliche Gefährdungen in jenen Bereichen, die nicht kalendermäßig eintreten werden, zu erwarten sind. Eine fehlerhafte Formalisierung, ein damit verbundenes falsches Interpretieren der operativen Zeichen, kann in programmierten Anweisungen an Maschinen nur schwer vorhergesehen und bearbeitet werden. Automaten halten widersprüchliche Angaben in Bezug auf ihre Entscheidungskompetenz nicht aus. Daher ist die Form der Wahrnehmung, welche die Menschen leisten und die sie zu Urteilen führen, im Reich der Automaten in einem radikalen Sinn diskreditiert. Die Automaten verlangen nach einem Maß, das die Welt widerspruchsfrei wiedergibt. „In diesem Sinn ist 2 + 2 = 4 echte Erkenntnis, eine Behauptung jedoch wie ‚Der Schnee ist weiß’ enthält soviel Unklares und

176 177

Luhmann, Niklas: Die Realität der Massenmedien. Opladen 1996. S. 34. (Luhmann: Massenmedien, 1996.) Vgl. Balzert: Software-Entwicklung, 2000, die Ausführungen in dem Kapitel „Warum ist Software so schwer zu entwickeln?“ auf S. 26 ff.

112

Die Bedeutung von Sprache, Text und Programm Unbestimmtes, daß der Philosoph sie nicht in seinen Bestand von Wahrheiten aufnehmen kann.“178 Der Hinweis Russells auf die nach Plato echte Erkenntnis in der formalisierten Aussage 2 + 2 = 4 führt zur Frage nach der Sprache, in der diese Aussage gemacht wird. Sie selbst ist bereits von Annahmen und Setzungen, von Konventionen geprägt. Besonders die theoretische Wissenschaft der Mathematik hat in ihrer Geschichte immer wieder neue Zeichen geschaffen und Verwendungsformen dafür willkürlich festgelegt. Es sind „die Mathematiker, die mit zusätzlichen Zeichen und geradezu verwegener Schreibweise – man denke nur an das Integral – immer rasch zur Hand waren“.179 Nicht die neu eingeführten, zum Teil verwegenen Zeichen sind es, die Irritationen auslösen können, sondern der nicht eindeutig formulierte Gebrauch der Zeichen. Das syntaktische Gerät, der Automat, verlangt die konsistente, interpretationsfreie und stets gleiche Verarbeitung der eingegebenen Zeichen. Der von Russell erwähnte „weiße Schnee“ wird durch einen Automaten richtig bearbeitet werden, wenn stets Klarheit darüber herrscht, was „weiß“ und was „Schnee“ ist, und welche eindeutigen Konventionen für den Gebrauch und die Verarbeitung der Aussage gelten. Treten durch die Oberflächenstruktur der Aussage „weißer Schnee“ im wahren Sinn des Wortes Verunreinigungen180 etwa durch sprachliche Konnotationen auf, wird die Aussage für die Kommunikation unter Automaten unbrauchbar. Die Konvention über Formulierung und Schreibweise des gewählten Maßes sind für die Kommunikation der Aussagen, der errechneten Werte von Bedeutung. Das als Maß gewählte Datum und seine Schreibweise, seine Transformation in Schriftzeichen, sind unauflöslich verbunden mit der Interpretation der Zeichen und damit mit dem pragmatischen Bezug. Wittgenstein fragt in seinen Philosophischen Untersuchungen nach der tatsächlichen Bedeutung von Worten und der Interpretation von Maßen in der Sprache. Weltbezug tritt bei Wittgenstein als logisches Konstrukte innerhalb der Sprache auf. Er setzt das

178

179 180

Russell, Bertrand: Philosophie des Abendlandes. Ihr Zusammenhang mit der politischen und der sozialen Entwicklung. Originaltitel: A History of Western Philosophy (erschienen 1945). München 71997. S. 99. (Russell: Philosophie, 1997.) Zemanek: Information, 1986. S. 39. Vgl. Derrida, Jacques: Die Schrift und die Differenz. Originaltitel: L´ecriture et la difference. Frankfurt am Main 51992. S. 196. (Derrida: Schrift, 1992.) Vgl. auch die Ausführungen in dieser Arbeit weiter unten.

113

Kommunizierende Automaten Konstrukt des logischen Schlusses als eine Übertragung einer sprachlichen Ausdrucksform in eine andere dar: „Das was wir ‚logischer Schluss’ nennen, ist nichts anderes als eine Transformation des Ausdrucks. Die Umrechnung von einem Mass auf ein anderes.“181 Die Wahrheit der Aussage ergibt sich nicht aus dem gewählten (und der vermessenen Welt entsprechenden) Maß, sondern aus der konsistenten Anwendung der sprachlichen Konvention. Gerade mit Blick auf die Physik, die „Ultraphysik“ und die Wahrnehmung einer „Ultraerfahrung“182 sowie auf eine Relativität der Messergebnisse zum Beispiel durch „Zollstäbe aus weichem Gummi“ schreibt Wittgenstein: „Man kann dann sagen: Was hier ‚messen’ und ‚Länge’ und ‚längengleich’ heisst, ist etwas Anderes, als was wir so nennen. Der Gebrauch dieser Wörter ist hier ein anderer, als der unsere; aber mit ihm verwandt und auch wir gebrauchen diese Wörter auf vielerlei Weise“.183 Der Gebrauch der Zeichen und die Transformation des Ausdrucks von einem Wert in einen anderen sind es, die in Bezug auf die Kommunikation der Automaten eindeutig festgelegt werden müssen. Die Entscheidung, was das Bessere ist, muss stets getroffen worden sein, bevor die Automaten ihre Wahrnehmung der Daten beginnen. Die Konvention über die Form einer Aussage muss auch deren Verständnis und damit deren Verarbeitung und das Einleiten und Ausführen von Handlungen eindeutig regeln – eine Eindeutigkeit, die beim Jahr-2000-Problem wegen eines in den Programmen nicht vorhergesehenen Datumswechsels nicht gegeben war. Zur Herstellung dieser Eindeutigkeit bedürfen die Programmierer der Kriterien und Maßeinheiten, die als Werte operationalisierbar sind. Entweder ist der Schnee durch den Einsatz des entsprechenden Maßes immer eindeutig als weiß zu bestimmen oder diese Aussage darf im Rahmen der Maschinensteuerung nicht benutzt werden. Die Interpretation der Aussagen muss nicht im Sinne des philosophischen Pragmatismus besser sein, sondern sie muss stets und immer aus einem definierten Bereich von invarianten Bedeutungen von Maßen abgeleitet werden. Es wird aufgrund der zunehmenden Komplexität der an Automaten übertragenen Entscheidungs- und Handlungsmacht immer aufwändiger werden, die richtigen sprachlichen Transfor-

181

182 183

Wittgenstein, Ludwig: Philosophische Untersuchungen. Kritischgenetische Edition. Hrsg. von Joachim Schulte. Frankfurt am Main 2001. S. 334 (Wittgenstein: Untersuchungen, 2001.) Ebd. Ebd. S. 335 f.

114

Die Bedeutung von Sprache, Text und Programm mationen vorherzusehen und programmsprachlich zu gestalten. Die verstärkte Rezeption einer Außenwelt, die sich in immer umfangreicheren Messergebnissen repräsentiert, umfasst immer mehr sensorische Bereiche. „Die digitale sensorische Datenerfassung kann über diese medialen Aspekte hinausgehen“184, und damit über die Wiedergabe eines digital gespeicherten Textes, Bildes, Tons. Wie Steinmüller verweist Coy auf die Rezeption von „Geruchsdaten“185. Diese „und andere vieldimensionale Analysen sind im Rechner speicherbar, transformierbar, auswertbar und in vielfältiger Form darstellbar.“186 Der mediale Bereich wird bei diesen Analysen ausgedehnt. Knut Hickethier sieht hier eine Grenze verletzt, physikalische Erscheinungen wie Wärme oder Objektbeschaffenheit nicht zum Gegenstand der Medien und damit der Medienwissenschaft zu machen. „Durch eine solche Überdehnung droht der Medienbegriff seine Prägnanz und seine Trennschärfe zu verlieren. Soll sich die Medienwissenschaft mit dem Medium ‚Wärme’ oder ‚Sand’ beschäftigen?“187 Die Objekte und Phänomene der Außenwelt sind nicht Gegenstand der Medienwissenschaft. Allerdings ist anzunehmen, dass Medienwissenschaft, Textlinguistik und Informatik sich mit der Transformation der Messergebnisse zunächst in Zeichenfolgen und darauf folgend in Kommunikationsprozessen und wiederum darauf folgend in Handlungen werden auseinandersetzen müssen. Denn aus den eingelesenen Daten werden durch Programmanweisungstexte Informationen gewonnen, die im Rahmen eines Kommunikationsaktes übermittelt werden und zu Handlungen veranlassen. Diese können darin bestehen, dass Menschen durch Automaten in medialer Transformation Hinweise gegeben werden, Gebäude zu verlassen oder andere Menschen zu töten.188 In der Fähigkeit der Auswertung eingelesener Daten liegt die Potenz der Automaten. Durch die Möglichkeit der vielfältigen Transformation der auf Messung beruhenden Aussagen und des Ziehens logischer Schlüsse189 beinhalten die maschinellen Wahr184 185 186 187 188

189

Coy: Vorgeschichte, 1999. S. 36. Vgl. ebd. und vgl. Steinmüller: Informationstechnologie, 1993. S: 328 Coy: Vorgeschichte, 1999. S. 36. Hickethier: Medienwissenschaft, 2003. S. 19 Vgl. hierzu Steinmüller: Informationstechnologie, 1993. S: 328 über die Messergebnisse von Automaten in kriegerischen Auseinandersetzungen. Die Automaten stellen in einer medialen Transformation die gemessenen Werte für menschliche Betrachter auf Bildschirmen oder als Zielkoordinaten für andere Automaten dar. Vgl. die Ausführungen oben soweie Wittgenstein: Untersuchungen, 2001. S. 334

115

Kommunizierende Automaten nehmungen der Außenwelt auch große Gefahren. Die nicht übereinstimmende Konvention über Maße, über die Form der Aussage oder über die Bewertung der Ergebnisse zwischen Programmteilen bzw. unterschiedlichen Programmen, die über Kommunikationskanäle miteinander verbunden sind, kann im Handeln durch die aufgetretenen Missverständnisse zu katastrophalen Folgen führen.

Automatentexte und Textlinguistik Eine ausführbare Verschriftung ist durch die Eigenschaft der durch sie selbst gesteuerten Ablaufunterbrechung bzw. –Ablaufänderung, durch Code-Reflexivität, geprägt. Einzelaussagen der programmierten Anweisungen verweisen über sich hinaus auf andere Bereiche der in typographischer Schrift festgehaltenen Formalisierungen, sie liegen aus diesem Grund stets als Text vor. An dieser Stelle ist der Begriff ‚Text’ in Bezug auf seine Verwendung in Informatik-Systemen zu präzisieren. Unter Beachtung der zuvor gemachten Ausführungen von Brinker, Heinemann, Trogemann, Tanenbaum und Godman sowie Goos möchte ich den Begriff ‚Text’ im Hinblick auf die Verwendung in Automaten nun folgendermaßen definieren: Text, der in Automaten (Informatik-Systemen) Verwendung findet, ist als eine begrenzte Folge von Zeichen zu verstehen, die in sich kohärent ist und der als Ganzes eine auch maschinell erkennbare kommunikative Funktion übertragen wurde. Er ist stets gekennzeichnet durch Sprachlichkeit und Schriftlichkeit.

Für die Analyse von Texten steht, „als eine relativ junge Teildisziplin der Linguistik“, „die Textlinguistik“ zur Verfügung.190 Auf die unterschiedlichen Positionen der Textlinguistik191, die „bereits eine beachtliche Entwicklung durchgemacht“192 haben, wird vor allem in direktem Zusammenhang mit der Darstellung, Bewertung und Interpretation von Automatentexten eingegangen. Kirsten Adamzik unterscheidet drei Hauptphasen der Textlinguistik: 1. den

190 191

192

Adamzik, Kirsten: Textlinguistik. Eine einführende Darstellung. Tübingen 2004. S. 1. (Adamzik: Textlinguistik, 2004.) Vgl. zur Textlinguistik a) ebd.; b) Brinker: Textlingusitik, 2000; c) Gansel, Christina und Frank Jürgens: Textlinguistik und Textgrammatik. Reihe: Studienbücher zur Linguistik, Bd. 6. Wiesbaden 2002. (Gansel: Textlinguistik, 2002.); d) Heinemann: Textlinguistik, 2002; e) Vater: Textlinguistik, 2001 sowie f) Beaugrande: Textlinguistik, 1981; g) Kallmeyer, W. u.a.: Lektürekolleg zur Textlinguistik. Bd. 1.: Einführung. Frankfurt am Main 1974. (Kallmeyer: Textlinguistik, 1974.) Vater: Textlinguistik, 2001. S. 8.

116

Die Bedeutung von Sprache, Text und Programm „transphrastischen Ansatz, der ganz auf die sprachlichen Mittel konzentriert ist“, 2. „den kommunikativ-pragmatischen Ansatz“, der dem Text „eine bestimmte kommunikative Funktion“ zuweist, und 3. „den kognitivistischen Ansatz, der die Prozesse der Produktion und Rezeption von Texten in den Vordergrund stellt“.193 Die Textlinguistik stellt im Hinblick auf die Erstellung (transphrastischer Ansatz sowie kognitivistischer Ansatz), den Einsatz und die Funktion (kommunikativ-pragmatisch) sowie die Rezeption (kognitivistischer Ansatz) der Automatentexte die wesentlichen Untersuchungskriterien und Analysemethoden zur Verfügung. Diese Untersuchungen zum Vorgang des Programmierens, des Einsatzes und der kommunikativen Verknüpfung von Automaten sowie der Schaffung eines maschinellen Rezeptionshintergrundes durch die automatensteuernde Sprache ergänzen die Betrachtungen, die den medialen Charakter der Automaten analysieren. Die genannten textlinguistischen Ansätze und ihre Untersuchungsmethoden sind vor allem deswegen im Rahmen der Automatensteuerung und -kommunikation sinnvoll einzusetzen, weil es sich bei den Texten um Transformationen natürlich-sprachlicher Aussagen in maschinell ausführbare Automatentexte handelt. Immer ist ein Mensch, der seine Sprache benutzt, der mittelbare oder unmittelbare Schöpfer der Anweisungen, denn ein Automat erschafft sich nicht selbst.194 Allerdings unterliegt die Schöpfung maschineller Anweisungstexte den Anforderungen an die genaue Einhaltung der Konventionen zur Formalisierung. Im Zusammenhang mit der Analyse der Gestaltung der Automatenkommunikation, in dieser Arbeit beispielhaft an den Erscheinungen des Jahr-2000-Problems erläutert, steht der kommunikativ-pragmatische Ansatz im Mittelpunkt. Hier ist es, den Ausführungen von Peter Ernst folgend, die textlinguistische Teildisziplin „Textpragmatik“195, die speziell „den Gebrauch von Texten, also ihre kommunikative Funktion“196 untersucht. Auf das „Textverarbeitungsmodell, das als prozeduraler Ansatz bekannt geworden und in der Linguistik bis heute von Bedeutung ist“, und dessen sieben „Merkmale der Textualität“197 wie Kohärenz, Kohäsion, Intentionalität, Akzeptabilität, Informativität, Situationalität und Intertextualität wird weiter unten eingegangen.198 Hier soll 193 194 195 196 197 198

Adamzik: Textlinguistik, 2004. S. 1. Erinnert sei hier an die Ausführungen in dieser Arbeit zur Frage Maschinensubjekt oder Intellektprothese. Ernst: Sprachwissenschaft, 2004. S. 265. Ebd. Ebd. Vgl. Ebd.

117

Kommunizierende Automaten eine kurze einleitende Darstellung der textpragmatischen Aspekte Kohärenz und Kohäsion in Bezug zu Automatenkommunikation und Jahr-2000-Problem erfolgen. Die Kohäsion betrifft alle formalen Mittel eines mündlichen oder schriftlichen Textes. Die Kohäsion wird in schriftlichen Texten in der Regel mehr beachtet als in Gesprächen. Im Rahmen der Automatenkommunikation ist die Kohäsion, die „grammatische Kongruenz“199, von ausschlaggebender Bedeutung. Zur Erläuterung mag hier beispielsweise die explizite Feststellung dienen, ob es sich bei den an einen Automaten übermittelten Daten um einen Befehl oder um einen Text handelt, der von diesem gespeichert bzw. verarbeitet werden soll. An diesem einfachen Beispiel wird die Bedeutung deutlich, die den formalen Mitteln im Rahmen der Automatenkommunikation zukommt. Das Jahr-2000-Problem hat gezeigt, dass bereits die unterschiedliche und/oder unzureichende Art und Weise der Formulierung eines einfachen Wertes, wie es ein Datum darstellt, die mit der Automatenkommunikation verfolgte Absicht scheitern lassen kann. Eine ungenügende Übereinkunft über die Form eines Ausdrucks reicht schon aus, um die Anforderung an das textuale Merkmal Kohäsion zu verletzen. Die Kommunikation zwischen den Automaten ist nun nicht mehr eindeutig geregelt, nicht mehr vorhersagbar und birgt erhebliche Gefahren. Betrifft der textpragmatische Aspekt der Kohäsion „alle formalen Mittel, die Beziehungen zwischen Oberflächenelementen signalisieren“200, so berührt das textuale Merkmal Kohärenz den Weltbezug, den Sinn eines Textes. Dabei ist es unerheblich, ob dieser Bezug sich auf etwas Existierendes oder auf den Begriff einer Idee bezieht. „Mit Welt ist hier“, so führen Linke et al. in ihrer Darstellung der Textlinguistik aus, „sowohl die reale Welt mit all ihren konkreten Referenzobjekten gemeint als auch die Welt aller denkbaren Konzepte, Ideen, Vorstellungen etc.“201 In diesem Zusammenhang sei noch einmal an die Fassung des Begriffs Gegenstand durch den Informatiker Gerhard Goos erinnert, der in seiner Erklärung sowohl „Ding, Person, Thema, Sachverhalt“ als auch die „Beziehung zwischen den Dingen, Personen, Themen oder anderen Sachverhalten“ „in der allgemeinen Bedeutung“ aufgenommen hat.202 Die Definitionen der Begrif199 200 201

202

Ernst: Sprachwissenschaft, 2004. S. 265. Ebd. S. 266. Linke, Angelika, Markus Nussbaumer und Paul R. Portmann: Studienbuch Linguistik. Reihe: Germanistische Linguistik. Bd. 121. Tübingen 5 2004. (Linke: Linguistik, 2004.) Goos: Informatik, 2000. S. 2.

118

Die Bedeutung von Sprache, Text und Programm fe Kohärenz, Welt und Gegenstand überschneiden sich. Der in der Informatik genutzte Begriff Gegenstand umfasst wie der in der Textlinguistik genutzte Begriff Welt den Bezug auf Ideen und Vorstellungen.203 An der Ähnlichkeit dieser grundlegenden Begriffsdefinition werden die Berührungspunkte zwischen Informatik und Textlinguistik deutlich. Die gemeinsame Basis, die Arbeit an der Sprache ist es, welche die Ähnlichkeit der Sichtweisen hervorbringt. In der sprachlichen Realisation des Automatentextes müssen alle Gegenstände und deren Bezug zueinander für die gesamte Welt, in der die Maschine interpretieren, entscheiden und handeln wird, genau festgelegt sein. Außerhalb des Textes gibt es für die Maschine keine Welt. Die Kohärenz beschreibt die Referenz eines Textes zu einer materiellen oder ideellen Außenwelt. In Bezug auf das Jahr-2000Problem hat sich herausgestellt, dass viele Programmierer einen Einsatz ihrer Programme unter dem historischen Aspekt des Jahrhundertwechsels nicht vorhergesehen hatten. So kam es dem ehemaligen Programm-Entwickler und mittlerweile in den Ruhestand getretenen US-Notenbankchef Alan Greenspan „nie in den Sinn, daß diese Programme“, die er und seine Kollegen in den siebziger und achtziger Jahren des vorigen Jahrhunderts geschrieben hatten, „immer noch laufen, wenn wir uns dem Jahrtausend nähern“.204 Aus diesem Grund wurde diese Möglichkeit in den Programmen nicht bedacht und deren Bezug zum Text nicht festgelegt. Die Maschinen hätten in diesem Moment nicht den (später) gewünschten Weg eines Handelns eingeschlagen, sondern den, der ihnen durch ihre Sprache vorgegeben war. Die Maschinen hätten an dieser Stelle nicht falsch reagiert, sondern auf einen so nicht gewollten – falschen – Text gehört. Der neue Zustand der Welt, die – linguistisch gesprochen – dann gültige „Ebene der Referenz“205, blieb in den Programmtexten – der „Ebene des sprachlichen Ausdrucks“206 – unbedacht und vor allem unbeschrieben. Wären die Programmtexte unkorrigiert geblieben, wären die mit ihrer Ausführung verfolgten Absichten zwangsläufig zum Scheitern bestimmt gewesen. Die Kohärenz, „der semantische und pragmatische Zusammenhang eines

203

204 205 206

Vgl. ebd. und bereits in den Prolegomena zitiert: „Dinge und Sachverhalte können dabei sowohl Gegenstände der realen Welt als auch einer gedachten Modellwelt sein.“ Zitiert nach Loviscach: Zeitbombe, 1999. S. 60. Vgl. Linke: Linguistik, 2004. S. 246. Vgl. Ebd.

119

Kommunizierende Automaten Textes“207, war verletzt. Die semantische und pragmatische Aussageabsicht eines Programmtextes wurde im Zusammenhang mit dem Jahr-2000-Problem durch die Schreibung eines Datums gestört, für das den Automaten „im Text nicht genügend Informationen geboten“ wurden, „um die Kohärenz zu gewährleisten“.208 Jedoch versagt die Kommunikation nicht stets vollkommen, wenn eine fehlende Kohäsion bzw. die ungenügende Kohärenz vorliegt. Es mag überraschen, dass auch ein Automat als „Rezipient auf anwendbare Konzepte und Relationen“ zurückgreift und „sie auf die Situation“ anwendet.209 Der Automat „sucht“ in seinen eingegebenen Programmtexten nach Entscheidungsgrundlagen und wendet diese in der konkreten Situation unter Einbeziehung der gegebenen – mitunter unzureichenden – Information an. So kann das eingelesene oder errechnete Datum durch die Automaten im Rahmen des Jahr-2000-Problems fehlinterpretiert werden oder es kann zu einer gänzlichen Beendigung der Verarbeitung und der Automatenkommunikation kommen. Anders ausgedrückt: Auch ein im Hinblick auf die Textualitäts-Kriterien unzulänglicher Text kann auf der Grundlage der den Automaten eingegebenen Programmtexte – anders als durch den Programmersteller intendiert – gelesen und interpretiert werden. Heinz Vater hat die Thesen de Beaugrandes und Dresslers vor allem unter dem Aspekt der natürlichen Kommunikation kritisch überprüft.210 Jedoch können auch bei einer Überprüfung der Textualitäts-Kriterien vor dem Hintergrund der Automatenkommunikation Vaters Ausführungen hilfreich sein. Es scheint mir, dass es gerade durch eine Differenzierung von natürlichsprachlicher und Automatenkommunikation möglich ist, die textpragmatischen Regeln abzuleiten, die für eine Automatenkommunikation wesentlich zu sein scheinen. Die Ausführungen zur mangelnden Einhaltung des Merkmals Kohäsion und zur unzureichenden Kohärenz weisen schon darauf hin, dass Aussagen auch als Texte verstanden werden, wenn nicht alle Textualitäts-Kriterien eingehalten werden. Dies widerspricht der These de Beaugrandes und Dresslers: „Wenn irgendeines dieser Kriterien als nicht erfüllt betrachtet wird, so gilt der Text nicht als kommunikativ. Daher werden nicht-kommunikative Texte als Nicht-Texte behandelt“.211 Die Kritik Vaters an dieser These

207 208 209 210 211

Ernst: Sprachwissenschaft, 2004. S. 266. Ebd. Ebd. Vgl. Vater: Sprachwissenschaft, 2002. S. 258 ff. Beaugrande: Textlinguistik, 1981. S. 3.

120

Die Bedeutung von Sprache, Text und Programm entspricht den Erfahrungen, die man im Rahmen des Jahr-2000Problems bei der Analyse der Automatenkommunikation machen konnte. Die Frage Vaters: „Macht nun wirklich nur die Gesamtheit der Textualitäts-Kriterien Textualität aus?“212 ist auch im Hinblick auf die Automatenkommunikation und die Erfahrungen des Jahr-2000-Problems zu behandeln.

Automaten als textgesteuerte Informatik-Systeme Die beschriebenen Merkmale der Automatensteuerung, jener komplexen Systeme, die auf experimenteller Epistemologie beruhen, die in Form einer operativen Schrift festgehalten werden, deren Aussagemöglichkeiten und Mächtigkeit wiederum durch eine künstliche Sprache definiert werden, können zu einer Definition des Automaten herangezogen werden. Aus dem bisher Ausgeführten ist zu folgern: Automaten sind Realisierungen von Informatik-Systemen. Sie werden durch Programmierung von Anwendungstexten in einer künstlichen Sprache (Programmier- oder Computersprache) gesteuert, um handelnd Lösungen gestellter Aufgaben zu realisieren.

Die maschinentaugliche Textfassung eines Programms, der ausführbarer Code, bedarf auch als weiteres unabdingbares Merkmal der Code-Reflexivität. Darüber hinaus ist der Text, der in Informatik-Systemen verwandt wird, nicht „Symbolisierung der gesprochenen Sprache“, er ist nicht ihr „Abbild und Supplement“213, sondern folgt als „epochales Kennzeichen des neuzeitlichen mathematischen Denkens“214 den Methoden zur Formulierung eines Kalküls. „In einer solchen Sprache können wir uns nicht verständigen“215, jedoch mittels dieses „genuin graphische[n] System[s], das aus einem diskreten Vorrat elementarer Zeichen besteht, sowie aus Regeln zur Bildung und Umbildung der Zeichen zu Zeichenreihen“216 Anweisungen an Automaten verfassen und durch die Übersetzung in Maschinensprache auf diese übertragen. Die Zeichenreihen an sich stellen jedoch noch keine

212

213

214 215 216

Vater: Sprachwissenschaft, 2002. S. 262. Vgl. auch Vater: Textlinguistik, 2001. S. 28: „Es wird zu überprüfen sein, ob nur die Erfüllung aller sieben Kriterien einen Text ergibt“. Krämer, Sybille: Schrift und Episteme am Beispiel Descartes´. In: Koch, Peter, Krämer, Sybille (Hrsg.): Schrift, Medien, Kognition. Über die Exteriorität des Geistes. Reihe Probleme der Semiotik, Band 19. S. 105 - 127 (Krämer: Schrift, 1997.) S. 105 Ebd. S. 115 Ebd. Ebd.

121

Kommunizierende Automaten ausführbaren Handlungsanweisungen dar, hierzu ist eine Verbindung dieser Reihen zu codereflexiven Zusammenhängen notwendig. Aus diesem – auf Zeichenoperationen beruhenden – Prozess geht jener Text hervor, der als ausführbarer Code zur Kommunikation innerhalb eines Informatik-Systems und zwischen diesen dient. Dieser Code kann in derselben oder einer anderen Programmiersprache erzeugt worden sein. Der Quelltext kann von einer Person oder mehreren Personen geschrieben worden sein. Entscheidend ist, dass die durch den Code definierten ausführbaren Programme in einem kommunikativen Verhältnis zueinander stehen. Die Überschneidungen im Bereich der Handlungsanweisungen bilden jenen Raum, in denen die Konventionen über den richtigen Sprachgebrauch strikt übereinstimmen müssen.

122

Die Bedeutung von Sprache, Text und Programm

Abbildung 3: Maschineller Austausch von Signalen in differenten Codes

Kommunikation durch Datenaustausch betrifft Syntax, Semantik und Pragmatik

MW1

MW2 Maschineller Austausch von Signalen, Anstoß externer Verarbeitung

AUT1

H2

H1

AUT2

Code: Abkürzungen: MW = menschliches Wesen AUT = Automat H = Handlung

Überschneidungsbereich sprachlicher Gemeinsamkeiten

Geschrieben in einer künstlichen Sprache in Form einer operativen Schrift, die aus einem diskreten Vorrat elementarer Zeichen besteht, sowie aus Regeln zur Bildung und Umbildung der Zeichen zu Zeichenreihen (vgl. Sybille Krämer)

Grafik Peter Fey Für das im Zentrum dieser Arbeit stehende Beispiel des Jahr2000-Problems kann die Verletzung der Kommunikationskonventionen an der Grafik dargestellt werden. Der geschaffene Programmcode verfügte über keine brauchbare Konvention, um die ausgetauschten Datierungen in eine intendierte Handlung umzusetzen. Auch unter der Voraussetzung, das eines der Programme eine gültige Formalisierung des Datums beinhaltete, reichte diese einseitige Bedingung nicht aus, um den maschinellen Kommunikationsakt gelingen zu lassen. Alle kommunizierenden Programmtexte müssen die Erfordernisse einer gelungenen Kommunikation im Hinblick auf das Handlungsvermögen eines Automaten funktional abbilden. Text, der in Automaten (Informatik-Systemen) Verwendung findet, ist als eine begrenzte Folge von Zeichen zu verstehen, die in sich kohärent ist und der als Ganzes eine auch maschinell erkennbare kommunikative Funktion übertragen wurde. Er ist stets gekennzeichnet durch Sprachlichkeit und Schriftlichkeit.

Diese Definition des Textbegriffs erlaubt es, deren wesentliche Merkmale am Beispiel des Versagens der Automaten im Zusammenhang mit der Jahr-2000-Krise zu prüfen. Darüber hinaus gibt es einfache aktuelle Beispiele für Möglichkeiten des Versagens in

123

Kommunizierende Automaten Informatik-Systemen. Das Fraunhofer-Institut zeigte an dem Beispiel der so genannten „intelligenten Handbremse“, wie Fehler innerhalb der Automatenkommunikation entstelhen können.217 Diese chip-gesteuerte Einrichtung in Fahrzeugen soll dazu dienen, das Fahren zu vereinfachen. Beispielsweise sollte der Fahrer beim Anfahren am Berg dadurch unterstützt werden, dass beim Ansteigen der Motorleistung, die in der Regel durch den Druck auf das Gaspedal ausgelöst wird, sich die Handbremse automatisch löst. In diesem Zusammenhang ist die intendierte Wirkung, das Lösen der Handbremse, gewollt. Allerdings gibt es in den modernen PKW, die zum Teil über mehr als 70 embedded systems verfügen, die miteinander Daten austauschen, einige Chips, die die Motorleistung gleichfalls ansteigen lassen, wie etwa die Klimaanlage. Öffnet ein Fahrer an einer abschüssigen Einfahrt zu einer Parkgarage das Fenster, kann die Temperatur im Wageninneren so ansteigen, dass die Klimaanlage anspringt bzw. die Leistung erhöhen muss, dadurch steigt die Motorleistung, die Handbremse löst sich, der Wagen rollt bergab. Die maschinelle Kommunikation ist auf der Ebene der Kohäsion gelungen, auf der Ebene der Kohärenz aber gescheitert. Eine Handlung ist ausgeführt worden, die so programmiert wurde, die aber nicht so intendiert war.218 In Bezug auf das Beispiel Jahr-2000-Problem kann festgestellt werden, dass Informatik-Systeme eingesetzt wurden, deren steuernder Programmtext als eine begrenzte Folge von Zeichen vorlag und eine eindeutig auch maschinell erkennbare kommunikative Funktion aufwies. Die Texte waren in einer künstlichen Sprache verfasst worden und lagen in schriftlicher Form vor. Die Kohärenz der Texte war durch ein neu eintretendes Ereignis bedroht. Im Rahmen des Jahr-2000-Problems mussten, um erkannte Gefahren und Risiken abzuwenden, die Programmtexte geändert werden. Durch diese textkorrigierende Maßnahme allein konnten nicht beabsichtigte maschinelle Handlungen mit unvorhersehbaren Folgen verhindert werden. Eins ist in Bezug auf die Automatenkommunikation deutlich geworden: Die in einer Programmiersprache verfassten Texte müssen sowohl für alle Aspekte des Handelns als auch für alle möglichen Varianten des Zustandsraums der Maschine alles notwendige Wissen enthalten. Die Programmtexte stellen dadurch 217 218

Vgl. Fraunhofer-Fachtagung InnoVisions-Days „Embedded Systems“ am 19.9.2008, Meilenwerk Berlin Vgl. „Die Welt“ vom 26.06.2006: Wissenschaft Kompakt. Intelligente Handbremse. S. 24

124

Die Bedeutung von Sprache, Text und Programm in den Informatik-Systemen die Basis einer Gesetzmäßigkeit des Handelns dar.219 Durch diese erwünschte und qua definitionem vorgegebene Kompetenz unterliegen die Programmtexte gezwungenermaßen der Tendenz, sich zu verselbstständigen: Um handeln zu können, muss der steuernde Anweisungstext den Automaten in die Lage versetzen, Situationen zu bewerten und die jeweils vorgegebenen Instruktionen auch zeit- und raumversetzt gesetzmäßig auszuführen. Der von Trogemann und Viehoff als Code-Reflexivität bezeichnete Vorgang weist hier auf eine weitere Dimension hin. Der Automat muss nicht nur im Laufe der Abarbeitung seiner Instruktionen den richtigen Bezug der einzelnen programmierten Aussagen zueinander herstellen, sondern er muss den eingegebenen Programmtext richtig auf alle von außen kommenden Daten anwenden. Ist der steuernde Text so umfassend und so korrekt gestaltet, dass alle möglichen Eingaben und alle internen Textverweise stets richtig aufeinander bezogen werden können, wird der Automat hilfreich dienen können. Gleichzeitig, so zeigte das Jahr-2000Problem exemplarisch, können die Automaten eben durch die Möglichkeit eines zeit- und raumversetzten programmierten Handelns in sich verändernden Zustandsräumen der Maschine fehlerhaft agieren. Der Einsatz der Automaten kann dann potenziell Schaden anrichten. Versagt der Automat bei der Umsetzung der gewünschten Lösung, müssen die Nutzer Alternativen zum Handlungseinsatz der Automaten anwenden. Oft ist es jedoch so, dass neue Lösungswege in einer bestimmten Handlungssituation überhaupt nicht zur Verfügung stehen. Als einfaches Beispiel sind hier die unterstützenden Automaten in Flugzeugen zu nennen. Versagt während eines Fluges die Kommunikation von Programmtext und elektronischer Schaltung in einem InformatikSystem, stehen in der Regel keine Ersatzlösungen zur Verfügung.220 Das Versagen kann dabei auf unterschiedliche Weise geschehen. Einerseits als Totalversagen. Hierbei fällt der Automat ganz aus. Andererseits kann ein Versagen nur Einzelbereiche der 219

220

Vgl. Weizenbaum, Joseph: Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt am Main 1977. S. 66. (Weizenbaum: Computer, 1977.) Aus diesem Grund wurde im Rahmen des Jahr-2000-Problems auf die Prüfung dieser Systeme besonders viel Wert gelegt. Vgl. Oppermann, Christiane: 2000. 100 Fragen zum Jahrtausendwechsel. Wie Sie sich vor dem Jahr-2000-Problem und seinen fatalen Folgen schützen können. München 1999. (Oppermann: Fragen, 1999.)

125

Kommunizierende Automaten Code-Reflexivität betreffen und in dem Automaten dazu führen, dass falsche Beziehungen zwischen einzelnen Programmzeilen aufgestellt werden. Auch hier können nicht intendierte Handlungen die Folge sein. In letzteren Fall wissen weder die Auftraggeber oder Programmierer noch die Anwender mit Bestimmtheit, wie der maschinelle Handlungsablauf aussehen wird. Eben weil die Maschine hier selbsttätig handeln kann, ist es nicht voraussagbar, wie bzw. zu welchem Textsegment der falsche Bezug hergestellt wird. Kittler beschreibt die an Automaten übertragene Entscheidungskompetenz anschaulich. Durch die selbsttätige Ausführung wird beispielsweise die Bedingungsabfrage zum Kennzeichen der den Automatenprogrammen innewohnenden Code-Reflexivität: „FALLS aber irgendwo ein Zwischenergebnis die Bedingung erfüllt, DANN bestimmt das Programm selber über die folgenden Befehle und d. h. seine Zukunft.“221 Im Rahmen des Jahr-2000Problems, so wurde oben gezeigt, haben gerade diese Bedingungsabfragen ein erhebliches Gefahrenmoment dargestellt und großen Korrekturbedarf verursacht. Ludwig Wittgenstein entwirft Jahrzehnte vor der ersten Entwicklung einer Programmiersprache für Automaten ein Bild von Sprache, in dem er die Bedeutung einer Aussage, ihren vermeintlichen Weltbezug gänzlich in der Sprache realisiert sieht. Sprache wird in der Vorstellung Wittgensteins zum umfassenden Mittel: „Wenn ich in der Sprache denke, so schweben mir nicht neben dem sprachlichen Ausdruck noch Bedeutungen vor; sondern die Sprache selbst ist das Vehikel.“222 Diese Vorstellung von Sprache stimmt gedanklich mit der oben von Goos und Tanenbaum zitierten Auffassung über den sprachlichen Charakter der Automatensteuerung überein. Der Automat kann sich für die Erkenntnis, die Interpretation, die Transformation aller ihn betreffenden inneren und äußeren „Gegenstände“ (Goos) nur der 221

222

Kittler: Grammophon, 1986. S. 372. Es sei hier ergänzt, dass es auch in einfachen Maschinen Prüfmechanismen gibt, die selbstständig den Fortgang der Arbeit der Maschine steuern können. Erinnert sei hier an die Fliehkraft-Ventile von Dampfmaschinen, durch deren Drehgeschwindigkeit zum Beispiel die Energieentwicklung der Maschine gesteuert wird. Diese maschinellen Vorrichtungen haben allerdings nicht die Möglichkeit, sich reflexiv mit den (schriftlichen) Ergebnissen anderer Messungen auseinanderzusetzen, diese zu interpretieren und die Ergebnisse dieser Interpretation anderen Anwendungen zur Verfügung zu stellen. Daher ist der Grad von Komplexität, der in diesen analogen Steuerungssystemen verwirklicht werden kann, beschränkt. Wittgenstein, Ludwig: Philosophische Grammatik. Frankfurt am Main 1969. S. 161. (Wittgenstein: Grammatik, 1969.) Das Werk ist zwischen 1931 und 1934 entstanden.

126

Die Bedeutung von Sprache, Text und Programm Sprache bedienen. Die Maschine hat „neben dem sprachlichen Ausdruck“ keine „Bedeutungen“ (Wittgenstein), die ihr vorschweben könnten. In den Zeichen und in den Beziehungen der Zeichen zueinander, in dem Schaffen von Worten, Aussagen und Texten, das heißt im Vollzug der „Sprache selbst“, wird die Welt als eine Sprachwelt geschaffen. Das „Vehikel“ Sprache erfasst nur das, was sprachlich gefasst werden kann. Folgt man dem Wittgensteinschen Gedankengang, so findet der Automat als Sprachbenutzer, als Schöpfer oder Rezipient einer Aussage in der Sprache selbst alle Mittel zur Erkenntnis, zur Darstellung und zur Lösung von Problemen. Die Sprache weist den Rechner an, Lexik, Syntax, Semantik und sogar die pragmatische Seite einer Aussage richtig zu erfassen bzw. intendiert zu befolgen und damit in Handlung umzusetzen. Im Zusammenhang mit der Niederschrift maschinell ausführbarer Programme müssen daher Überlegungen zur Klarheit und Eindeutigkeit der Sprache und ihrem Bezug zu den intendierten Handlungen stehen. Es ist zu untersuchen, wie durch die verschrifteten Anweisungen Handlungen initiiert und gesteuert werden. Sprache und Handeln stehen durch die ihnen implizite Kommunikation in Verbindung, die unter anderem gekennzeichnet ist durch die situative Gegebenheit, die Form sowie den Inhalt der Aussage, durch ein „Konzept der kommunikativen Funktion“223 und den „Kontrakt zwischen den Kommunikationspartnern“224. Diese und weitere Merkmale225 bestimmen den Gebrauch der Begriffe und den Bezug zu Außersprachlichem. Sprachliche Äußerungen weisen dadurch auch im Bereich der Kommunikation der Automaten untereinander und mit den menschlichen Anwendern über sich hinaus und können daher als handlungsauslösend gekennzeichnet werden. Die Einhaltung der sprachlichen und somit auch der kommunikativen Normen erleichtert die Schaffung einer handlungsbezogenen Verständlichkeit, die in Bezug auf die natürliche Kommunikation von Heinemann „Intersubjektivität“ genannt wird. „Das Medium Sprache erweist sich sogar als besonders geeignet und effizient für die erwähnte Herstellung von Intersubjektivität.“226 Die mit jedem Handeln verbundenen Akte und Prozesse227 sollen

223 224 225 226 227

Vgl. Brinker: Textanalyse, 2005. S. 18. Hickethier: Medienwissenschaft, 2003. S. 37. Vgl. Heinemann: Textlinguistik, 2002. S. 14 ff. Ebd. S. 5 ff. Ebd. S. 5: „Jedem Handeln kommt folglich Akt- und Prozesscharakter zu.“

127

Kommunizierende Automaten durch die Einhaltung der vorgegebenen Normen so beschrieben werden können, dass sie automatisch fehlerfrei auszuführen sind. Darüber hinaus sind die sprachlichen Äußerungen, die zum Handeln anleiten, bereits selbst Handlungen. „Auch für die verbale Interaktion gelten daher“, so Heinemann, die „äußeren Strukturmerkmale jedes Handelns“228. Hier sind die Strukturmerkmale eines Handelns zu erkennen, das durch die sprachlichkommunikative Einbettung der Befehlsübertragung auch auf Automaten übertragen werden kann. Wittgenstein greift die Beziehung von Sprache, Äußerung, Intention und Rezeption in seiner Handlungstheorie auf. Michael Kober führt dazu aus, dass „von Wittgenstein einerseits explizit eingeräumt wird, daß es in der Welt tatsächlich Wünsche geben kann“229, dass diese Wünsche Teil einer bestehenden Welt sind „und […] die Welt tatsächlich verändern können (sofern diese Wünsche handlungsauslösend sind)“230. Auch die zur Erfüllung an Automaten übertragenen Wünsche sind weltverändernd, weil sie handlungsauslösend sind. „Darüber hinaus wird von Wittgenstein eingeräumt, daß es eine Beziehung gibt, zwischen dem propositionalen Gehalt eines Wunschs und der Ausführung der gewünschten Handlung.“231 Die Form des Ausdrucks eines Wunschs hat Auswirkungen auf die initiierte Handlung, da formulierte Ausdrücke unterschiedlich interpretiert werden können. Die Beziehung von Formulierung bzw. Formalisierung einer Anweisung und Handlungsumsetzung ist Teil jener experimentellen Epistemologie, welcher die kybernetischen Maschinen bedürfen, um funktionieren zu können. Heinz Zemanek hatte bereits in den 1970er Jahren „darauf aufmerksam gemacht, daß, wenn man nach philosophischer Grundlegung der Informatik Ausschau hält, man wohl Ludwig Wittgenstein als Ausgangspunkt nehmen müsse“.232 Gleichwohl 228 229

230 231 232

Ebd. S. 14. Kober, Michael: Wittgensteins Überlegungen zur Handlungstheorie im Big Typescript. S. 188. In: Majetschak, Stefan (Hrsg.): Wittgensteins ‚große Maschinenschrift‘. Untersuchungen zum philosophischen Ort des Big Typescripts (TS 213) im Werk Ludwig Wittgensteins. Reihe: Wittgenstein-Studien, Band: 12. Frankfurt am Main 2006. (Kober: Wittgenstein, 2006.) Ebd. Ebd. Fuchs-Kittowski, Klaus, Lutz J. Heinrich, Arno Rolf: Information entsteht in Organisationen – in kreativen Unternehmen. Wissenschaftstheoretische und methodologische Konsequenzen für die Wirtschaftsinformatik. In: Becker, Jörg et al. (Hrsg.): Wirtschaftsinformatik und Wissenschaftstheorie. Bestandaufnahme und Perspektiven. Wiesbaden 1999, S. 329 – 361. S. 332. (Fuchs-Kittowski: Information,

128

Die Bedeutung von Sprache, Text und Programm ist zu beachten, dass die Informatik „nicht aus der Gedankenwelt Ludwig Wittgensteins heraus entstanden“ ist, wenn auch, so Fuchs-Kittowski, Heinrich und Rolf in einem im Jahr 1999 erschienenen Aufsatz, „darin aber wichtige Wurzeln“ zu finden sind.233 Aus diesem Grund ist über Wittgenstein hinaus „die Informatik auf eine breitere philosophische Grundlage zu stellen“.234

Phänomenale Ausprägung und Tiefenstruktur Formulierungsdetails und das Jahr-2000-Problem Die große Bedeutung, die der richtigen, zweckdienlichen Formulierung einzelner Verarbeitungsregeln von Automatenprogrammen zugemessen wurde, und der hohe Aufwand, der zur Identifikation der Fehler und ihrer Behebung getrieben wurde, sind ein Indiz für eine historisch neue Qualität, die Textmerkmale gewonnen haben. Erstmalig in der Geschichte erzwingen die Art und Weise der Formulierung von Textelementen ein umfassendes und globales politisches Handeln. In Anlehnung an Ausführungen Siegfried Schmidts ging es in der Korrektur der falsch geschriebenen, nicht Jahr-2000-tauglichen Programmzeilen um eine sozialisatorische Einübung in die „epistemisch-kategorial[e]“ Nutzung einer Medientechnologie.235 In diesem besonderen Fall blieb „der Blick der Aktanten in erster Linie [nicht, pf] auf der Materialität der Medienangebote“ haften, sondern es wurden „die medientechnologischen und sozialsystemischen Komponenten“ betrachtet, die „in ihrer Wirksamkeit meist invisibilisiert werden“.236 Es ging in der Erörterung und Korrektur des Jahr-2000Problems nicht um die Frage, in welchem Umfang oder ob überhaupt die Automatentechnik eingesetzt werden sollte. Es ging auch nicht um die Frage, wer über die Technik verfügen oder wer sie besitzen oder einsetzen darf. Diese politischen Fragen spielten

233 234

235

236

1999.) Vgl. Zemanek, Heinz: Philosophie und Informationsverarbeitung, Nachrichtentechnische Zeitschrift NTZ, Jahrgang 26, Heft 8, Berlin 1973, S. 384 – 389. Fuchs-Kittowski: Information, 1999. S. 332. Schütte, Reinhard, Jukka Siedentopf, Stephan Zelewski (Hrsg.): Wirtschaftsinformatik und Wissenschaftstheorie. Grundpositionen und Theoriekerne. Arbeitsbericht 4 des Instituts für Produktion und Industrielles Informationsmanagement. Universität GH Essen, Fachbereich 5: Wirtschaftswissenschaften. Essen 1999. S. 123 ff. Schmidt, Siegfiried J.: Medienwissenschaft und Nachbardisziplinen. In: Rüsen, Jörn, Fehr, Michael und Annelie Ramsbrock (Hrsg.): Die Unruhe der Kultur. Potientiale des Utopischen. Weilerswist, 2004. S. 53 – 68 (Schmidt: Medienwissenschaft, 2004.) S. 57 Ebd. S. 58

129

Kommunizierende Automaten auch in der Erörterung des Problems keine Rolle. Im Vordergrund standen technische Fragestellungen, die im Kern aber unausgesprochen textlinguistische Probleme und deren kommunikative Aspekte berührten. Es ging um die Frage, ob bei den Automatenprogrammen – textpragmatisch gesprochen – die „Reihe von Sätzen einen zusammenhängenden Text“237 ergibt, ob das, was Programmierer als Aufträge für Automaten notiert hatten, von den Automaten im gewünschten Sinne richtig verstanden und umgesetzt werden konnte. Bei der Behandlung des Problems wurden, ohne dies tatsächlich zu erkennen, „linguistische Denkmodelle“238 angewandt. So wurde, um beispielhaft auf die Tätigkeit der EU-Expertengremien zu verweisen, mithilfe dieser Modelle geprüft, wie ein Programm formuliert sein musste, um eine Datumsangabe zu lesen und konsistent zu verarbeiten, das heißt, auszuwerten, neue Ergebnisse zu erstellen und an andere Automaten zu senden, also zu kommunizieren.239 Textlinguistisch gesehen ging es einerseits um die „TextOberflächenstruktur, das heißt die grammatischen Abhängigkeiten des Textes“240. Andererseits ging es um die Informationen und Intentionen, die auf dieser medialen Oberfläche, dieser „phänomenalen Medienwelt“241, transportiert wurden, das heißt um die zugrunde liegende Tiefenstruktur. Bei den Korrekturarbeiten in den Rechenzentren der Unternehmen wurde daher – wiederum ohne dies in diesen Begriffen auszudrücken – der Zusammenhang von Oberflächen- und Tiefenstruktur im Rahmen der Automatensprache untersucht. Die Begriffe Oberflächenstruktur und Tiefenstruktur wurden von Noam Chomsky in seinem Buch „Aspekte der Syntax-Theorie“ im Kapitel „Der Aufbau einer Generativen Grammatik“ eingeführt.242 Diese Begriffe definieren Sprach- bzw. Grammatikfunktionen, die Wilhelm von Humboldt in seiner Schrift „Über die Verschiedenheit des menschlichen Sprachbaues“ als „innere Form“ und „äußere Form“ bezeichnet hat.243 Chomsky geht 237 238 239

240 241 242

243

Linke: Linguistik, 2004. S. 255. Ebd. S. 254. Vgl. EU-Kommission: EU-Infrastrukturen und das Jahr-2000-Problem, 1999; vgl. auch Dischler: Fleißarbeit, 1998 sowie die Ausführungen in dieser Arbeit zur Suche nach Datumsmustern auf S. 45 ff. Ernst: Sprachwissenschaften, 2004. S. 266. Hörisch: Geschichte, 2004. S. 219. Chomsky, Noam: Aspekte der Syntax-Theorie. Originaltitel: Aspects of the Theory of Syntax. MTI. 1965. Frankfurt am Main 1973 S. 29 ff. (Chomsky: Syntax-Theorie, 1973.) Vgl. Humboldt: Sprachbau, 1998. S. 17.

130

Die Bedeutung von Sprache, Text und Programm explizit auf die Nähe seiner Begriffe zu den Humboldtschen Begriffen ein und grenzt diese im Hinblick auf die von ihm nicht gewünschte Textinterpretation ab. „Aber obgleich die Termini ‚Tiefenstruktur’ und ‚Oberflächenstruktur’ in dem hier intendierten Sinn Humboldts ‚innerer Form’ und ‚äußerer Form’ (bezogen auf einen Satz) eng verwandt sind, habe ich es vorgezogen, eine neutrale Terminologie einzuführen, um die Frage nach der Textinterpretation an dieser Stelle zu umgehen.“244

Gerade aber die Hinwendung von der Satzbetrachtung zur umfassenderen Textbetrachtung scheint mir im Rahmen der Analyse der Automatenkommunikation notwendig. Bei der textpragmatischen Anwendung des Begriffspaars Oberflächenstruktur und Tiefenstruktur werden die Ideen einer „frühen Generativen Grammatik (also im Rahmen einer ganz am Satz orientierten Theorie)“245 von den Sätzen, den einzelnen Aussagen auf Texte übertragen. Die Erweiterung der sprachwissenschaftlichen Betrachtung vom Satz auf den umfassenderen Textbegriff wird gerade angesichts der Probleme der Automaten mit der Verarbeitung des Jahrtausendwechsels im Hinblick auf den steuernden Programmtext als notwendig nachgewiesen. Diese notwendige Erweiterung der Betrachtungsperspektive gilt nicht nur für die Sprachwissenschaft, sondern auch für die Informatik. Wie oben bereits dargestellt, hat Claude Elwood Shannon die Trennung zwischen Oberflächenstruktur und Tiefenstruktur in seiner mathematischen Theorie der Kommunikation – gemeint ist eine Theorie der maschinellen Signalübertragung – radikal befolgt. Er schloss die Tiefenstruktur aus seinen Betrachtungen gänzlich aus. Diese Tatsache und die von Zemanek zu Recht beklagte Missinterpretation der Ausführungen Shannons als Theorie der Informationsübertragung mag mit dazu beigetragen haben, dass die im Rahmen der Jahr-2000-Krise aufscheinende maschinelle Kommunikationsproblematik lange Zeit nicht wahrgenommen wurde. Im Rahmen dieser Krise wurde deutlich, dass die Verschriftung eines Textes auch im Bereich der Automaten „immer nur eine Oberflächenstruktur ist, auf der viele – aber durchaus nicht alle – Informationseinheiten des Textes sprachlich realisiert sind.“246 244 245

246

Chomsky: Syntax-Theorie, 1973. S. 248 Linke: Linguistik, 2004. S. 254. Vgl. bei Linke auch S. 140 f. Ein Beispiel zur Verwendung der Begriffe Oberflächenstruktur und Tiefenstruktur in einer Generativen Grammatik stellt das Buch von Greimas, Algirdas Julien und Joseph Courté: Semiotique. Paris 1979, dar; vgl. ebd. S. 103 und S. 134. Linke: Linguistik, 2004. S. 254 f.

131

Kommunizierende Automaten Claude Elwood Shannon entwirft 1948 „eine mathematische Theorie der Kommunikation“247. Der Begriff „communication ist hier mit Nachrichtenübermittlung zu übersetzen“ 248, genauer mit der Nachrichtenübermittlung durch „tertiäre Medien“.249 Tertiäre Medien benötigen zur Erstellung von Nachrichtensignalen sowie zu deren Wiedergabe „den Einsatz von Geräten“.250 Shannon erstellte in seinen Ausführungen, wie im Folgenden ausgeführt wird, keine Theorie der „Kommunikation“ oder „Information“ im weiten Sinne, sondern er betrachtete vor allem das technischmathematische Problem der Übertragung einer Nachricht in Form diskreter Signale. In seiner Einführung trennt Shannon die Welt des Sinns und der Bedeutung einer Aussage, die – textlinguistisch gesprochen – Tiefenstruktur, strikt von der Seite der Technik. Dass Kommunikation „oft“ einen Bezug zu etwas hat, also einen praktischen Aspekt beinhaltet oder beinhalten kann, erscheint Shannon für die Formulierung einer mathematischen (reinen?) Theorie von „keiner Relevanz“251. „Oft haben die Nachrichten Bedeutung, das heißt, sie beziehen sich auf bestimmte physikalische oder begriffliche Größen oder befinden sich nach irgendeinem System mit ihnen in Wechselwirkung.“252 In diesen Worten wird der Kern der Automatenkommunikation umrissen, die zentralen Grundgedanken werden aufgeführt: Nachricht, Bedeutung, Bezug, Begriff, physikalische Größe, systematische Verarbeitung, Wechselwirkung. Die meisten dieser Kennzeichnungen hält Shannon bei einer mathematischen Theorie der Kommunikation, genauer der Signalübermittlung, für entbehrlich. Shannon geht es in seiner Beschreibung darum, die technischen Aspekte der Signalübertragung von der kommunikativen (möglicherweise Sinn tragenden) Seite zu trennen. Er löst die Nachricht in den Bereich der Bedeutung und den Akt der technischen Übermittlung auf. Linguistisch gesprochen trennt er die Oberflächenstruktur eines Textes von der Tiefenstruktur und betrachtet allein einen Teilbereich der grammatischen bzw. syntaktischen Aspekte. Shannon will die

247

248 249 250 251 252

Shannon, Claude E.: Eine Mathematische Theorie der Kommunikation. A Mathematical Theory of Communication. In: Shannon: Ein – Aus. S. 7 - 100 (Shannon: Theorie, 2000) Zemanek: Information, 1986. S. 21. Vgl. Pross: Harry: Medienforschung. Film, Funk, Fernsehen. Darmstadt 1972. S. 145 ff. (Pross: Medienforschung, 1972.) Hickethier: Medienwissenschaft, 2003. S. 22. Shannon: Theorie, 2000. S. 9. Ebd.

132

Die Bedeutung von Sprache, Text und Programm Technik im Bereich der Kommunikation nicht nur isoliert betrachten, sondern spricht der „Bedeutung“, den „begrifflichen Größen“ einer Aussageabsicht jede Relevanz ab: „Diese semantischen Aspekte der Kommunikation sind irrelevant für das technische Problem.“253 Die von Shannon vorgenommene Abtrennung des semantischen Bereichs ist unter dem Blickwinkel der isolierten Beschreibung der Signalübertragung nachvollziehbar. Eine angemessene Würdigung seiner Darstellung setzt allerdings voraus, dass diese eingeschränkte Sicht stets bewusst bleibt. Zwischen den Begriffen Kommunikation, Information und Nachrichtensignalübertragung ist zu differenzieren. Eine notwendige Haltung, die leider rasch aufgegeben wurde. Zemanek beklagt, dass sich bereits „zwischen 1949 und 1951“ das Wort Shannons von „communication“, richtig zu übersetzen als Nachrichtenübertragung, in eine „Information Theory“ wandelte.254 Dadurch erfuhr seine Darstellung eine Ausweitung, die inhaltlich unzutreffend ist. Die Überdehnung einer Darstellung der Signalübertragung auf eine „Theorie der Information“ trug zu einer „Irreführung“255 bei. Die bewusst auf den technischen Kern reduzierte Betrachtung einer mathematischen Darstellung des technischen Aspekts der Automatenkommunikation wurde entgegen den Absichten Shannons auf den gesamten Vorgang der Informationsverarbeitung ausgeweitet. „Dieser Namenswechsel fand entgegen den Warnungen und Bedenken Shannons statt, dem das Irreführende der neuen Bezeichnung klar war.“256 Die Oberfläche eines Automatentextes und die Tiefenstruktur treffen in handelnden Automaten auf wirksame Weise aufeinander. Syntax, Semantik und Pragmatik stehen auch bei kommunizierenden Automaten in einer Beziehung zueinander. Aus ingenieurwissenschaftlicher Sicht hat Zemanek diesen Gedanken so gefasst: „Der Verläßlichkeit der Syntax steht das Risiko der Semantik und Pragmatik gegenüber.“257 Der „Bezug“ der „physikalischen und begrifflichen Größen“ (Shannon) wird bei der automatisierten Informationsverarbeitung ausdrücklich hergestellt. Daher hat Shannon seine Ausführungen auf eine „mathematical theory of communication“ beschränkt wissen wollen. Doch das Unbehagen Shannons an der Ausweitung der Ergebnisse des von ihm

253 254 255 256 257

Ebd. Vgl. Zemanek: Information, 1989. S. 21. Ebd. Ebd. Ebd. S. 45

133

Kommunizierende Automaten betrachteten Bereichs auf den gesamten Bereich der Information, der „Information Theory“ (Zemanek: „Namenswechsel“), wird von den ihm nachfolgenden Autoren und Herausgebern seiner Schriften nicht in notwendigem Maße wahrgenommen. Auch in den textanalytischen Ausführungen wird die Reduktion eines Textes auf einen Kern angestrebt. So hat Teun A. van Dijk eine Theorie entwickelt, welche die abstrahierende Reduktion eines Oberflächentextes auf ein so genanntes „Textthema“ anstrebte.258 „Das Textthema stellt dann die größtmögliche Kurzfassung des Textinhalts dar.“259 Diese hohe Form der Abstraktion sollte mittels Makrostrukturen durchgeführt werden können. Die van Dijkschen Makrostrukturen übernehmen im Reich der sprachlichen Mitteilungen die Funktion, eine Formel zu finden, mit der von der Textoberfläche auf deren Grundgehalt geschlossen werden kann. Der Einsatz einer solchen Formel könnte in der Kommunikation der Automaten mit Menschen zu einer für die Maschinen brauchbaren Reduktion der menschlichen Aussagen führen. Besonders auffallend an den Überlegungen van Dijks ist, dass er die Makrostrukturen – in Anlehnung an Strukturbäume „der generativen Grammatik – als hierarchisch geordnete kategoriale Baumdiagramme“260 darstellt. Dies sind Formen der Darstellung, die in der Entwicklung von Computersprachen und Computerprogrammen und im Rahmen der Computerlinguistik eingesetzt werden. Der englische Philosoph Stephen Edelston Toulmin hat in seiner Schrift über den „Gebrauch der Argumente“ diese auf Kategorien zurückführen wollen, die jeder Themenentfaltung zugrunde liegen.261 „Toulmin stellt die allgemeine Struktur einer Argumentation mit Hilfe von sechs relationalen logisch-semantisch definierten Kategorien dar.“262 Die Strukturen, die für jede sprachliche Auseinandersetzung gelten und stets gleich sind, sollen herausgearbeitet werden. Die Analyse des Vorgangs ergibt eine Abfolge von Schritten, für die vorstellbar ist, dass sie auch durch eine maschinelle Datenverarbeitung bewältigt werden kann. Durch logische Wenn-Dann-Beziehungen wird die Argumentation gegliedert und eine Weltreferenz erstellt. „Daß die angeführten Daten 258

259 260 261 262

Vgl. Dijk, Teun A. van: Textwissenschaft. Eine interdisziplinäre Einführung. Tübingen 1980. Hier besonders S. 45 ff. (Dijk: Textwissenschaft. 1980.) Brinker: Textanalyse. S. 56. Vgl. ebd. S. 54 sowie Dijk: Textwissenschaft, 1980. S. 131. Toulmin, Stephen Edelston: The uses of argument. Cambridge 1958; neu aufgelegt 2003. Hier besonders S. 99 ff. Brinker: Textanalyse, 2005. S. 80.

134

Die Bedeutung von Sprache, Text und Programm (Tatsachen) überhaupt Argumente für die These sein können, daß also der Schritt von den Daten zur Konklusion vollzogen werden kann, wird durch eine Schlußregel (‚warrant’) gerechtfertigt.“263 Diese Schlussregel verbindet die Aussagen der oder des Emittenten mit der referenzierten Welt. Besonders im Hinblick auf Automatenprogramme, die gespeichertes Erfahrungswissen nutzen und zu diesem Zweck zum Beispiel Fuzzy-Logik264 zur Steuerung ihrer Elektronik einsetzen, ist es sehr gut denkbar, dass diese die von Toulmin vorgesehenen Schritte zur Lösung der Aufgabe bewältigen können. Die Schlussregel Toulmins, die „eine allgemeine hypothetische Aussage“ ist, hat die Form: „Wenn die Daten x, y, z gegeben sind, dann kann man annehmen, daß C.“265 Die Formulierung der Formel gleicht denen, die zum Entwurf von Computerprogrammen genutzt werden. Die Reduktion des „Bereichs des praktischen Argumentierens“266 auf eine schrittweise abzuarbeitende formelhafte Vorgehensweise kommt der Vorstellung, diese Aufgabe auf Maschinen übertragen zu können, sehr nahe. „Auf dem Olymp des Informationszeitalters wird ein Mann den Vorsitz führen: der amerikanische Mathematiker und Nachrichtentechniker Claude Elwood Shannon“, schreiben die Herausgeber seiner ausgewählten Schriften zur Kommunikations- und Nachrichtentheorie, Friedrich A. Kittler, Peter Berz, David Hauptmann und Axel Roch.267 Möglicherweise ein Platz, den Shannon gar nicht einnehmen möchte. Seine Theorie bezieht sich nicht auf die „Information“, genau genommen noch nicht einmal auf Daten. Dennoch hat diese Begriffsverschiebung nach den Worten Zemaneks gravierende Folgen: „Die Informationstheorie ist nicht die Theorie der Information, und gerade Fachleute angrenzender Gebiete sind scharenweise von dem unpassenden Namen getäuscht worden.“268 Im Rahmen der Untersuchung der Automatenkommunikation muss auf diese Begriffsverschiebung eingegangen werden. Der Theoretiker Shannon muss möglicherweise vom Vorsitz im falschen Olymp „befreit“ werden. Die Täuschung über den Charakter der Automatenkommunikation ist im Zuge des Jahr-2000Problems offensichtlich geworden: Die semantischen Aspekte der 263 264 265 266 267 268

Ebd. Vgl. in dieser Arbeit die Ausführungen zur Fuzzy-Logik auf S. 102. Brinker: Textanalyse, 2005. S. 80. Ebd. Shannon: Ein – Aus. 2000. S. 331; Herausgeber sind Kittler, Friedrich A., Peter Berz, David Hauptmann und Axel Roch. Zemanek: Information, 1986. S. 21.

135

Kommunizierende Automaten Kommunikation sind relevant für das technische Problem der Kommunikation. Die Trennung technisch-mathematischer Aspekte von Bedeutung tragenden Elementen der Kommunikation geht in einer Zeit der automatischen Informationsverarbeitung (nicht der Signalverarbeitung) ihrem Ende entgegen. Auch aus ingenieurwissenschaftlicher Sicht wird das Gewicht der Bedeutung, das heißt der Bezug von Tiefenstruktur auf die Oberflächenstruktur, für den technischen Bereich der Information erkannt: „Daher scheint es die beste Art der Eröffnung zu sein, die verschiedenen Auffassungen und Erscheinungsformen der Information vorzustellen, eher weltlich-pragmatisch als wissenschaftlichsystematisch.“269 Die vielfältigen Formen der „technischen Zwischenschaltung oder Unterstützung“270 bei der Informationsübertragung weisen auf die enge Verbindung von Technik und Aussage bzw. intendierter Wirkung hin und beweisen laut Zemanek: „Die Information ist fest in den Händen des Ingenieurs, und Roman und Lyrik sind in der Defensive.“271 Die Sprache jedoch hat beide Seiten, also die der schöngeistigen Literatur (Romancier und Lyriker) wie die der Gebrauchstexte (Informatik-Ingenieur) in ihrer Gewalt: Die Bedeutung der textualen Merkmale für die Erstellung, Rezeption und Verarbeitung der Information gilt auch für Gebrauchstexte, wie es Automatenprogramme sind. Die Erscheinungsform als Text und damit die mit ihm verbundenen Implikationen sind für beide Ausdrucksformen gleich. Aus der ingenieurwissenschaftlichen Perspektive stellt Zemanek fest, dass sprachwissenschaftliche „Untersuchungen für formale Sprachen ebenso gelten wie für natürliche Sprachen, daß sie also für die Informationsverarbeitung von höchster Bedeutung sind.“272 Die möglicherweise vielfältigen Bedeutungen, die ein Text vermitteln kann, sind es, welche die Informationswissenschaften zu einem Teil der Kulturwissenschaften machen. Durch sie wird nachvollziehbar, „warum die über die Gerätschaft hinausgehende Informationswissenschaft eine Geisteswissenschaft ist: weil hinter jedem Wort eine unbegrenzte Komplikation lauern kann, eine segensreiche oder eine katastrophale.“273 Der Zusammenhang zwischen der sprachlich-technischen Realisation eines Ausdrucks und seiner Verwendung in einem

269 270 271 272 273

Ebd. Ebd. Ebd. Ebd. S. 39 Ebd. S. 44

136

Die Bedeutung von Sprache, Text und Programm maschinell abzuarbeitenden Text brachte auch die Bereiche Politik – und damit staatliche Herrschaft – und Technikeinsatz zusammen. Bislang hatten Konventionen zur Formulierung und Schreibweise von Aussagen nur in seltenen Ausnahmefällen direkte Auswirkungen auf praktisch-politische Überlegungen und Aktionen. Es war für das Ergreifen von Maßnahmen und das Ausführen politischer Handlungen in der Regel ohne Belang, in welcher Form (nicht in welchem Inhalt) Aussagen sprachlich gefasst wurden. Die Wahl bestimmter phänomenaler Medienoberflächen sollte allenfalls die kommunikative Wirkung einer Aussage erhöhen. Diese Einstellung zur konkreten Ausgestaltung einer Textoberfläche musste sich angesichts des Jahr-2000-Problems grundlegend ändern. Die umfangreiche Entscheidungs- und Handlungsgewalt der Automaten machte eine intensive inhaltliche Auseinandersetzung mit den Formalismen und Konventionen zur Schreibung von Anweisungen und Daten unumgänglich. Dies betraf den Automateneinsatz im öffentlichen Bereich sowie in den Unternehmen. Es ist das programmierte Handeln der Automaten, ihr eigenständiger Umgang mit einem Text, der diese Einstellungsänderung notwendig macht. Die Schrift, die Eigenständigkeit und der Handlungsgehilfe Diese Darstellung soll ein historischer Vorgang erläutern. Der selbsttätige Charakter der Bearbeitung eines Schriftstückes wurde auch Gegenstand einer Rechtsentscheidung im 19. Jahrhundert. Die damalige Auseinandersetzung drehe sich um die Berufsbezeichnung „Handlungsgehilfe“.274 So wie in heutiger Zeit Automaten auf gewisse Weise als Handlungsgehilfen verstanden werden können, ging es bei der rechtlichen Entscheidung im 19. Jahrhundert um die Frage, wie die Arbeitstätigkeit eines menschlichen Helfers zu bewerten ist. Die Gerichte verweigerten diese Bezeichnung denjenigen Angestellten, die keine selbsttätigen (formalen) Veränderungen an Texten vornahmen. Der „nur mechanisch“ Abschreibende, „der im Handelskontor angestellt wurde, als die vermehrte kaufmännischverwaltende Arbeit systematisch zerlegt und teilweise mechanisiert wurde“275, galt nicht als Handlungsgehilfe. Dem kopierenden Mitarbeiter wurde dieser arbeitsrechtliche Status verweigert. Seiner Arbeit fehlte die selbsttätige Veränderung. 274 275

Kocka, Jürgen: Angestellter. In: Brunner: Geschichtliche Grundbegriffe, 1992. Band 1, S. 117. Ebd.

137

Kommunizierende Automaten In Übertragung auf die aktuelle Zeit ist die oben von Steinmüller zitierte Differenzierung zwischen Buch (Speicher) und Computer (Entscheider)276 auf den Typus des Kopierautomaten anzuwenden, der – abgesehen von künstlerischer Verfremdung – nur ein Vervielfältiger ist. Auch diesem Apparat fehlt die selbsttätige, zweckgerichtete Formung des Textes, die anderen, sprachgesteuerten Automatentypen eigen ist. Im historischen Fall „erkannten die Gerichte, nur die Stenotypistinnen als Handlungsgehilfinnen an, die bei der Formung des Inhalts der Schriftstücke selbsttätig beteiligt waren“.277 In dem historischen Beispiel stehen die Begriffe „Handlung“ und „Helfen“ sowie „Selbsttätigkeit“, „Formung“ und „Schriftstück“ im wahren Sinn des Wortes an gerichts-entscheidender Stelle. Diese Begriffe können auch in Bezug auf die Automatenkommunikation als zentral angesehen werden. Formale Struktur, Intention des Textes und Weltbezug Die große Bedeutung, die der Form der Umsetzung von Anweisungen in für Automaten lesbare Texte und der Form der Verarbeitung durch diese zukommt, führte zu einer handlungsmächtigen Verbindung zwischen formaler Struktur, Intention des Textes und dessen Bezug zur Außenwelt. Durch den Text und seine Ausprägung auf der Oberfläche wird Entscheidungs- und Handlungsvermögen der Automaten festgelegt. Für das politisch oder wirtschaftlich in Verantwortung stehende Personal war es, in Abwandlung des Wortes von Max Weber, nicht mehr nur wichtig, dass eine Technik funktionierte, sondern in gleicher Weise war es wichtig geworden, zu wissen (!), wie sie sprachlich gesteuert wird, damit sie funktioniert.278 Die Kenntnis über die zur Steuerung von Automaten eingesetzte Technik war für die Entscheidungen der Unternehmen und des Einzelnen wichtig geworden, weil die relevanten und potentiell gefährlichen Sprachanweisungen in Automaten in allen Bereichen279 zum Einsatz kommen konnten. Weber führt in einem Beispiel aus: „Wer von uns auf der Straßenbahn fährt, hat – wenn er nicht Fachphysiker ist – keine Ahnung, wie sie das macht, sich 276 277

278

279

Vgl. Steinmüller: Informationstechnologie, 1993. S. 336. Kocka, Jürgen: Angestellter. In: Brunner: Geschichtliche Grundbegriffe, 1992. Band 1, S. 117; die kursiv gesetzte Passage entstammt: Potthoff, Heinz: Der Begriff des Angestellten. In: Arbeitsrecht, Bd. 1, 1914, S. 106. Vgl. Weber, Max: Vom inneren Beruf zur Wissenschaft. In: ders.: Soziologie. Universalgeschichtliche Analysen. Politik. Stuttgart: Alfred Kröner Verlag, 1973. S. 317 (Weber: Beruf, 1973.) Vgl. in dieser Arbeit die Ausführungen zu den Angaben in der Schrift des Bundesministeriums des Innern auf S. 61.

138

Die Bedeutung von Sprache, Text und Programm in Bewegung zu setzen.“280 Im Rahmen des Jahr-2000-Problems wurde die Fortführung der Weberschen Aussage, „er braucht auch nichts davon zu wissen“281, hinfällig. Die formalen Regeln zur sprachlichen Abfassung abstrakter Anweisungen für Automaten waren zum allgemeinen Erörterungsgegenstand auch in der Presse, im Hörfunk und Fernsehen sowie der Buchproduktionen geworden.282 Die zum Jahr-2000-Problem erschienene Literatur hat den Menschen Empfehlungen gegeben, sich bei den Herstellern von Automaten über die zur Steuerung verwendeten Programmtexte zu informieren. Aus der „Straßenbahn“ Webers ist in den Jahr2000-Artikeln das Flugzeug oder auch ein einfacher Aufzug geworden. Über die jeweilige Funktionssteuerung sollte der Anwender oder der Benutzer sich kundig machen: „In vielen Presseartikeln tauchen Aufzüge als ernstzunehmendes Risiko auf. Theoretisch besteht die Gefahr, daß datumssensible Chips (etwa für den Wartungszyklus) die Anlage stilllegen, wenn der Kalender auf 2000 springt.“283 Kunz gibt dem Leser den Hinweis, dass „sich ein Anruf bei den Herstellern der Aufzüge, die Sie täglich benutzen“, lohnt.284 Dieser wenig praktikable Ratschlag – wie sollen Tausende Nutzer eines Aufzugs, beispielsweise in einer Universität, den Hersteller nach dessen Jahr-2000-Fähigkeit fragen? – kontrastiert eindeutig zu der Aussage der EU-Kommission, dass die ihr vorliegenden Informationen nicht bewertet werden können. Die EU-Kommission war demzufolge nicht in der Lage, die Informationen, die von Fachleuten zusammen getragen und aufbereitet worden waren, zu bewerten. Der einzelne Bürger sollte aber durch eine Aussage eines Herstellers in die Lage versetzt werden, zu entscheiden, ob ein Automat „sicher“ ist oder nicht. Überträgt man dieses Beispiel auf die Anzahl und Komplexität der kommunikativ verbundenen Informatik-Systeme im Flugverkehr, wird rasch deutlich, dass eine belastbare Auskunft über den sicheren Einsatz für und durch den einzelnen Fluggast selbst bei größtem ErkundigungsEngagement nicht zu erhalten ist. Durch die Veröffentlichungen der EU-Kommission und der nationalen politischen Stellen der Exekutive waren im Jahr 1999 die Informationen über das technische Großproblem zudem zum 280 281 282 283 284

Weber: Beruf, 1973. S. 317. Ebd. Vgl. die Ausführungen zur Anzahl der Bücher, der Zeitungs- und Zeitschriften-Artikel sowie der Beiträge in Hörfunk und Fernsehen. Kunz: Crash, 1999. S. 149. Ebd.

139

Kommunizierende Automaten Politikum geworden. Der einzelne Bürger „musste“ in Deutschland etwas über das Jahr-2000-Problem wissen, zumindest dann, wenn man dem Titel von Publikationen bundesdeutscher Ministerien folgt.285 Aus dem oben zitierten Satz Webers „er braucht auch nicht davon zu wissen“, war innerhalb weniger Jahrzehnte der Technikentwicklung ein „das müssen Sie wissen“286 geworden. Die obigen Ausführungen zeigen: Die Domäne des Technischen ist zumindest während der Krisenzeit des Jahrtausendwechsels zum alltäglichen Lebensbereich des Menschen geworden. Es ist anzunehmen, dass durch die wirkende Macht sprachlicher Anweisungen in Automaten und deren Möglichkeit des Scheiterns die Frage nach der Techniksteuerung immer wieder aktuell wird. Auch wenn der einzelne Mensch – ebenso wie die Fachleute – oft nicht in der Lage war und ist, die Interdependenz der Automatenhandlungen und -kommunikation in Gänze zu verstehen und die möglichen maschinellen Aktionen und Reaktionen mit Bestimmtheit vorauszusagen. Übereinkunftscharakter, Symbolcharakter und Automaten Für die Automatensprache wird ein geltender „Übereinkunftscharakter“ der Kommunikation deutlich, „der erst durch den Symbolcharakter konstituiert wird“287. Denn das Jahr-2000-Problem hat gezeigt, dass die intendierte maschinelle Verarbeitung des neuen Datums daran scheiterte, dass die Übereinkunft (Konvention) über den Symbolcharakter der Zeichen nicht ausreichend definiert war. Die Automaten konnten, da ihnen das rechte Wort fehlte, nicht recht handeln. Ernst Vollrath verweist auf die aristotelische Sicht des Wortes: „Das Wort in seinem Symbolcharakter weist die Sprechenden an die Sachen (im weiten Sinne des Beredeten einer Rede), es läßt sie dort hingelangen.“288 Das „Beredete“ in der maschinellen Rede war nicht das, wohin sie nach dem Wunsch der Auftraggeber und der Anwender gelangen sollten. Die sprachgesteuerten Automaten drohten an der Sache vorbeizugehen und zu einem falschen Ziel und damit zu einer falschen Handlung zu gelangen. Die Automaten hingen falschen Symbolen an, sie deuteten die Symbole anders als gedacht. Die Automaten wussten im Rahmen des Jahr-2000-Problems nicht 285

286 287 288

Vgl. den Untertitel „Was Sie über das Jahr-2000-Problem wissen müssen“ der von dem Bundesministerium des Inneren herausgegebenen Schrift: Sind Sie fit fürs nächste Jahrtausend? siehe: BMI und BMWI: Sind Sie fit, 1999. Ebd. Vollrath: Kategorien, 1969. S. 11. Ebd.

140

Die Bedeutung von Sprache, Text und Programm zur gewünschten Interpretation der „Sache“ zu gelangen, und da die Kommunikation zu scheitern drohte, waren auch die maschinellen Entscheidungen und Handlungen betroffen. Hier wird eine Vorstellung von Kommunikation sichtbar, die den Automaten implizit eine Position und – damit zusammenhängend – Kompetenz zuweist, wie sie in Modellen zur muttersprachlichen Kommunikation mit den Begriffen Empfänger oder Rezipient bezeichnet werden.289 Denn ein Automat, der von einem Emittenten seine Befehle enthält, muss, um die gesprochenen oder geschriebenen Aussagen zu verstehen, wie ein menschlicher Kommunikationspartner den Sinn und damit den intentionalen Handlungscharakter eines Textes erfassen. „Die kommunikative Funktion legt den Handlungscharakter eines Textes fest“, also die vom Emittenten beabsichtigte Wirkung auf den oder die Empfänger, „erst sie verleiht dem Text also einen bestimmten kommunikativen ‚Sinn’ “.290 Zemanek hat sich intensiv mit der Frage der Sinnrekonstruktion und des sprachlichen Charakters der Automatensteuerung auseinandergesetzt. Dabei geht er explizit auf die linguistischen Vorstellungen unterschiedlicher Schichten bzw. Strukturen im Rahmen einer Sprachäußerung ein. „Insgesamt läßt die Sprachwissenschaft eine Schichtung der Information erkennen, welche für die Informationsverarbeitung und für die Ingenieurwissenschaften von entscheidender Bedeutung ist, denn der Computer hat zu den verschiedenen Schichten sehr unterschiedliche Relationen.“291

Die Bedeutung tragenden Aspekte der Information, die in der bewusst eng gehaltenen Betrachtung Shannons im Jahr 1948 noch gänzlich „irrelevant“ waren, erscheinen wenige Jahrzehnte später in den Ausführungen von Zemanek für die Informationsverarbeitung und die Ingenieurwissenschaften von entscheidender Bedeutung. Ausdrücklich bezieht sich Zemanek in seinem Aufsatz über „Information und Ingenieurwissenschaften“ auf die Überlegungen Wittgensteins über die Sprache. Er weist den Gedanken Wittgensteins große Bedeutung für die theoretische Durchdringung des Informationsbegriffs aus Sicht der Ingenieurwissenschaften zu. „Das markanteste Beispiel für die Beziehung zwischen dem formalen Modell und seiner rechten Benützung ist die

289

290 291

Vgl. Nöth, Winfried: Handbuch der Semiotik. Stuttgart, Weimar 22000. S. 235 ff. (Nöth: Semiotik, 2000.); vgl. auch Heinemann: Textlinguistik, 2002. S. 165 ff. und Brinker: Textanalyse, 2005. S. 16 f.; vgl. auch Kallmeyer: Textlinguistik, 1974. S. 11. Brinker: Textanalyse, 2005. S. 16. Zemanek: Information, 1986. S. 39.

141

Kommunizierende Automaten Philosophie von Ludwig Wittgenstein; sie hat fundamentale Bedeutung für den Computer und für unser Thema.“292 Die Betrachtungen Wittgensteins im Tractatus293 stellen nach Chomsky einen Versuch dar, das Konstrukt der Sprache „durch Drill und explizite Erklärung“ zu fassen.294 Wittgenstein will anhand der sprachlichen Begriffe prüfen, was an unanfechtbarer Substanz in ihnen steckt. Nach Zemanek behält man „bei diesem Verfahren nur, was diese Prüfung übersteht.“295 Ein Beispiel aus Ludwig Wittgensteins Philosophischen Untersuchungen soll diese Sprach-Prüfungen verdeutlichen: „Denke nun an diese Verwendung der Sprache: Ich schicke jemand einkaufen. Ich gebe ihm einen Zettel, auf dem stehen die Zeichen: ‚fünf rote Äpfel’. Er trägt den Zettel zum Kaufmann; der öffnet die Lade, auf welcher das Zeichen ‚Äpfel’ steht; dann sucht er in seiner Tabelle das Wort ‚rot’ auf und findet ihm gegenüber ein Farbmuster; nun sagt er die Reihe der Grundzahlwörter – ich nehme an, er weiß sie auswendig – bis zum Worte ‚fünf’ und bei jedem Zahlwort nimmt er einen Apfel aus der Lade, der die Farbe des Musters hat. – So, und ähnlich, operiert er mit Worten. – ‚Wie weiß er aber, wo und wie er das Wort ‚rot’ nachschlagen soll und was er mit dem Wort ‚fünf’ anzufangen hat?’ – Nun, ich nehme an, er handelt, wie ich es beschrieben habe. Die Erklärungen haben irgendwo ein Ende. – Was ist aber die Bedeutung des Wortes ‚fünf’? – Von einer solchen war hier gar nicht die Rede; nur davon, wie das Wort ‚fünf’ gebraucht wird.“296

Die Übertragung der Ausführungen Wittgensteins auf die sprachlichen Bedingungen im Rahmen des Jahr-2000-Problems könnte folgendermaßen aussehen: In einem kommunikativen Zusammenhang wird einem Automaten eine Anweisung gegeben, ein Datum einzulesen oder zu berechnen. Der Automat muss in der Lage sein zu wissen, was ein Datum ist und wie sich dieses von anderen Inhalten einer Mitteilung unterscheidet. Im Beispiel Wittgensteins könnte dies für den Zahlenwert fünf stehen. Der Automat muss den Gebrauch des Wortes kennen. Dadurch tritt neben die Aspekte Syntax und Semantik zwangsläufig der Aspekt der Pragmatik. Für Zemanek bildet im Rahmen der ersten sprachlichen Schicht „der Computer das Verfahren des Tractatus perfekt“ ab.297 Gleichwohl sieht Zemanek, ebenso wie Wittgenstein selbst, „die

292 293 294 295 296 297

Ebd. S. 41. Vgl. Wittgenstein: Tractatus, 2003. Chomsky: Syntax-Theorie, 1973. S. 73. Zemanek: Information, 1986. S. 41. Wittgenstein: Untersuchungen, 2001. S. 745 f. Zemanek: Information, 1986. S. 41.

142

Die Bedeutung von Sprache, Text und Programm Begrenztheit seines Verfahrens“.298 Der Prozess der Informationsübermittlung ist mit dem im Tractatus umrissenen Verfahren nicht vollständig beschreibbar. Der von Chomsky kritisierte Drill des Tractatus reicht nicht aus, um die Verwendung der Sprache, ihren Gebrauch in konkreten Kommunikationssituationen zu beherrschen. Die Welt in welcher der Automat agiert, muss einerseits immer auf eine rein syntaktische Dimension reduziert werden. Aus Datum und Daten werden Zeichen, genauer nur Zeichen, alles wird auf Code reduziert. „Wo immer eine Beziehung zur wirklichen Welt hergestellt werden muß, ist ein Modell syntaktischen Charakters erforderlich, in welchem der Computer mit reiner Zeichenmanipulation auskommt. Denn er kann nichts anderes.“299 Dieses Können des Automaten weist aber durch die geleistete Interpretation, die Transformation und das Handeln über diesen hinaus. Die Zwecke, denen er dienen, die Ziele, die er erreichen soll, liegen außerhalb der Zeichenebene des Automaten. Die menschlichen Anwender erkennen und fordern hinter den Zeichenmanipulationen den Bezug zur Welt und die handelnde Verfolgung der intendierten Absicht. Sie erkennen eine semantische und pragmatische Ebene, die dem Computer verschlossen bleibt, und die sich erst „bei der Betrachtung durch den Menschen einstellt oder einstellen kann“.300 Aus der Perspektive des Jahres 1984 (Jahr des Vortrags) heißt das: „dass der Computer fast immer zweierlei Information führt: jene Information, auf die er Zugriff hat und die er mit seinen logischen Vorschriften sachgemäß verarbeitet, und jene Information, die er quasi wider Willen mitschleppt – die über das Vordergründige hinausgehende Semantik, auf die er keinen Zugriff hat und die ohne sein Zutun mit seinen Resultaten verbunden wird.“301

Der Automat weiß um die richtige „Behandlung“, die richtige Verarbeitung des ihm eingegebenen Textes, verstehen kann er ihn nicht. Er bleibt in dem System, das die Möglichkeiten seiner formalen Sprache ihm bieten. Darüber hinaus ist für den Automaten keine Bedeutung des Textes gegeben, für die Information jedoch in entscheidendem Maß. Die Information umfasst eben auch das Verständnis der Resultate der Verarbeitungen durch den Automaten. Ein falsch berechnetes Datum in der Verarbeitungskette eines Automaten ist nicht nur eine Zeichenkette, 298 299 300 301

Ebd. Ebd. S. 40. Ebd. Ebd.

143

Kommunizierende Automaten sondern eine Aussage, die Bedeutung hat. Eine Bedeutung, die Relevanz hat.

Voraussetzung der Automatenkommunikation: ein System Kooperation, um Ziele zu erreichen Betrachtet man die maschinelle Datenverarbeitung und den maschinellen Datenaustausch, so ist offensichtlich, dass der geschriebene Programmtext nicht alleine wirken kann. Die ausführbare Verschriftung in einem Automaten muss mit den unterschiedlichen informationstechnischen Bestandteilen im Rahmen eines Systems zusammenarbeiten. Die Automaten selbst stellen eine Einheit mehrerer voneinander unabhängig agierender Komponenten dar. Sie unterscheiden sich hinsichtlich ihrer Funktion im Automaten. So dienen sie etwa der Verarbeitung von Daten, als Schnittstelle (formale und inhaltliche Verarbeitung von Ein- und Ausgabevorgängen) oder als Datenspeicher. Alle unterschiedlichen Funktionen der einzelnen Komponenten kooperieren. Sie verfolgen mit ihren maschinellen Ausführungen ein Ziel. Sie bilden ein System. Dabei werden sie durch eine gemeinsame Kraft, durch den oder die automatensteuernden Programmtexte gelenkt. R. J. Wieringa nähert sich in seinem Buch „Embedding Object-Oriented Design in System Engineering“ der Beschreibung eines Systemaufbaus, indem er von einer allgemeinen Definition ausgeht. Diese schreibt ein Gefüge („a set“) von miteinander verbundenen Bestandteilen vor, die hinsichtlich eines gemeinsamen Ziels („common objective“) zusammenarbeiten: „we start from the traditional concept of a system as a set of interrelated components working together toward some common objective”.302 Dies ist auch in den Augen Wieringas eine sehr allgemeine Definition, die für alle Arten von Systemen gelten kann. „This very general definition applies to any kind of system, including software systems.” 303 Gleichwohl können aus dieser Definition für die 302

303

Wieringa: Embedding, 1996 S. 290 ff. Wieringa bezieht sich in der Formulierung seiner System-Definition explizit auf das Werk von Blanchard, Benjamin S. and Wolter J. Fabrycky: Systems Engineering and Analysis. Englewood Cliffs, NJ 31998. Ebd. S. 290.

144

Die Bedeutung von Sprache, Text und Programm Beschreibung komplexer Automatensysteme wesentliche Elemente abgeleitet werden. Für die Automatensysteme muss gelten, dass sie im Ganzen zusammen arbeiten können, das heißt, dass ihr Aufbau, ihre Verarbeitungs-, ihre Ein- und Ausgabevorgänge, kurz ihre Hard- und Softwarearchitektur zusammenpassen. „First, not any set of elements make up a system: They must work together in a coherent whole. In other words, they must fit together in an architecture.“304 Darüber hinaus muss gelten, dass der Austausch von Daten und Anweisungen zwischen den einzelnen Bestandteilen eines Automaten und zwischen verschiedenen Automaten ein bestimmtes und festgelegtes Ziel verfolgt. „Second, the elements of the architecture must work together towards a common objective. In other words, the system architecture must match the system requirements.”305 Übertragen auf die steuernden Programmtexte sowie die codierten Daten heißt das, die Konventionen und sprachlichen Normen müssen eindeutig für alle Kommunikationssituationen definiert sein (fit together in an architecture). Zudem verfolgen die Kommunikationsakte – wie in den natürlichen Sprachen auch – eine Absicht, sie sind einem Zweck, einem Ziel verpflichtet. Die sprachlichen Befehle werden als ausführbare Anweisungen in das System eingeschrieben. Hiermit gleicht es, wie bereits oben ausgeführt, seiner Funktion nach dem Buch: Es ist Speicher von Daten, die bei Automatensystemen immer in Form von Texten vorliegen. Darüber hinaus kann der Automat lesen, sich mit Menschen und Maschinen verständigen (Interface) 306, die erhaltenen Informationen bewerten (Entscheidungskompetenz) und im Rahmen des eingegeben Programms und der ihm zur Verfügung 304 305 306

Ebd. Ebd. Vgl. zur Mensch-Maschine-Kommunikation die Ausführungen: a.) Menßen, Karl-Heinz: Zur Bedeutung und organisatorischen Gestaltung der betrieblichen Mensch-Maschine-Kommunikation. Köln 1971. (Menßen: Mensch-Maschine-Kommunikation, 1971); b) Weigand, Karl Heinz: Mensch-Maschine-Kimmunikation als innovative Leistung. Empirische Untersuchungen zur Akzeptanz interaktiver Informationsangebote. Reihe: Europäische Hochschulschriften: Reihe XXII: Soziologie, Bd. 78. München 1983. (Weigand: Mensch-Maschine-Kommunikation, 1983); c.) Charwat, Hans Jürgen: Lexikon der Mensch-MaschineKommunikation. München u.a. 1992. (Charwat: Lexikon der MenschMaschine-Kommunikation, 1992); d). Schinzel: Wie menschlich sind Maschinen, 1997; e) Kittler: Hardware, das unbekannte Wesen. In: Krämer: Medien, 1998; e) Stelling: Teamarbeit in Mensch-MaschineSystemen, 1999; f) Boos, Margarete, Kai J. Jonas und Kai Sassenberg (Hrsg.): Internet und Psychologie. Reihe: Neue Medien in der Psychologie. Computervermittelte Kommunikation in Organisationen. Bd. 3. Göttingen, Bern, Toronto 2000. (Boos: Computervermittelte Kommunikation in Organisationen, 2000)

145

Kommunizierende Automaten stehenden Peripherie handeln: Zum Beispiel kann er Ausgabegeräte wie Bildschirme, Drucker, aber auch Ampelanlagen oder Roboter in der Produktion bedienen.

Identität von Sprache, Problem und Lösungsweg Die in maschinenverständliche Impulse übersetzte Sprache ist es, mit der die Handlungsaufträge und die oben beschriebenen Anforderungen an die Ausgestaltung eines Systems gelöst werden können. John Hopcroft, Rajeev Motwani und Jeffrey D. Ullman setzen in ihrem Standardwerk „Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie“ das durch Automaten zu lösende Problem und die Sprache synonym: „Mit den Begriffen ‚Sprache’ und ‚Problem’ ist eigentlich dasselbe gemeint.“307 Diese pointierte Formulierung im Hinblick auf die Automatensteuerung verweist auf die oben geschilderten Ausführungen zu neuen Formen der Verschriftung und der Ausbildung neuer Denkstrukturen. Denn das Erfassen der Problemstellung geht nunmehr einher mit der Verfassung einer problemlösenden Sprache.308 Es wird deutlich, dass nach den Vorstellungen von Hopcroft et al. Problemlösung und damit Denken Sprache ist. Im Blick auf die Automatensteuerung hat sich die Auffassung einer Identität von Problem und Sprache als verlässlich herausgestellt. „Die Definition von ‚Problemen’ als Sprachen hat sich über die Zeit hinweg als adäquate Methode bewährt“.309 Das syntaktische Gerät310 Computer zwingt die Welt in die Logik der künstlichen Sprache, damit maschinelle Lösungen gefunden werden können. Auch bei Flusser findet sich die Überlegung einer Identität von Sprache und Problem. In seinem Aufsatz „Die Geste des Sprechens“ differenziert Flusser die Möglichkeiten des Denkens, des sprachlichen Erfassens und Ausdrückens sowie der Kommunikation bei Menschen und – dem gegenübergestellt – den Automatensystemen. Er betont den Unterschied zwischen dem Gebrauch der natürlichen Sprache durch Menschen und der künstlichen Computersprache durch Automatensysteme. „Erst, wenn man bedenkt, daß der Sprechende mindestens ebensosehr in Funktion der Worte denkt wie in Funktion der Probleme, daß er nicht nur Worte den Problemen anpasst, sondern mindestens ebenso die Probleme an

307 308 309 310

Hopcroft: Automatentheorie, 2002. S. 42. Auf diesen Aspekt wird weiter unten in einem eigenen Kapitel eingegangen. Hopcroft: Automatentheorie, 2002. S. 42. Vgl. Zemanek: Information, 1986. S. 40.

146

Die Bedeutung von Sprache, Text und Programm Worte, daß er nicht nur die Wahrheit aussagen will, sondern mindestens ebensosehr den anderen erreichen, kurz, erst wenn man bedenkt, daß der Sprechende lebendig denkt und nicht wie ein wissenschaftlicher Computer, kann man die Komplexität der Wortwahl erfassen.“311

Die Unterscheidung Flussers zwischen dem Gebrauch der Sprache durch ein Automatenprogramm und durch einen natürlichen Sprecher im Rahmen eines Gesprächs weist auf einen gedanklichen (dialektischen?) Prozess des Emittenten einer Aussage hin. Er sieht das auszusprechende Problem und will es in Worte fassen, er spricht die Worte und fasst dadurch das Problem. Auch nach der Auffassung Flussers sind, wie Hopcroft et al. es ausgedrückt haben, Sprache und Problem synonym zu gebrauchen. Für die Automatenprogramme, die, wie Zemanek gezeigt hat, in einem als syntaktisches Gerät arbeitenden Computer ausgeführt werden, gelten jedoch prinzipiell die gleichen Bedingungen. Denn der menschliche Schöpfer der Programme bedenkt bei seiner Arbeit nicht nur die Abwicklung der Befehlsfolgen in einem Rechner, sondern auch die Kommunikationsabsicht, die Intention der Aussage, die Handlungsziele und die möglichen Antworten bzw. Dateneingaben. Dabei ist es im Sinne der Interfacegestaltung nur von untergeordneter Bedeutung, ob das kommunizierende Gegenüber ein Mensch oder ein anderer Apparat ist. Der Computer ist eben, wie Steinmüller bereits oben zitiert wurde, nicht nur ein Speicher wie ein Buch oder eine Schallplatte, sondern ein Entscheider. Diese Entscheidungen macht das in dem Automaten wirkende Programm davon abhängig, welche Worte das Gegenüber als Antwort benutzt. Diese Worte allerdings muss der formulierende Programmierer im Voraus als Antwortmöglichkeit in sein Programm schreiben. Die Bedingungen der Automatenkommunikation und der natürlichen Kommunikation unterscheiden sich daher nicht substanziell, sondern allenfalls (noch) im Umfang der Kommunikationsvariationen. Die Automaten stellen auch unter dem sprachlichen Aspekt keine Subjekte dar, die initiativ oder schöpferisch handeln können, sondern Maschinen, welche die gelieferten Impulse interpretativ in Handlungen umsetzen. Die Rahmenbedingungen der menschlichen Kommunikation werden durch die Programmierung auf die Maschinen übertragen. Wofür den Maschinen die Worte fehlen, das können sie nicht erkennen oder tun oder ausdrücken. Auch darin zeigt sich eine Parallele zur natürlichen Sprache, in der es gleichfalls Probleme

311

Flusser: Gesten, 1991. S. 59.

147

Kommunizierende Automaten gibt, die nicht in Worte gefasst werden können, und Worte, die nicht kommuniziert werden können, weil sie dem Emittenten nicht geeignet scheinen oder nicht präsent sind. Es zeigt sich: Auch der Gebrauch der Worte in einer natürlichen Sprache stößt an Grenzen. Flusser kann in der natürlichen Kommunikation „mindestens zwei begrenzende Faktoren erkennen: Probleme, die sich weigern, in Worte gefaßt zu werden, und Worte, die sich weigern, ausgesprochen zu werden.“312 In beiden Fällen ist kein sprachliches Handeln, keine Kommunikation möglich. Die künstliche Computersprache, die ein System steuert, stellt keine andere Form der Kommunikation dar, sondern führt die Übereinkünfte der menschlichen Kommunikation mit ihren Möglichkeiten und Beschränkungen in einem besonderen medientechnischen Zusammenhang fort.

Der Zyklus automatischer Abarbeitung Georg Trogemann und Jochen Viehoff haben in ihrem Buch „CodeArt“ auch und besonders für den Bereich der visuellen Darstellungen ausgeführt, dass im Rahmen der Automatenverarbeitung alle Anweisungen und Informationen als schriftlicher Code in einer für Maschinen verständlichen Sprache vorliegen müssen.313 Sie verweisen darauf, dass „der aus Sicht der Maschine unmittelbarste Weg, algorithmische Lösungen zu realisieren“, „die Programmierung in Maschinensprache“ ist.314 In Bezug auf die höheren Programmiersprachen ist erwähnenswert, dass zum Beispiel Jörg Pflüger in Anlehnung an den Titel von Humboldt die unterschiedlichen Formen des maschinellen Sprachbaus untersucht hat.315 Alle Anweisungen, in welcher Sprache auch immer geschrieben, müssen stets in „eine begrenzte Menge einfacher Instruktionen“ übersetzt werden, „damit die elektronischen

312 313

314 315

Ebd. Vgl. Trogemann: CodeArt, 2005. Cf. S. 270 ff. Vgl. auch die Ausführungen in dieser Arbeit zum Werk der Künstler Andrej Barov und Yun Chul Kim auf S. 165 ff. Ebd. S. 158. Vgl. zur Form des Programmierens und die unterschiedlichen Programmiersprachen: Pflüger, Jörg: Über die Verschiedenheit des maschinellen Sprachbaues. In: Bolz, Norbert, Friedrich Kittler und GeorgChristoph Tholen (Hrsg.): Computer als Medium. München 21999. S. 161 – 181. (Pflüger: Sprachbau, 1999.) Vgl. Humboldt, Wilhelm von: Über die Verschiedenheit des menschlichen Sprachbaues und ihren Einfluß auf die geistige Entwicklung des Menschengeschlechts. Paderborn 1998. (Humboldt: Sprachbau, 1998.)

148

Die Bedeutung von Sprache, Text und Programm Schaltungen eines Computers“ sie befolgen und handelnd umsetzen können.316

Fetch-Decode-Execute Cycle Die Ausführung einer „Instruktion als Abfolge kleiner Schritte“317, mit der der Begriff der algorithmischen Lösungen, des Algorithmus318, sehr grob umrissen werden kann, wird in Bezug auf die Arbeit der zentralen Steuerungseinheiten programmgesteuerter Automaten „auch als Abruf-/Dekodier-/Ausführungszyklus (Fetch-Decode-Execute Cycle) bezeichnet.“319 Dabei spielt die sprachliche Fassung der maschinensteuernden Instruktionen im Begriff des Dekodierens eine zentrale Rolle. Der Begriff Fetch zeigt an, dass Anweisungen von einem anderen Ort, einem Speicher, geholt werden müssen. Der Begriff Execute verweist explizit auf den Handlungscharakter, der den Instruktionen für Automaten innewohnt. Darüber hinaus wird durch den Begriff Zyklus offensichtlich, dass es sich nicht um einzelne Instruktionen, sondern um eine Reihe von Anweisungen handelt. Die Gruppe von Anweisungen bildet nach den folgenden Ausführungen von Tanenbaum und Goodman einen inhaltlich und pragmatisch aufeinander ausgerichteten Zusammenhang, sie stellen ein Programm dar. Sie definieren dies folgendermaßen: „Eine Reihe von Instruktionen, die beschreiben, wie eine bestimmte Aufgabe auszuführen ist, nennt man Programm.“320 Die Programme, die dazu dienen, maschinell eine Aufgabenstellung zu lösen321, müssen mit den „elektronischen Schaltungen“ (Tanenbaum) kommunizieren. Sie bilden hinsichtlich dieser Tätigkeit innerhalb der Automaten eine Programmtext-ElektronikBeziehung aus. Diese Beziehung der einzelnen informationstechnischen Bestandteile stellt nach Gerhard Goos die grundlegende Form eines Informatik-Systems322 dar. 316 317 318

319 320 321 322

Tanenbaum: Computerarchitektur, 2001. S. 19. Ebd. S. 66. Ein Algorithmus ist eine detaillierte Handlungsanleitung. Vgl. Kersken, Sascha: Handbuch für Fachinformatiker. Der Ausbildungsbegleiter. Bonn 2005 (Kersken: Fachinformatiker, 2005.) S. 33: „Ein Algorithmus, benannt nach dem arabischen Mathematiker Mohammed Ibn Musa Al Chwarismi, ist eine Schritt-für-Schritt-Anleitung zum Lösen mathematischer Probleme.“. Vgl. auch Goos: Informatik, 2000. S. 23. Tanenbaum: Computerarchitektur, 2001. S. 66. Ebd. S. 19. Vgl. oben das Zitat von Tanenbaum; ebd. Vgl. zum Begriff Informatik-System die Ausführungen von Goos, Gerhard: Vorlesungen über Informatik. Berlin, Heidelberg, New York u.a. 32000. (Goos: Informatik, 2000.) S. 19. Sowie zum Begriff System

149

Kommunizierende Automaten

Programm und Informationssystem Die dem Buch zugewiesene Speicherfunktion (Steinmüller) ist in dem Zeitalter der programmierbaren Medien (Coy), der „Digitalmedien“, deren Entwicklungen „in erster Linie die Geschichte des Computers“ sind323, durch neue Funktionen, die durch das Treffen von begründeten Entscheidungen und das selbstbegründete Handeln von Automaten gekennzeichnet werden können, erweitert worden. Automaten können Daten speichern, damit sind sie dem Buch ebenbürtig, sie können Daten lesen und darstellen, damit gleichen sie Wiedergabegeräten wie dem Schallplattenspieler oder dem Tonbandgerät, darüber hinaus können sie gemäß des ihnen eingegeben digitalen Textes, Daten interpretieren und beruhend auf dieser Interpretation, Entscheidungen treffen und Handlungen einleiten.324 Das Jahr-2000-Problem deutet darauf hin, dass diese die Digitalmedien betreffenden Änderungen und Erweiterungen möglicherweise geschichtswirksam sind. Friedrich Kittler geht in seinem Aufsatz „Hardware, das unbekannte Wesen“325 auf diese Verkettung der einzelnen Elemente einer digitalen Informationsübertragung in Automaten ein. Er unterscheidet bei der Informationsverarbeitung durch Computer zwischen Software und Hardware. Das heißt, er differenziert nicht nur zwischen Zeichen und Medium, sondern zwischen Zeichen, Medium und in Halbleiter gegossener unveränderbarer Programmierung. Diese Kommunikation eines Programmtextes mit und durch die elektronischen Schaltungen ist für ihn bestimmt von einer „buchstäblich unvorstellbaren Komplexität“326. In Bezug auf den Zeichencharakter ist der von Kittler verwandte Begriff ‚buchstäblich’ in doppeltem Sinne zu verstehen. Zum einen meint hier buchstäblich ein Datum, etwas Gegebenes als invariante Ausprägung eines Zeichens zu verstehen. Zum anderen verweist buchstäblich auf das in einem Festspeicher eingesetzte Signal, auf das in eine elektronische Schaltung eingeätzte, eingebrannte Zeichen.

323 324 325

326

im Rahmen der maschinellen Informationsverarbeitung die Ausführungen in dieser Arbeit auf S. 149 ff. Kammer: Geschichte Digitalmedien, 2001. S. 519. Vgl. zu den Möglichkeiten der Automaten vor allem Steinmüller: Informationstechnologie, 1993. Vgl. Kittler, Friedrich : Hardware, das unbekannte Wesen. In: Krämer, Sybille: Medien Computer Realität. Wirklichkeitsvorstellungen und Neue Medien. Frankfurt am Main 1998. S. 119 – 132. (Kittler: Hardware, 1998.) Ebd. S. 119.

150

Die Bedeutung von Sprache, Text und Programm Schon allein in dieser dem Informatik-System immanenten Beziehung, das heißt unter Ausschluss menschlicher Eingaben, entsteht eine dreifache Verkettung a) von digitalem Zeichencharakter, b) von Programmen, die durch eine Neucodierung „soft“ veränderbar sind, und c) von nicht veränderbaren Halbleiterschaltungen, an welche die Anweisungen der Programme angepasst sein müssen. Auch Tanenbaum verweist darauf, dass „zwischen einer Sprache und einer virtuellen Maschine“ „ein wichtiger Zusammenhang“ besteht.327 Dieser Zusammenhang ist auf eine bestimmte Weise dialektisch bestimmt. Die oben erwähnten elektronischen Schaltungen der Maschine repräsentieren für Tanenbaum sprachliche Fassungen ausführbarer Anweisungen. Sie sind die materielle Verkörperung einer „Maschinensprache, die sich aus all den Instruktionen zusammensetzt, die die Maschine ausführen kann.“328 Folglich stellt die Maschine selbst einen sprachlichen Rahmen dar. „Die Maschine definiert also ein Sprache.“329 Dialektisch gewendet jedoch „definiert eine Sprache auch eine Maschine, nämlich die Maschine, die alle in dieser Sprache geschriebenen Programme ausführen kann.“330 Zeichen beziehen sich auf elektronische Schaltungskonstrukte, sprachliche Anweisungen auf die Möglichkeiten einer maschinellen Ausführung. Die technische Darstellung Tanenbaums und die medienwissenschaftliche Sicht Kittlers auf die Hardware und der sich dadurch öffnende Blick auf das Zusammenspiel der verketteten informationstechnischen Bestandteile führen zur Frage nach der begrifflichen Bestimmung des hier eingesetzten „technischen Instrumentes“331. Für eine richtige Auffassung und Einschätzung des Automateneinsatzes ist ausschlaggebend und bezeichnend, dass die beschriebene Grundform eines Informatik-Systems durch Sprache gebildet wird. Die Gefährdungspotenziale und Risiken im Rahmen des Jahr-2000-Problems haben weltweit deutlich gemacht, dass diese Grundformen durch kommunikative Verbindungen mit anderen Informatik-Systemen beliebig komplex skalierbar sind. Mit der Zunahme an maschineller Kommunikati327 328 329 330

331

Tanenbaum: Computerarchitektur, 2001. S. 21. Ebd. Ebd. Ebd. Vgl. zum Thema Automatensysteme, Formale Sprachen und Komplexitätstheorie auch die Ausführungen in dieser Arbeit auf S. 150 ff. Krämer, Sybille: Das Medium als Spur und als Apparat. In Krämer, Sybille: Medien Computer Realität. Wirklichkeitsvorstellungen und Neue Medien. Frankfurt am Main 1998. S. 119 – 132. S. 83. (Krämer: Medium, 1998.)

151

Kommunizierende Automaten on nimmt die Beherrschbarkeit der Informatik-Systeme ab. In einer gesonderten Untersuchung wäre einmal zu prüfen, in welchem Verhältnis die Kommunikationsvielfalt und die Beherrschbarkeit zueinander stehen. Es ist anzunehmen, dass das Verhältnis möglicherweise in einer logarithmischen Formel beschrieben werden kann. Alle medialen Inhalte müssen, um innerhalb des InformatikSystems verarbeitet werden zu können, die für die ProgrammtextElektronik-Beziehung gültige Normierung erfüllen. Daher müssen, um zum Untersuchungsgegenstand von Trogemann und Viehoff zurückzukehren, Bilder als Text in einem bestimmten Code gespeichert werden. Dieser maschinenlesbar codierte Text bildet die Basis für alle weiteren maschinellen Bearbeitungen, das heißt für die Realisierung der jeweils zu verwirklichenden Lösungen. Die steuernden Anweisungen (= Programme), die inhaltlichinformativen Angaben (= Daten) und die elektronischen Schaltungen müssen, damit das angestrebte Realisierungsziel durch die Automatentätigkeit erreicht werden kann, sich sinnvoll aufeinander beziehen lassen. Trogemann und Viehoff nennen diesen sinnvollen Bezug „Code-Reflexivität“: „Erst durch die Code-Reflexivität und nicht durch die Datenstrukturen erhalten die Medienobjekte nach unserer Überzeugung ihre wirkliche Mächtigkeit.“332 Code-Reflexivität, der Rückbezug auf den Code selbst, kann sich nur bei Texten einstellen. Allein und für sich stehende Aussagen oder Sätze übermitteln Signale, zu reflexiven Signalketten werden sie nicht. Die von Trogemann und Viehoff so bezeichnete Code-Reflexivität ist durch einzelne Zeichen oder isoliert betrachtete Einzelaussagen nicht herzustellen. Ein deutlicher Hinweis ist der oben erwähnte Zyklus (Fetch, Decode, Execute), der im Rahmen der Automatenhandlungen immer wieder von Neuem durchlaufen wird. Bei den Programmen, die in Automaten steuernd und datenspeichernd wirksam werden, haben wir es daher stets mit Programmtexten zu tun. Die obigen Ausführungen zusammenfassend muss festgehalten werden, dass die von Heinemann zur allgemeinen Definition des Textbegriffs aufgestellte Bedingung, dass „Texte“ „an Sprache gebunden“333 sind, auch und besonders für die Texte gilt, die zur Kommunikation „von Personen mit Computern“ (Tanenbaum) geschrieben wurden. Ein weiteres wesentliches Merkmal einer generellen Textdefinition, die auch für Automatentexte Gültigkeit

332 333

Ebd. S. 126. Heinemann: Textlinguistik, 2002. S. 97.

152

Die Bedeutung von Sprache, Text und Programm beanspruchen kann, ist die zuvor erwähnte sprachliche Prägung der kommunikativen Signalketten. Die Aufgaben, denen die Automaten dienen sollen, bestätigen die wesentlichen Aspekte der obigen Ausführungen: Die für die Automaten geschriebenen Texte speichern wie Texte in Druckwerken Informationen. Darüber hinaus stellen für Automaten geschriebene Texte die Basis für maschinelle Entscheidungen dar. „Das Buch ist ein Speicher, der Computer ist ein Entscheider“, formuliert pointiert Wilhelm Steinmüller in seinem umfangreichen Werk „Informationstechnologie und Gesellschaft“.334 Doch überdies enthalten auch die Texte Anweisungen zum Handeln. Dies wird bereits durch die Wahl des griechischen Begriffs automaton = selbsttätig handeln ausgedrückt. Automaten sollen selbsttätig handeln. Sie sollen den Menschen von der Erledigung von Aufgaben befreien und lösen sich gleichzeitig von ihm dadurch, dass sie durch die Übertragung von Programmen ohne sein weiteres Zutun entscheiden und handeln können. Künzel und Bexte verweisen auf Oswald Spengler, der dieses Lösen als Abwenden, als Eigenreflexivität der Automaten sah. „Wenn Spengler prognostizierte, daß alles, was entscheidend ist, sich ins Innere der Maschine zurückzieht, dann beschreibt er damit auch den blinden Fleck der Medientheorie und ihres zugrund gelegten Informationsbegriffs.“335

Die Maschine löst sich, führen die beiden Autoren mit Blick auf McLuhans Diktum „the medium is the message“336 aus, soweit vom programmierenden Menschen, dass dies „im Klartext [bedeutet; pf], die Entscheidung über die Botschaft als Information fällt im Innern der Informationsmaschine selbst.“337

334

335

336 337

Steinmüller, Wolfgang: Informationstechnologie und Gesellschaft. Einführung in die Angewandte Informatik. Darmstadt 1993. S. 336. (Steinmüller: Informationstechnologie, 1993.) Künzel, Werner, Bexte, Peter: Maschinendenken, Denkmaschinen. An den Schaltstellen zweier Kulturen. Frankfurt am Main, Leipzig 1996 (Künzel: Maschinendenken, 1996.) S. 241 Vgl. McLuhan: Medium, 2001. Künzel: Maschinendenken, 1996. S. 242

153

Digitale Medien: Stofflichkeit und Welterzeugung Wie wirkt sich die in Automaten arbeitende und durch sie zu verarbeitende „technische Notierung“1 auf den Kommunikationsprozess innerhalb und zwischen Apparaten sowie zwischen den Apparaten und den Menschen aus? Welche Wirkungen gehen von „technischen Medien als Apparate“2 aus und welche – möglicherweise geschichtsprägenden – Aspekte sind zu betrachten? Bereits einfache, wenig komplexe Notationen medialer Informationen schaffen durch die neuen Möglichkeiten der Rezeption, so Krämer in ihrem Aufsatz „Das Medium als Spur und als Apparat“, neue Welten. „Das Grammophon überträgt und konserviert nicht einfach eine Tonfolge, sondern setzt – hierin vergleichbar der Fotografie – die irreversible Ordnung der Zeit für ein bestimmtes Ereignis außer Kraft“3. Durch die Speicherung und den freien Zugriff kann die Rezeption an beliebigen Stellen der Aufzeichnung begonnen, wiederholt bzw. unterbrochen werden. Allein durch diesen einfachen Gebrauch eines technischen Mediums werden dem rezipierenden Menschen Mittel an die Hand gegeben, in gewissem Sinne subjektiv und dadurch schöpferisch zu handeln. „Für eine solche Zeitachsenmanipulation gibt es außerhalb der Medien kein Vorbild.“ 4 Bereits ein vergleichsweise einfacher Apparat kann durch die erweiterten Möglichkeiten der Wiedergabe des Notierten zum Beispiel neue Klang-Wirklichkeiten erzeugen. Im Charakter des Medieneinsatzes offenbart sich eine Dualität des Technikeinsatzes. „Die Technik als Werkzeug erspart Arbeit; die Technik als Apparat aber bringt künstliche Welten hervor, sie eröffnet Erfah-

1 2

3 4

Hickethier: Apparat, 1991. S. 429. Krämer: Medium, 1998. S. 73 – 94; vgl. besonders: Kapitel 4, Zur Abgrenzung von Medien und Instrumenten: technische Medien als Apparat“. Krämer: Medium, 1998. S. 84. Ebd.

155

Kommunizierende Automaten rungen und ermöglicht Verfahren, die es ohne Apparaturen nicht etwa abgeschwächt, sondern überhaupt nicht gibt.“5 Das Ziel des maschinell unterstützten Handelns ist nicht allein die Verbesserung der Tätigkeit, wie sie durch die Verwendung der Technik als Werkzeug angestrebt wird, sondern die Gestaltung einer neuen Welterfahrung durch eine geänderte Rezeption medialer Inhalte bzw. tatsächlich die Schaffung geänderter Umgebungsverhältnisse. Je komplexer und handlungsmächtiger die Technik wird, umso differenzierter kann eine neue Welt erzeugt werden. „Nicht Leistungssteigerung, sondern Welterzeugung ist der produktive Sinn von Medientechnologien.“6 Diese Möglichkeiten der Welterzeugung basieren im Bereich der elektronischen Medien auf der Fähigkeit der Automaten, (digitalen) Code je nach Programmvorgabe zu interpretieren und zu reproduzieren. Gleichzeitig besitzen die elektronischen Medien mit Blick auf den Computer auch die Qualität eines Werkzeugs, das zur Erleichterung der Arbeit genutzt wird. Den Dualismus von technischem Werkzeug und Medium, der sich im Gebrauch des Computers offenbart und den Krämer in ihrem oben angegebenen Aufsatz untersucht, heben auch Trogemann und Viehoff in ihrem Buch CodeArt hervor: „Unser derzeitiges Bild vom Computer changiert zwischen Technik und Medium.“7 Der Untertitel ihres Buches „Eine elementare Einführung in die Programmierung als künstlerische Praktik“ führt direkt zum zentralen Aspekt der Computersteuerung: Die zwischen Werkzeugeinsatz und Welterzeugung changierenden Möglichkeiten der Automaten erwachsen aus der sprachlichen Steuerung.

Automaten – zwischen Produktionsprozess und medialer Übermittlung In der Kombination der Eigenschaften eines Werkzeugs und denen eines Mediums sehen die beiden Autoren eine besondere Eigenart der Automaten begründet. „Ein wesentliches Merkmal unterscheidet Computer von herkömmlichen Maschinen. Als Werkzeuge und Artefakte zur Steuerung von Produktionsund Arbeitsprozessen gehören Computer zum Bereich der Technik. Als 5 6 7

Ebd. S. 85. Ebd. Trogemann, Georg und Jochen Viehoff: CodeArt. Eine elementare Einführung in die Programmierung als künstlerische Praktik. Reihe: Ästhetik und Naturwissenschaften. Medienkultur. Wien, New York 2005. (Trogemann: CodeArt, 2005.) S. 10.

156

Digitale Medien: Stofflichkeit und Welterzeugung Systeme, die Informationen speichern, darstellen und übertragen, begegnen sie uns aber als Medien.“ 8

Diese differenzierten Einsatzmöglichkeiten unterscheiden die Computer von allen bisherigen Werkzeugen und Medien. Die mit ihnen sich einstellenden Rezeptions- und Produktionsfähigkeiten trugen dazu bei, dass sie sich bereits seit Mitte der 1980er Jahre als allein stehende, das heißt nicht kommunikativ vernetzte Automaten im privaten Bereich verbreiteten. In den Bereichen der Wirtschaft und der öffentlichen Verwaltung waren vernetzte Systeme in Form von Großrechnern und den an sie angeschlossenen Arbeitsstationen seit Anfang der 1970er Jahre verbreitet.9 In den modernen Gesellschaften, die, nach Stehr, immer stärker durch Wissen und Wissenskommunikation geprägt sind10, werden die medialen und die Werkzeug-Funktionen in den programmierbaren Automaten immer weiter vereint. Sie folgen damit der generell für die Medien geltenden „Tendenz, Funktionen zu akkumulieren.“11. Diese Tendenz zur Akkumulation gilt nicht nur für die medialen Funktionen. Ebenso wurde die Tendenz zur Integration von Werkzeugfunktionen durch die Möglichkeiten, die eine weltweite Vernetzung zum Beispiel in Form des Internets bietet, weiter verstärkt. Durch die Vernetzung können beispielsweise Funktionen wie das Bestellwesen und die Auslieferung von Waren weitgehend automatisiert durchgeführt werden.12 Auch im Rahmen der Akkumulation von Werkzeug- und medialen Funktionen in einem Apparat sind die Sprache und die strukturierenden technischen Rahmenbedingungen, welche die Automaten prägen und miteinander verbinden, die bestimmenden Kräfte. Castells 8 9 10 11 12

Ebd. Vgl. Coy: Vorgeschichte, 1999 sowie Smith: IBM, 1972. Vgl. Stehr: Zerbrechlichkeiten, 2000. S. 11 Hickethier: Medienwissenschaft, 2003. S. 21. Vgl. a) Steinmüller: Informationstechnologie. 1993; b) Bauer, Hans H.: Electronic Commerce: Stand, Chancen und Probleme. (Bauer: Electronic Commerce, 1999.) In: Berghaus, Margot (Hrsg.): Interaktive Medien – interdisziplinär vernetzt. Opladen, Wiesbaden 1999. (Berghaus: Interaktive Medien, 1999.) S. 85 – 104; c.) Schulzki-Haddouti, Christiane: Internet statt Rohrpost. BDI Präsident Hans-Olaf Henkel zu Entwicklungen in der Informationsgesellschaft. In: c't, Heft 15. S. 38 – 39 (Schulzki-Haddouti: Rohrpost, 1999.); d) Ulrich, Olaf: Kommunikation im pharmazeutischen Außendienst: Ein Praxisbericht. (Ulrich: Kommunikation im pharmazeutischen Außendienst, 2000) In: Boos, Margarete, Kai J. Jonas und Kai Sassenberg (Hrsg.): Computervermittelte Kommunikation in Organisationen. Reihe: Internet und Psychologie. Neue Medien in der Psychologie, Bd. 3. Göttingen, Bern, Toronto 2000. (Boos: Kommunikation, 2000.) S. 175 – 181; e.) Bonn, Heinz-Paul: Informationslogistik – ein brandheißer Exportschlager. Dinner-Speech im Rahmen des Fraunhofer Symposiums RFID am 13.09.2005. (Bonn: Informationslogistik, 2005.)

157

Kommunizierende Automaten bezeichnet die automatensteuernde Sprache als die bestimmende Kraft in vernetzten Systemen: „Letztendlich werden die Kräfte, die in den Mediennetzwerken stecken, von der Macht der Ströme, die in Struktur und Sprache dieser Netzwerke enthalten ist, auf den zweiten Platz verwiesen.“13 Dass die Automaten nicht nur in technischen Einrichtungen zur Steuerung von Abläufen vernetzt wurden, sondern in allen Bereichen der modernen Gesellschaften zum Einsatz kamen und kommen, kann als ein Anzeichen für eine gewollte historisch wirksame Durchdringung mit den neuen medialen Möglichkeiten gewertet werden. In einem in Stufen sich vollziehenden Prozess wurden alle zentral wichtigen Bereiche der öffentlichen Verwaltung und Produktion in Automaten und in die sie verbindenden Netze integriert. Die Tendenz, nicht nur Aufgaben und Handlungsanweisungen, sondern auch sehr vielfältige mediale Inhalte (Text, Grafik, Töne, Gerüche bis hin zur Temperatur der Luft, des Wassers, des Sandes14) maschinenlesbar zu verschriften, ist unübersehbar. Die Tendenz zur Akkumulation medialer und technischer Funktionen in den Automaten bedeutet für Coy dies: „Alle schriftlichen, optischen und elektrischen Medien werden perspektivisch zu digitalen Medien“15. Diese Transformation hat Aus- und Rückwirkungen auf die Objekte und die Rezipienten. Die Folgen der Übertragung von Objekten in maschinenverständliche Schriftlichkeit, also die Folgen der Digitalisierung medialer Werke, untersucht Nicholas Baker in seinem Buch: „Double Fold“ (deutsch: Eckenknick). Er betrachtet diesen Vorgang der Digitalisierung kritisch und untersucht mögliche Fehler in diesem Prozess, sowohl im Hinblick auf einen Substanz-Verlust als auch Total-Verlust des digitalisierten Werks. Dies meint insbesondere den Verlust eines gegenständlichen Werks im Prozess der Verschriftung für Automaten. Bei der Digitalisierung werden die Werke in einem Code gespeichert, der aus zwei Zeichen besteht. Es werden Programme dazu benötigt, um diese Transformation in Zeichenketten durchzuführen, und es werden Programme dazu benötigt, um diese Transformation entweder wieder rückgängig zu machen (Ziel ist 13 14

15

Castells: Aufstieg, 2001. S. 535. Vgl. hierzu: Maresch, Rudolf: Mediatisierung. Dispositiv der Öffentlichkeit 1800/2000. S. 13 In: ders. (Hrsg.): Medien und Öffentlichkeit. Positionierungen, Symptome, Simulationsbrüche. München: Verlag Boer, 1996 und dazu die Kritik von Hickethier: Medienwissenschaft, 2003. S. 19. Coy: Turing, 1995. S. 51.

158

Digitale Medien: Stofflichkeit und Welterzeugung dabei die Wiederherstellung des Originals) oder in einer anderen Form (vgl. den Begriff Welterzeugung bei Krämer) entstehen zu lassen. Fehlen in Zukunft diese Programme oder können sie nicht mehr ausgeführt werden16, kann das gespeicherte Werk gar nicht oder nicht mehr vollständig gelesen und in diesem EntzifferungsProzess rekonstruiert werden. Die digitalisierten Werke sind verloren. Die Transformation medialer Werke in Zeichenfolgen wurde in der bildenden Kunst thematisiert. Wie zum Beispiel in dem Bild Barovs dargestellt, lösen sich die in digitale Sprache übertragenen Werke für den menschlichen Betrachter in nicht entzifferbare Zeichenkolonnen auf.17 Sie verlieren ihre Substanz, ihre Stofflichkeit und tauschen diese gegen die schier unbegrenzten Möglichkeiten einer rein syntaktischen Erscheinung. „Dieser komplexen Zeichensituation entspricht keine physikalische Analogie mehr“, fasst Georg Christoph Tholen diesen Transformationprozess.18 Zumindest für bestimmte Bereiche der medialen Produktion gilt: Das Original, die physikalische Substanzialität des digitalisierten Werks geht nicht nur verloren, sondern diese Originalität hat es niemals gegeben. Schröter verweist mit Blick auf das digitale Bild und die Frage, ob dieses „mehr oder weniger ‚Realität‘“ bietet, darauf, dass nichts heikler zu sein scheint, „als über das ‚Reale‘ oder das ‚Wirkliche‘ zu sprechen“.19 Jede Form der Digitalisierung ist Bearbeitung, willkürliche Betonung und Auslassung, Verzerrung und Korrektur der eingelesenen Wirklichkeit. Dies gilt in besonderem Maß für die digitale Fotografie. „Digitale Fotos haben kein mit Sicherheit identifizierbares Original mehr: Jedes Foto kann nun (auch rein technisch gesehen) eine Fälschung sein.“20 Für Schröter liegt allerdings der „entscheidende Unterschied zwischen den

16

17

18 19

20

Hier kann einerseits das Wissen der Anwender verloren gegangen sein oder andererseits kann das betreffende Programm wegen des Wechsels der Automatenbetriebssysteme nicht mehr aufgerufen werden. Vgl. Baker: Double, 2001. S. 249: „The second major wave of book wastage and mutilation [...] is just beginning. At the upper echelons of the University of California’s library system, a certain ‚Task Force on Collection Management Strategies in the Digital Environment’ met early 1999 to begin thinking about scanning and discarding components of its multi-library collections.“ Tholen: Platzverweis, 1999. S. 123. Schröter, Jens: Das Ende der Welt. Analoge vs. digitale Bilder – mehr und weniger ‚Realität‘? In: Schröter, Jens und Alexander Böhnke (Hrsg.): Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Reihe: Medienumbrüche, Band 2. Bielefeld, 2004. S. S. 335 – 354, (Schröter: Ende, 2004.) S. 335 Coy: Turing, 1995, S. 52.

159

Kommunizierende Automaten digital gespeicherten und den analog-mechanischen, analogelektromagnetischen oder analog-fotochemisch gespeicherten Daten […] nicht im Weltbezug, sondern in der mathematischen Form der digitalten Daten“.21 Diese Form der Verschriftung visualisiert Andrej Barov in seinen Kunstwerken. Abbildung 4: Andrej Barov: „Sonne Untergang auf Lanzarote“22

Quelle: http://www.barov.de/digitalalbum.htm Barov hebt bei seinen Arbeiten über die Formen der digitalen Fotografie die sprachliche Fixierung auch der audio-visuellen Medien hervor. Karsten M. Thiel schreibt über die Sinnproduktion, die nur durch den digitalen Computercode zu leisten ist: „Die Bilder aus Andrej Barovs Serie ‚Digital Album’ zeigen nun vertrau21 22

Schröter: Ende, 2004. S. 347 Das Bild wurde entnommen aus: http://www.barov.de/digitalalbum.htm. Angaben zum Original: C-Print 165 x 223 cm, Holzrahmen, Glas. Auflage: 5. Auszug aus der die Photokina-Ausstellung 2004 begleitenden Beschreibung: „Barov – Visuelle Wahrnehmung im digitalen Experiment. KODAK präsentiert Andrej Barov. Der Fotokünstler hat mit seinen Bildern progressive Anstöße für die Auseinandersetzung mit modernen Phänomenen der visuellen Wahrnehmung gegeben. Er macht sichtbar, was bei der Digitalisierung als technischer Prozess allgegenwärtig ist. In seinen Bildern werden komplexe Zusammenhänge auf Impulssignale reduziert. Diese über Analyseprogramme generierten fotografischen Arbeiten lösen intensive Assoziationen aus.“ Pressemitteilung der Kodak AG.

160

Digitale Medien: Stofflichkeit und Welterzeugung

te Formen: Buchstaben- und Ziffernkolonnen. Jedoch ergeben sie keinen Sinn.“23 Absichtsvoll wird durch Barov das Scheitern des Rekonstruktionsprozesses dargestellt. Der menschliche Rezipient steht dem vertraut wirkenden Text verloren gegenüber. „Einen solchen Sinn unterstellt jedoch der jeweilige Titel, zum Beispiel ‚Wien’, ‚New York’, für jedes einzelne Bild. So sollte man vielleicht vorsichtiger sagen, daß sich der Sinn der Formen wenigstens dem menschlichen Betrachter verschließt.“24 Durch die Visualisierung des Computercodes geht die Visualisierung des porträtierten Gegenstandes verloren. „‚Digital Album’ ist auf jede dieser Weisen Digitalfotografie, die sich in der Form des Computercodes der Bilder selbst zeigt.“25 In dem Bild Barovs zeigt sich eine überraschende analogmechanische Realisierung jener von Jens Schröter formulierten „Aufgabe für die KünstlerInnen, die mit Image Processing oder gar mit Simulationen arbeiten“. 26 Seiner Auffassung nach könnten die Künstler „eine unsichtbare oder verdrängte Wirklichkeit in den Bildern aufdecken und so einen kritischen Weltbezug herstellen“.27 Barovs Bild macht bewusst, dass die Veränderbarkeit des Textes eines Bildes zu einer Veränderung der durch ein Computerprogramm aufgezeichneten (codierten) sowie rekonstruierten (decodierten) Wirklichkeit führt. Das Changieren des Automaten zwischen Computer und Medium zeigt sich bei den in Textform vorliegenden Bilddaten in der Multipotenz der zur Bearbeitung der Daten verwendeten Programme. Die digitale Verschriftung eines Bildes lässt dessen Wahrheit im Hinblick auf das (re-) konstruierende Programm und das genutzte informationstechnische System wandelbar werden. Aus dem Original wird Quellcode, der in der Form seiner Produktion und Reproduktion durch die Programme wandelbar ist.28 Trogemann und Viehoff verweisen auf Werke des Künstlers Yun Chul Kim, dessen „Arbeit die Doppelexistenz von Computerbildern“ (Trogemann) thematisiert. „Während das traditionelle Bild an seine materielle Existenz gebunden ist, besitzt das Computerbild sowohl eine herkömmliche sichtbare Existenz (zum Beispiel 23 24 25 26 27 28

Thiel, Karsten In: http://www.galerie-wild.de/page-de/exhib-barov04.htm. Ebd. Ebd. Schröter: Ende, 2004. S. 354 Ebd. Vgl. zum Beispiel den Artikel in der Fachzeitschrift „ColorFoto“, Stuttgart: Motor Presse, ISSN: 0343-3102, Ausgabe 09.2005, zum Thema Bildbearbeitungsprogramme, S. 58 – 65: „Kamerasoftware im Vergleich. 12 Gratisprogramme großer Kamerahersteller.“

161

Kommunizierende Automaten auf einem Display), wie auch eine (normalerweise unsichtbare) Repräsentation als alphanumerische Zeichenfolge.“ 29 Der Künstler wandelte im oben bei Trogemann erwähnten Bild diese normalerweise für den Menschen unsichtbare Zeichenrepräsentation in eine materielle Existenz um. Hierzu musste Yun Chul Kim den Bereich der digitalen Medien verlassen. Die Transformation einer symbolischen Schrift in eine gegenständlich-materielle Form bedurfte notwendigerweise eines Medienwechsels. Erst diese Darstellung kommt den konventionellen Vorstellungen von einem Original nahe. Die „sichtbare Existenz“ auf dem Bildschirm des Rechners unterliegt in ihren Erscheinungsformen stets und in jedem Augenblick den Ergebnissen der Zusammenarbeit der informationstechnischen Bestandteile des Informatik-Systems. Diese sind es, die es dem Betrachter erlauben, Welt medial zu erzeugen. Dabei ist diese Kraft der Welterzeugung an die Grenzen der Potenz der wiedergebenden (decodierenden) Programmsteuerungen gebunden. Was diese nicht als Möglichkeit aufbieten, kann nicht genutzt, nicht welterzeugend geschaffen werden. Ohne diese Programme und deren korrekte (intendierte) Zusammenarbeit gelingt die Welterzeugung nur fehlerhaft. Dies zeigen Barov und Yun Chul Kim in ihren übertragenen, vergegenständlichten Werken. Das abgeschriebene Bild, die Transformation der Datenaufzeichnung, zeigt nicht mehr das Gegenständliche der Aufnahme. Aus dem Bild einer Landschaft bei Barov und dem Selbstporträt des Künstlers bei Yun Chul Kim werden alphanumerische Zeichenfolgen. „Der Künstler hat von Hand – Zeichen für Zeichen – die JPEG-Darstellung eines Selbstporträts auf Papier übertragen.“30 Jedoch entspricht auch die von Hand von dem Computerbildschirm oder einem Ausdruck auf Leinwand übertragene Zeichenrepräsentation nicht der tatsächlichen Aufzeichnung des Automaten. Auch diese „normalerweise unsichtbare Repräsentation“ (Trogemann) stellt schon ein maschinelles Bearbeitungsergebnis dar. Diese Darstellung ist nicht „wirklich“, sondern durch ein Programm geschaffen worden, das eine Oberflächenstruktur in eine andere überführt hat. Andere Darstellungsformen ein- und desselben Quellcodes sind je nach verwendetem Rekonstruktions-Programm möglich31, in alphanumeri29 30

31

Trogemann: CodeArt, 2005. S. 270. Ebd.; vgl. ebenfalls ebd. auf S. 493 auch das Bild von Yun Chul Kim „self-portrait.jpg“ Handgeschriebener Code auf Papier. JPEG steht für „Joint Photographic Experts Group“. Diese Gruppe setzte ein 1992 standardisiertes Verfahren zur Speicherung digitaler Bilder ein. Es ist bemerkenswert, dass auch innerhalb des gleichen Verfahrens zur Speicherung und Rekonstruktion von Bildern erhebliche Unterschiede

162

Digitale Medien: Stofflichkeit und Welterzeugung scher Notation oder – je nach Schnittstelle zu einem geeigneten Ausgabegerät – absurderweise auch als Klänge oder gar als Gerüche. Diese Entgegenständlichung eines Objekts in der Form, dass „Daten und Instruktionen in einer Mitteilung“ 32 vereint sind, stellt den Verlust der Stofflichkeit dar. Selbstverständlich ist das Objekt als ein in Symbole überführtes Etwas noch gegeben. Jedoch ist es gerade diese technische Transformation, die das Gegenständliche aufhebt. Die „Immaterialität der Information ist Sprache gewordene Technik und Technik gewordene Sprache“ 33. Flusser führt bereits 1990 dazu aus: „es werden Algorithmen in den Computer gefüttert, diese werden digital umcodiert, und diese umcodierten mathematischen Ausdrücke erscheinen dann als Bilder auf den Schirmen. Infolgedessen bedeuten diese Bilder die Kalkulation und nicht mehr die Welt. Es sind keine Abbilder, sondern Projektionen aus Kalkulationen.“34

Der zu fütternde Computer ist durch das Fortschreiten der technischen Entwicklung mittlerweile in den Aufnahmeapparat integriert worden. Bereits dort wirkt er in Digitalkameras als wortmächtiger Kalkulator. Das Original des Bildes gibt es in der digitalen Welt nicht mehr. Es gibt eine Anzahl von Signalen, die je nach Programmversion auf unterschiedliche Weise in einen Speicher geschrieben oder aus diesem ausgelesen werden können. Die zusammengehörigen Zeichenketten eines Bildes bilden den Text eines Bildes. Programme transformieren diesen Text in unterschiedliche phänomenale Oberflächenstrukturen. Programme, die unfähig sind, diese Signale als zusammengehörige Zeichenketten eines Bildes zu verstehen, werden an dem Versuch einer Reproduktion des Bildes scheitern. Dieses Scheitern eines textpragmatischen Vorgangs ist im Bereich der Medien und aller anderen Automatenvorgänge jederzeit möglich. Das Jahr-2000-Problem hat gezeigt, wie wenig notwendig ist, um Automatenanwendungen scheitern zu lassen. Im Gegensatz zu einer einfach gerichteten Informationsübermittlung ist das Scheitern der Automatenkommunikation von größerer Bedeutung. Im Rahmen der Automaten-

32 33 34

bestehen können. Zur Zeit existieren 6 JPEG Standard(!)-Verfahren, die in ihren Anwendungen zu je unterschiedlichen Ergebnissen der Decodierung des jeweils selben Quellcodes führen können (und sollen). Vgl. dazu die offizielle Seite im Internet zu JPEG: http://www.jpeg.org. Tholen: Platzverweis, 1999. S. 123. Ebd. Flusser: Denken, 1990. S. 96.

163

Kommunizierende Automaten kommunikation geht es um eigenständig maschinelles Interpretieren, Bewerten, Entscheiden und Handeln.

Rezeption rekonstruierter digitaler Verschriftung Die oben geschilderten Transformationsprozesse zur Codierung und Rekonstruktion implizieren im Rahmen der medialen Anwendung, dass (auch) die Anwender den Erfordernissen der Automaten genügen müssen. Hickethier stellt in diesem Zusammenhang die Frage, „ob hier beim Betrachter sinnvoll von einer ‚mentalen Maschinerie’ oder von einer verdrängten Technik des Unbewußten zu sprechen ist“35. Das „Konstrukt einer Mensch-MaschineRelation“36, das Hickethier 1991 „der dispositiven Anordnung (als der Anordnung von Apparat und betrachtendem Subjekt)“37 zuweist, heben Trogemann et al. deutlich als Vermittlungsinstanz zwischen den logischen Strukturen der Maschine und dem betrachtenden Subjekt hervor: „Mit dem Erscheinen des Interfaces als Vermittlungsinstanz zwischen den logischen Strukturen der Maschine und den Wahrnehmungsprozessen ihrer Benutzer dringen die Anwendungen zudem mit Vehemenz in kulturell und sozial dominierte Lebensbereiche vor, für deren Behandlung die bisherige technische Ausbildung vollkommen unzureichend ist.“38

In den Aussagen der Autoren wird deutlich, dass die Wahrnehmung durch Technik keine zweite Natur des Menschen darstellt, sondern im Zuge der Rezeption auf die gleichen Verstandesstrukturen, Wahrnehmungsgewohnheiten und Sinnesorgane trifft. Sie sprechen in einer Zusammenziehung scheinbar widersprüchlicher Eigenschaften von einem „logischen Auge“: „Im Gegensatz zu natürlichen Gegebenheiten sind technische Systeme künstlich, das heißt vom Menschen hergestellte Artefakte, die im Hinblick auf einen Zweck39 entwickelt wurden. In diesem Zusammenhang wird von Technik häufig als ‚zweite Natur’ gesprochen. Wenn wir uns die erkenntnistheoretischen Vorbedingungen ansehen, ist die Trennung zwischen erster

35 36 37 38 39

Hickethier: Apparat, 1991. S. 430 f. Ebd. S. 431. Ebd. Trogemann: CodeArt, 2005. S. 10. Vgl. auch oben: Flusser: Schrift, 2002. S. 137. Vgl. die Ausführungen zum Zweck, der durch einen kommunikativen Akt verfolgt wird, in Meggle, Georg (Hrsg.): Handlung, Kommunikation, Bedeutung. Frankfurt am Main 1979. S. VII. (Meggle: Handlung, 1979.)

164

Digitale Medien: Stofflichkeit und Welterzeugung und zweiter Natur aber schwer aufrecht zu erhalten, da wir beide durch das gleiche logische [!;pfe] Auge betrachten.“40

Hier stellt sich eine überraschende Parallele ein. Zuvor wurde bereits auf die Überlegungen Wittgensteins eingegangen, der die Sprache durch logisch-rationale Verfahren eindeutig machen wollte.41 In den Äußerungen Trogemanns kehrt in abgewandelter Form die Vorstellung einer Logik zurück, die Natur und Technik eint. Die Trennung zwischen geschaffenem Artefakt, dem Handeln eines Automaten und der menschlichen Natur ist für ihn aus erkenntnistheoretischer Sicht nur schwer aufrechtzuerhalten.42 Die Externalisierung medialer Inhalte, die nur im Rahmen einer programmgesteuerten Automatenverarbeitung erfolgreich sein kann, wird mit der natürlichen Wahrnehmung durch das Auge beinahe gleichgesetzt. Trogemann und Viehoff sehen den Prozess einer Rekonstruktion an der Schnittstelle von Mensch und Maschine so: „Durch die algorithmische Analyse und Synthese von Bildern, Klängen und Handlungen öffnet sich ein neuer konzeptueller und experimenteller Raum des Zusammenspiels von Kognition und Wahrnehmung.“43 Diese Darstellung eines experimentellen Raums im Zusammenspiel von Kognition und Wahrnehmung erinnert an die oben zitierten Ausführungen von Krämer über den Prozess der Welterzeugung als produktiver Sinn der technischen Medien.44 Gleichzeitig weist die Aussage von Trogemann über diese hinaus. Ganz im Sinne einer dialektischen Wendung der Mediennutzung erfährt auch der Mensch eine Veränderung, die seine Sinneseindrücke und deren verstandesmäßige Verarbeitung einschließt. Eine Wiederherstellung der in einen digitalen Text übertragenen Daten, das heißt eine gelungene Rekonstruktion des Objekts ist bei den Automatentexten nicht wie bei einem „sekundären Medium“45 auf eine nicht-technische, nicht technisch-vermittelte Weise möglich. Der Anwender, der die Inhalte verifizieren will, bleibt in dem Bereich der Technik, der den Apparaten eingeschriebenen ‚technischen Notierung’ gefangen. Er muss Technik einsetzen, um Technik zu prüfen. 40 41 42 43 44 45

Trogemann: CodeArt, 2005. S. 21 Vgl. die Ausführungen zu Wittgenstein und Zemanek in dieser Arbeit auf S. 146 ff. Vgl. Trogemann: CodeArt, 2005. S. 21. Trogemann: CodeArt, 2005. S. 10. Vgl. die Ausführungen oben in dieser Arbeit auf S. 161 und Krämer: Medium, 1998. S. 85. Vgl. die Erläuterungen zu den von Harry Pross vorgeschlagenen Begriffen „primäre, sekundäre und tertiäre Medien“ in Hickethier: Einführung Medienwissenschaft, 2003. S. 22.

165

Kommunizierende Automaten Die Fehler im Zuge der medialen Verarbeitung, die durch Betriebs- und Anwendungsprogramme, fehlerhaft übermittelte Daten oder Hardwarefehler entstehen können, vermögen den Empfänger – einen menschlichen Nutzer oder einen technischen Apparat – zu täuschen. Der Rezipient der Daten betrachtet diese aus einer „elektronischen Materialität“46 auf falsche Weise rekonstruierte Welt als eine wahre, intendierte, absichtsvolle Botschaft. Jedoch erhält er tatsächlich eine technisch verfälschte Information.

46

Hickethier: Online, 1997. S. 21.

166

Das Medium, die Botschaft und der Sinn Die Frage einer Sinnrekonstruktion unter Verwendung technischer Medien als Apparate ist unter dem Aspekt der direkten Zusendung einer Information von einem Automaten zu einem einzelnen empfangenden Automaten bedeutsam. Der Empfänger muss den Sinn der übermittelten Botschaft wiederherstellen, um im Rahmen seiner Code-Reflexivität eine intendierte Wiedergabe zu erreichen. Hickethier thematisiert die Beziehung zwischen Computer, Datenübertragung und Öffentlichkeit in seinem Aufsatz „Öffentlichkeiten im Medium der Computernetze“. Diese vernetzten elektronischen Geräte werden von ihm unter den Begriff Online-Maschinen gefasst. Sie erzeugen für ihre Nutzer aus „Signalen“ „Bilder, Töne, Sprache“ „aus denen sie Bedeutungen erschließen und dem Urheber/Absender als von ihm intendierte Botschaften zuschreiben“1. Im Zusammenhang mit dem Jahr-2000-Problem nimmt der Datentransfer zwischen diesen Online-Maschinen einen wichtigen Bereich ein. Daneben sind jedoch, wie oben gezeigt werden konnte, all jene Maschinen bzw. Apparate in die Untersuchung einzubeziehen, die „digital codierte Informationen“2 empfangen, ‚verstehen’, verarbeiten und versenden oder in Handlungsanweisungen umsetzen können. Dabei ist es unerheblich, ob diese über das Telefonnetz, über Standleitungen, Local- oder Wide-Area-Networks oder zum Beispiel Satelliten verbunden sind oder ob die technischen Apparate so genannte ‚stand-alone-computer’, Einzelplatzrechner, oder embedded systems sind, das heißt eingebaute gerätesteuernde Mikroprozessoren. In seinem Aufsatz spricht Hickethier dem Rezipienten die Aufgabe zu, die Sinnkonstitution eines Textes durchzuführen. Im Zuge dieser Sinnkonstitution versucht der Empfänger, die Intention des Emittenten zu erfassen. Die Rezipienten werden „die Bedeutungen erschließen und diese dem Urheber/Absender als

1 2

Ebd. Ebd.

167

Kommunizierende Automaten von ihm intendierte Botschaften zuschreiben“3. Die Arbeit einer Sinnkonstitution an einer Online-Maschine impliziert für den Rezipienten, dass die technischen Bedingungen dieses Prozesses so geraten sind, wie es der Emittent vorausgesehen hat. Denn die Botschaften, die den Rezipienten erreichen, gründen sich auf das Ergebnis einer maschinellen Datenrekonstruktion durch die (Online-)Maschine. Dieser Vorgang enthüllt die notwendigerweise miteinander verbundenen technischen Elemente einer durch Sprache gesteuerten Mensch-Maschine-Kommunikation. Die Technik der Maschine und die implementierten Programme nehmen Einfluss darauf, wie die übermittelten Daten von ihr selbst interpretiert und verarbeitet werden. Erst diese maschinell bearbeiteten Daten können wiederum durch den Menschen interpretiert werden, der Bedeutungen zuweist und Intentionen erschließt. Da es sich bei dem oben beschriebenen Prozess um einen Kommunikationsakt handelt, gelten auch hier die allgemeinen Kommunikationsregeln: a) der kommunikative Akt „gelingt“4, der kommunikative Zweck stellt sich ein oder b) die Kommunikation wird verzerrt oder scheitert. Zum Scheitern der Kommunikation kann die Maschine beitragen, die den Datenrekonstruktionsprozess anders leistet als durch den Emittenten „intendiert“. Der zugrunde liegende sprachliche Maschinencode kann zu Defekten, Störungen oder Ausfällen des Kommunikationsaktes führen. Hat der Adressat der Daten, sei es nun ein menschliches Wesen oder ein ‚verarbeitender’ Apparat, nicht die Möglichkeit, die Integrität bzw. Konsistenz der Daten5 zu prüfen, so muss er das Empfangene, das Wahrgenommene, für wahr nehmen. Er muss es als etwas nehmen, das durch den Sender tatsächlich intendiert wurde, etwas, das ihm in der vorliegenden medialen Form mitgeteilt wurde. Eine un-mittelbare Korrektur ist nicht möglich. Der Empfänger muss im Sinne des von Krämer verwandten Begriffs der Welterzeugung das Empfangene als gültige Darstellung akzeptieren. Er muss es deshalb als gültig anerkennen, da, täte

3 4

5

Siehe oben das Zitat von Hickethier ebd. Vgl. Hennig, Jörg und Lutz Huth: Kommunikation als Problem der Linguistik. Eine Einführung. Göttingen 1975. S. 6. (Hennig: Kommunikation, 1975.) Daten werden als integer bzw. konsistent bezeichnet, wenn die Richtigkeit, Vollständigkeit und Widerspruchsfreiheit der Daten sicher gestellt sind. Die Datenintegrität ist dagegen verletzt, wenn Mehrdeutigkeiten gegeben sind oder – zum Beispiel durch eine falsche Programmierung – fehlerhafte Einlesewerte bzw. Zwischenergebnisse gespeichert werden.

168

Das Medium, die Botschaft und der Sinn er es nicht, der gesamte Prozess der Datenübertragung in Frage gestellt würde.

Exkurse zur maschinellen Steuerung Automaten und die Mannigfaltigkeit des sozialen Lebens Die Angewandte Informatik stellt konsequenterweise die Fähigkeiten der Automaten in den umfassenden Rahmen gesellschaftlicher Aufgaben. „Denn sie will gerade nicht die isolierte Technik sehen, sondern Technik im Sozialbezug (also als Sozialtechnologie), als Verlängerung des Menschen, mit der er seine soziale und ‘natürliche’ Umwelt berührt und verändert; vor allem als Technik in seiner Hand, die er auch technisch und damit im sozialen Effekt verändern kann, die damit dazu beitragen kann, eine menschlichere Welt zu schaffen.“6 Ähnlich wie in den Versuchen, durch Feststellung der Wirkung die Semantik eines Automatenwortes zu fassen, ist auch im Hinblick auf die Anwendung der Technik die Beobachtung (und ggf. Messung) der Wirkung das leitende Motiv. Die Wirkungsmächtigkeit der Automaten steht dabei in einem direkten Verhältnis zu den möglichen Fehlern, die aus ihrem schriftgeleiteten Handeln entstehen können. Diese Machtfülle kann sich bei einem auftretenden Versagen für die betroffenen Gesellschaften in das Gegenteil dessen verkehren, was ursprünglich angestrebt war. Aus dem Beitrag zur Schaffung einer menschlicheren Welt kann ohne weiteres Zutun und ohne die Absicht des Menschen eine Bedrohung werden. Das Jahr-2000-Problem machte deutlich, dass aus der sichernden Handlung der Automaten in Atomwaffendepots durch einen Programmfehler eine Abschusshandlung hätte werden können.7 Hier ist eine zutiefst beunruhigende Abhängigkeit von Automatenentscheidungen geschaffen worden. Die Maschinen, die menschliche Fähigkeiten und Handlungen imitieren können, werden durch ein kritisch gesprochenes Wort nicht von einer einmal festgelegten Handlungsausführung ablassen. Sie arbeiten nach Programm. Erst wenn der Programmtext in allen betroffenen Automaten im intendierten Sinne geändert wird, nehmen sie eine

6 7

Steinmüller: Informationstechnologie, 1993, S. 329 Vgl. Oppermann: 2000. 1999. S. 33. f.

169

Kommunizierende Automaten Korrektur zur Kenntnis. Die Folge ist, dass mitunter wegen eines eher unbedeutend zu nennenden Fehlers eine beispiellose Zusammenarbeit zur Risiko-Abwehr erforderlich ist.8 Wo liegen die Grenzen der Möglichkeiten der Automaten? Im Rahmen der oben dargestellten unscharfen Entscheidungssituationen wurde bereits auf die maschinell anscheinend nicht handhabbaren Aufgaben hingewiesen. Steinmüller greift diesen Gedanken in Bezug auf die Verschriftung auf: „Und die prinzipiellen Grenzen? Stets lag bisher die Grenze des Rechners und der Informationssysteme dort, wo kein Programm geschrieben werden konnte, weil das fragliche Problem noch nicht formalisierbar war.“9 Der Mensch ist in diesen Fällen nicht in der Lage, die Aufgaben in formale, maschinell ausführbare Handlungsstrukturen zu fassen. „Durch die ‚Maschinenlogik’ ist auch er an die Limitierungen des isolierten, des zergliedernden Intellekts gebunden. Die Grenze der Intellektprothese ist bisher die Reichweite des Intellekts.“10 Dieser Intellekt betreibt den Einsatz der Automaten in einem breiten gesellschaftlichen Umfeld. „In unserer Gesellschaft steht die Intellektprothese im Dienst der industriellen Umgestaltung der Natur, der Gesellschaft und der Biosphäre.“11 Wie umfassend das Ausmaß des Automateneinsatzes ist, hat das Jahr-2000Problem in aller Deutlichkeit vor Augen geführt. Sie ist ein Beispiel für „die Größe des Computers und seine Grenze“.12 Der Automat „wird für uns zur Gefahr, wenn wir das eingebaute Risiko übersehen, und zur Chance, wenn wir diese bisher größte Errungenschaft westlicher Rationalität überlegt und verantwortet zu nutzen wissen.“13 Das eingebaute Risiko ist in erster Linie die durch Sprache implementierte Entscheidungs- und Handlungsmächtigkeit, der also auf diese Weise übertragene Intellekt eines Automaten. Steinmüller stellt in diesem Zusammenhang eine „respektlose Denksportaufgabe: Kann man eigentlich einen über die Ufer getretenen Intellekt mit demselben Intellekt allein wieder kanalisieren?“14 Eine Denksportaufgabe, welche die modernen, die Informationstechnik in hohem Maße einsetzenden Gesellschaften allein im Hinblick auf das überschaubare Jahr-2000-Problem bereits 8 9 10 11 12 13 14

Vgl. die Ausführungen der EU-Kommission auf S. 64 f. Steinmüller: Informationstechnologie, 1993, S. 328. Ebd. Ebd. S. 328 f. Ebd. S. 329. Ebd. Ebd.

170

Das Medium, die Botschaft und der Sinn Milliarden an Dollars gekostet hat. Es ist fraglich, ob in der Folgezeit der Respekt vor den mit der eingesetzten Technik verbundenen Implikationen trotz des hohen Budgets, das zur Behebung des Problems nötig war, tatsächlich gewachsen ist. Auch unabhängig von unübersehbaren technischen Großproblemen sind Fehler in der Automatensteuerung im gesellschaftlichen und vor allem im ökonomischen Umfeld stets feststellbar. Wie die von Stefan Krempl in seinem Aufsatz über das Scheitern der IT-Großprojekte genannten Beispiele15 weisen auch die im Jahr 2005 veröffentlichten Darstellungen von Bernhard Westfechtel (Lehrstuhl Angewandte Informatik, Universität Bayreuth) auf Fehler im Rahmen der Verschriftung von Handlungsanweisungen hin: • Europäische Mars-Sonde: verloren wegen inkonsistenter Annahmen bzgl. Längenmaßen in verschiedenen Teilsystemen (Zoll vs. cm) • Flughafen Denver: Inbetriebnahme mehr als ein Jahr verzögert durch Fehler in der Steuerung der Gepäckbeförderung • Flugkontrolle Maastricht: neues Kontrollsystem konnte mehrere Jahre wegen Software-Fehlern nicht in Betrieb genommen werden • Ariane 5: Rakete wegen eines nicht vorhergesehenen Zustands der Rakete abgestürzt (die Wenn/dann-Bedingungen im Programmablauf bildeten diesen Ausnahmezustand nicht ab) Vorgänger Ariane 4 war langsamer (kleinere Beschleunigung) Eine Minute nach dem Start war die Beschleunigung wesentlich höher als bei Ariane 4 => Überlauf einer Variablen zur Speicherung der Beschleunigung Rakete kam vom Kurs ab Rakete wurde von der Bodenkontrolle automatisch zerstört Schaden: 500 000 000 US $16 Besonders dieses letzte Beispiel macht erneut deutlich, welche weit reichenden Folgen die geringsten Verletzungen einer Konvention über den richtigen Gebrauch eines Ausdrucks zeitigen können. Westfechtel fährt mit der Schilderung des Abbruchs

15

16

Vgl. Krempl, Stefan: Das Casino-Prinzip. Warum so viele ITGroßprojekte scheitern. In: c't, Heft 23. 2004. S. 218 – 223. (Krempl: Casino-Prinzip, 2004.) Vgl. Westfechtel, Bernhard: Software-Engineering. Einleitung. Hrsg. vom Lehrstuhl Angewandte Informatik, Universität Bayreuth. 2005. In: http://ai1.inf.uni-bayreuth.de/teaching/ss_2005/ (Zugriff Mai 2006)

171

Kommunizierende Automaten

einer Programmentwicklung im Bereich der öffentlichen Verwaltung fort. „Fiscus • Föderales integriertes standardisiertes computergestütztes Steuersystem Bund-Länder-Projekt => 17 Auftraggeber 1,6 Millionen Codezeilen 50 000 Seiten Dokumentation 13 Jahre Entwicklungszeit 170 Millionen € Kosten prognostiziert 900 Millionen € tatsächliche Kosten Ergebnislos abgebrochen“17

Die Erfolg von Softwarerealisierungen erscheint nach diesen Beispielen zumindest bei umfangreichen Einzelprojekten gefährdet. Wie sehen die Ergebnisse aus einem verallgemeinernden Blick aus? An dieser Stelle sei ein zweites längeres Zitat gestattet. Der bereits oben erwähnte Stefan Krempl führt in einem im Internet veröffentlichten Vortrag aus dem Jahr 2005 aus: • •





„1 % der allgemeinen und 15 % der geschäftskritischen IT-Projekte liegen bei Unternehmen hierzulande in der Zeit (Capgemini 2005) Rund 30 % der IT-Projektarbeiter leiden an Burnout und erkranken, während in anderen Berufsgruppen etwa zehn % weniger Mitarbeiter betroffen sind. Gründe: extrem hohe Belastung durch besonders widersprüchliche Arbeitsanforderungen wie Schnelligkeit bei hoher Gründlichkeit und zunehmende Überlastung. Extremer Arbeitseinsatz aus Angst vor Arbeitslosigkeit (Gelsenkirchner Institut für Arbeit und Technik 2005) Mannigfaltigkeit des sozialen Lebens lässt sich kaum mit ein paar Programmparametern abdecken.“ 18

Die von Krempl erwähnte „Mannigfaltigkeit des sozialen Lebens“ bezieht sich auf die Vorgaben zur Entwicklung einer Software, die zur Berechnung des Arbeitslosengelds II dienen sollte. Der pragmatische Bezug der Automatensteuerung wird in dem letzten von Krempl angesprochenen Punkt deutlich. Der Weltbezug des Automatenhandelns, der im Automatentext stets allumfassend und invariant vorgegeben sein muss, übersteigt zumindest zur Zeit die Fähigkeiten der menschlichen Sprachschöpfer. Er schreibt über das Scheitern des maschinellen Berechnungsvorhabens:

17 18

Ebd. Warum scheitern IT-Projekte? Beispiele aus der Praxis. Vortrag bei der dbus-Jahrestagung 2005 am 08.06.2005 in Freiburg von Stefan Krempl. Aus: http://viadrina.euv-frankfurt-o.de/~sk/Pub/it-projektedbus605.pdf (Zugriff: Mai 2006)

172

Das Medium, die Botschaft und der Sinn •

„Oracle scheiterte bereits zuvor mit der Software-Entwicklung für die Berliner Sozialämter (”Basis 3000“): Die objektiv nicht vorhersehbare Komplexität führte zu finanziellem und zeitlichem Mehraufwand, verbunden mit mangelnder Akzeptanz der potenziellen Benutzer und damit zu hohen Risiken.“ 19

Die Liste der Software-Entwicklungen, die gar nicht oder sehr viel später als vorgesehen eingeführt wurden, ließe sich noch um viele weitere Beispiele verlängern. An dieser Stelle soll durch die genannten Beispiele belegt werden, dass die Umsetzung der Algorithmen in Sprache, das heißt die Lösung der Aufgaben durch Automaten, oft daran scheitert, dass die im Zitat angegebene Mannigfaltigkeit des Lebens, die Komplexität der Welt (noch) nicht im gewünschten Maße abbildbar ist. Es gibt noch keine Theorie der neuen Verschriftungsmöglichkeit, und die modernen Gesellschaften müssen sich zurzeit allein durch ihre Erfahrungen, die auch ein Erleben des Scheiterns oder sogar möglicher Katastrophen sein können, mit den erstmalig zur Verfügung stehenden Techniken auseinandersetzen. Auch diese Situation ist ein Indiz für eine aktuell durchlebte Zeitenwende.

Schadenbringende Worte – Das Programm wird zum Erreger In der Geschichte ästhetischer Produktionen gibt es zahlreiche Schilderungen über Gefahren, die mit dem sich verselbstständigenden Einsatz von Technik einhergehen.20 Sie thematisieren eine Technik, die zunächst hilfreich dient oder zumindest so erscheint, sich jedoch während des Einsatzes zumindest partiell als unberechenbar erweist. Auch wird eine Technik dargestellt, die sich gegen den oder die Schöpfer beziehungsweise die Anwender – mitunter in feindlicher Absicht – wendet. In der Figur des Golem21 sieht Kittler ein solches Bild der Technik. „Die Figur des Golems jedenfalls ist perfekt. Speichermedien der Gründerzeit konnten nur Auge und Ohr, die Sensorien des ZNS ersetzen, Übertragungsmedien der Zwischenkriegszeit nur Mund und Hand, die Motorik von Information.“22 Die Verselbstständigung des artifiziellen Wesens war noch nicht weit genug gegangen. „Weshalb hinter 19 20

21 22

Ebd. Siehe die bibliographische Information von Dotzler, Bernhard, Peter Gendolla und Jörgen Schäfer: Maschinen-Menschen: eine Bibliographie. Frankfurt am Main, Bern, New York: Paris 1992. Vgl. Meyerink, Gustav: Der Golem. Ein Roman. Leipzig, 1915. Kittler: Grammophon, 1986. S. 354. ZNS steht für Zentralnervensystem.

173

Kommunizierende Automaten allen Registern, allen Kanälen noch immer ein Mensch am Senden schien. Das sogenannte Denken blieb Denken, also nicht zu implementieren.“23 Erst der nun mögliche neue Einsatz der Sprache in Automaten führte zu einer einschneidenden und entscheidenden Veränderung. Um die Selbstständigkeit der künstlichen Geschöpfe zu erreichen, „mußte Denken oder Sprechen erst vollständig in Rechnen überführt werden.“24 Der durch Sprache geleitete Automat wird in dieser Romanfigur „perfekt“ (Kittler) vergegenständlicht. Der Apparat, der Automat, die Maschine findet als ästhetisches Thema auch im Komplex des Jahr-2000-Problems Widerhall. Betrachtungen dazu haben beispielsweise Eingang in die Produktion von Hörspielen und Fernsehfilmen gefunden. Diese Produktionen behandeln explizit das Versagen der automatensteuernden Sprache, das Versagen technischer Systeme durch falsche bzw. unzureichende Programmierung. Als Beispiele können das Hörspiel „Bugs Jitterclub“25 und der Fernsehfilm „Die Millennium-Katastrophe“26 gelten. Während das Hörspiel sich inhaltlich an die technischen Spezifika des Jahr-2000-Problems hält (Erzeugung eines syntaxkonformen Codes, der durch die eintretenden Umweltbedingungen – den Jahrtausendwechsel – zu einem möglicherweise nicht mehr zutreffenden Code wird), gestaltet der Fernsehfilm das Jahr-2000Problem als Sabotage-Akt eines einzelnen Täters. Ein genialischer Computerspezialist, ein Strafgefangener, der seinen Widersacher, der ihn zu Unrecht ins Gefängnis gebracht hat, zwingen will, die Wahrheit über sein (schändliches) Verhalten zu enthüllen, schafft es, den einen, aber anscheinend auch alles entscheidenden Computercode so zu ändern, dass allein durch diese Tat bereits das weltumspannende Jahr-2000-Problem auftritt. In der Spiegelung des Jahr-2000-Problems in diesen fiktiven Produktionen wird die Spannweite der möglichen Mängel und 23 24 25 26

Ebd. Ebd. S. 354 f. Vgl. in den Prologomena die Angaben zu „Bugs Jitterclub. Szenarien der Zukunft.“ Hörspiel, WDR 1999. Die Millenium-Katastrophe. Computer Crash 2000. Fernsehfilm Deutschland 1999. Regie: Anders Engström, Darsteller: Jürgen Prochnow, Gudrun Landgrebe u.a. Originalidee: Michael Huber, Story: Jutta Rabe, Kaj Holmberg, Chris Wilson, Drehbuch: Vincent Monton, Kamera: Nicolas Joray, Schnitt: Dirk Grau, Ton Design: Clemens Grulich, Musik: J. M. Paula, Paul Wuthe, Gesang: Katarina Holmberg, Produkt Design: Joris Hamann (Deutschland) und Walter Salmon (Australien), Produzenten: Kaj Holmberg und Jutta Rabe, Co-Produzenten: Zarwot Pty Ltd Ross Mathews (Australien) und SAT 1 Doris Kirch (Deutschland), Redaktion: Robert Stiemerling und Martin Ganz.

174

Das Medium, die Botschaft und der Sinn Gefahren sichtbar, die sich mit der Abarbeitung von Programmen in Automaten ergeben können: •





Zum ersten ist es die Abhängigkeit gesellschaftlicher Prozesse von Maschinen. Sie erscheint als Ausgangspunkt einer allgemeinen Bedrohung. Zum zweiten ist es die Fehleranfälligkeit der Systeme durch unzureichende Erstellungsvereinbarungen, etwa Syntax- und Semantik-Regelungen von Programmen und/oder unzureichende Vorgaben für die Verarbeitung von Eingaben oder errechneten Zwischenergebnissen. Zum dritten entsteht eine Gefährdung dort, wo absichtlich oder aus mangelhafter Kenntnis der Programm- und Systemanforderungen eine fehlerhafte Programmierung vorgenommen wurde. Es wird in den Produktionen zumindest ansatzweise thematisiert, dass sich die Automaten dann potentiell fehlverhalten können, wenn die Rahmenbedingungen des sprachlichen Codierungsvorgangs nicht ausreichen bzw. eine möglicherweise absichtliche Fehlprogrammierung vorliegt.

Warum, so ist zu fragen, hebt der Fernsehfilm, der sich an ein Massenpublikum wendet, den Sabotage-Akt so besonders hervor und sogar – wider alle auch bereits damals vorliegende Erkenntnis – zur tatsächlichen Ursache des Jahr-2000-Problems? Möglicherweise erschien den Fernsehverantwortlichen das einem geregelten Gebrauch einer Technik innewohnende Risiko als Thema einer Unterhaltungssendung ungeeignet. Aus medienwissenschaftlicher Sicht heraus scheint mir interessant, einmal zu untersuchen, auf welche Weise das mögliche Versagen einer zentralen Kommunikations- und Steuerungstechnik im Rahmen Fernsehfilms aufbereitet wird. Das Fernsehen hat das globale Versagensthema als böswillige Veränderung eines einzelnen, aber zentralen Codes ausgegeben. Der als Einzeltäter identifizierbare Verbrecher kommt am Ende des Films um. Das eine Programm wird wieder richtig (und wie ursprünglich intendiert) hergestellt. Alle Automaten im Film funktionieren nach der Korrektur wieder einwandfrei. Bei der Herstellung böswillig geänderter sprachlicher Anweisungen geht es im Bereich der Automaten um den bewussten Einsatz von Störprogrammen. Diese Schadprogramme treten in ihrer extremsten Form als Computerviren oder davon abgeleitete

175

Kommunizierende Automaten Programmformen auf.27 Ein Schadprogramm hat die Absicht, einen eigenen kommunikativen Zweck umzusetzen.28 Im Bereich der Wirtschaft und des Militärs werden diese Störprogramme bereits professionell erstellt und eingesetzt: „Die neuen Waffen sind Computerviren in allen Varianten. Zum Beispiel ‚logische Bomben’: kleine Programme, die Hacker in fremde Computer einschmuggeln und bei Bedarf fernzünden.“29 Es geht darum, Schaden anzurichten. Die Virenprogramme und deren Unterformen können deshalb wirkungsvoll sein, weil die befallenen Informatik-Systeme mit ihnen kommunizieren. Dies tun sie nicht nur in dem Moment der Infiltration der Programme, sondern auch und vor allem danach. Die Virenprogramme geben Befehle und Anweisungen, und das Betriebssystem sowie die anderen Programme befolgen diese, als seien es vom Anwender gewünschte Ausführungen. Die Virenprogramme stören nicht, weil sie anders als die anderen Programme sind, sondern weil sie sich mit den anderen Programmen gut verstehen. „So können sie Computersoftware beschädigen oder sogar zerstören. Noch wirkungsvoller sind ‚trojanische Pferde’: Programme, die man sich als Computerbenutzer selber ahnungslos in den Rechner holt – zum Beispiel beim Öffnen von E-Mails und anhängenden Dateien.“30 Zerstörung und Vernichtung ist jedoch nicht die einzige, vielleicht zukünftig noch nicht einmal die primäre Aufgabe der Virenprogramme. Ihre Aufgabe ist es auch, durch Kommunikation alles Wissenswerte über ihren Wirt einem Dritten mitzuteilen.

27

28

29

30

Vgl. Blum, Daniel: Krieg der Viren – Armeen rüsten sich für den Angriff im Internet. Eine Sendung des DeutschladRadio: DLF – Hintergrund Politik vom 13.06.2001. 14 S. (Blum: Viren, 2001.) Ein Beispiel für eine solche Störung der Kommunikation stellen alle Programme dar, die ohne das Wissen des Anwenders Handlungen auf dem Rechner auslösen, Daten an Dritte weitergeben oder Daten des Anwenders unbeauftragt ändern oder löschen. Blum: Viren, 2001. S. 3 des Manuskriptes. Blum zitiert in seinen Bericht u.a. den Politikwissenschaftler Ralf Bendrath und den BND-Präsidenten August Hanning sowie Ingo Ruhmann, Sprecher des FIFF, einer Vereinigung kritischer Informatiker. Ralf Bendrath: „Die USA sind seit Jahren die ersten und diejenigen, die in vorderster Front diese Konzepte entwickeln von Informationskrieg, Krieg in den Datennetzen und ähnliches. Und jetzt [...] fangen halt andere Mächte wie Russland, China an nachzuziehen.“ S. 6. Blum: „Ein Computervirus als Waffe, einmal von der Kette gelassen, kann womöglich auch nicht wieder zurückgepfiffen werden.“ Bendrath: „ Das ist natürlich als Waffe etwas heikel: weil Viren im Prinzip so eine Art elektronische B-Waffe sind. Und einfach nicht gesteuert werden kann, wo sie sich verbreitet. Das kann dann im Prinzip auch wieder zurückschlagen.“ S. 9. Blum: Viren, 2001. S. 3 des Manuskriptes.

176

Das Medium, die Botschaft und der Sinn Die Schöpfer von Virenprogrammen, die in andere Rechner eindringen, die so genannten Hacker, können Einzelpersonen, politische und militärische Stellen oder Unternehmen sein. „Hacker können über sie fremde Rechner kontrollieren, Daten unbemerkt heraus- und hereinbringen oder den Computer nach eigenem Gutdünken Befehle ausführen lassen.“ 31 Der arglose Anwender bekommt von alledem unter Umständen nichts mit. Es kann aber auch möglich sein, dass der Anwender in das Ausspionieren seiner Tätigkeit an einem elektronischen Medium einwilligt oder dass diese Kontrolle zwangsweise durchgeführt wird. Die Kommunikation der Automaten untereinander und (eingeschränkt) mit den Menschen macht diese Kontrolle möglich.32 Als Beispiel für den massenhaften Einsatz von Spionageprogrammen kann ein Computerprogramm des Musikkonzerns Sony BMG herangezogen werden. Mit der vom Anwender gewünschten Installation eines Musikprogramms auf dem Rechner wird „unbemerkt im Hintergrund Spionage-Software“33 installiert. Unter der Überschrift „Bürgerrechtler und Texas verklagen Sony BMG wegen XCP-Kopierschutz“ berichten die Heise Online-News am 22.11.2005: „Die Bürgerrechtler der Electronic Frontier Foundation (EFF) haben in den USA eine Sammelklage gegen Sony BMG

31 32

33

Ebd. Vgl. zur Kontrolle der Anwender auch in demokratischen Staaten die Aufforderung an die Suchmaschinenbetreiber, Angaben über Suchanfragen den staatlichen Stellen mitzuteilen. Siehe Handelsblatt, Düsseldorf, vom 15.03.2006: „US-Gericht will an Googles Daten heran. Ein Richter in Kalifornien hat angekündigt, die Internet-Suchmaschine Google zur Herausgabe tausender Nutzerdaten zu zwingen. Mit dem Material will die US-Regierung ihre Zensurbestrebungen fürs Internet untermauern. Alle anderen Suchmaschinen-Betreiber sind schon eingeknickt und haben ihre Daten preisgegeben. [...] Von allen anderen Suchmaschinen-Betreibern in den USA – unter anderem Yahoo und MSN (Microsoft) – hat die Regierung die geforderten Daten erhalten. Die Regierung verweist darauf, dass es sich nicht um personalisierbare Informationen handele. Google argumentiert hingegen, die geforderten Datensätze würden durchaus Informationen über die Gewohnheiten seiner Nutzer insgesamt hergeben. Außerdem fürchtet Google um seine Firmengeheimnisse. Bislang verweigert der Konzern grundsätzlich Angaben zur Größe seiner Datenbank.“ Vgl. „Der Standard“, Wien, vom 05. November 2005: „Sonys CDKopierschutz installiert Spionagesoftware auf Rechnern“. Zum Begriff Rootkit vgl. die Ausführungen in Wikipedia: „Ein Rootkit (englisch etwa ‚Adminzeug’) ist eine Sammlung von Softwarewerkzeugen, die nach dem Einbruch in ein Computersystem auf dem kompromittierten System installiert wird, um zukünftige Logins des Eindringlings zu verbergen, Prozesse zu verstecken, Daten zu kopieren und Eingaben mitzuschneiden.“

177

Kommunizierende Automaten wegen der Kopierschutzmechanismen auf CDs des Konzerns eingereicht.“34 Die Bürger treten für ihre Rechte ein und versuchen durch Klagen, die Möglichkeiten der – von ihnen ungewollt und ungewünscht – kommunizierenden Automaten zu beschränken bzw. gänzlich zu beschneiden. In dem Fall Sony BMG wenden sich jedoch auch staatliche Stellen gegen den Konzern. „Parallel dazu haben die Justizbehörden des US-Bundesstaates Texas gegen Sony BMG Klage erhoben.“35 Diese Klagen machen deutlich, dass die Firma hier einen Weg beschritten hat, der Bürger und Staatsorgane gemeinsam gegen sie aufbringt.36 Privatpersonen und staatliche Stellen nehmen diesen Handlungs- und – damit verbunden – Erkenntniszuwachs auf Seiten der Firma sehr genau wahr. Das Spionageprogramm der Firma Sony entmachtet den einzelnen Anwender und darüber hinaus auch den Staat, der bei einer Billigung des Programms nicht mehr wie bisher die rechtliche Hoheit hat, zu verfügen, dass die Privatsphäre eines Menschen aufgehoben werden darf. Der Staat verliert das Privileg, über den Schutz der Privatsphäre (richterlich) zu entscheiden. Die durch Virenprogramme vergifteten Automaten übertrügen zu jeder Zeit alle zu ermittelnden und gewünschten Informationen an einen beliebig im Programm zu benennenden Empfänger. Ja, es ist vorstellbar, dass die Informationen über die ausgespähten Personen von den Automaten je nach Charakter der Daten bereits selektiert an Banken, Versicherungen, Musikkonzerne, Handelshäuser, Telekommunikationsunternehmen usw. versandt würden. Die Gewinnung von Daten und Informationen durch die Aufhebung des Briefgeheimnisses oder der Immunität eines Abgeordneten sind von geringerer Bedeutung im Vergleich zu den Daten, die über die Millionen von ausspionierten Bürgern an Sony BMG oder andere Betreiber von Spionageprogrammen

34

35 36

Vgl. Heise Online-News vom 22.11.2005 unter http://www.heise.de/ newsticker/meldung/66485. Vgl. auch den Artikel im Wiesbadener Tagblatt vom 06.05.2006: „Digitale Einbrecher mit Tarnkappe – Rootkits entwickeln sich zu ernsthafter Bedrohung für heimischen Rechner – Oft seriöse Firmen als Absender.“ Vgl. auch den Artikel im Giessener Anzeiger vom 23.03.2006: „Rechner ausspioniert. Um eine kopiergeschützte CD auf dem PC abspielen zu können, muss ein eigener Player installiert werden. Dieser teilt Sony vertrauliche Daten des jeweiligen Nutzers mit.“ Vgl. Heise Online-News vom 22.11.2005 Im Zusammenhang mit diesen gesetzeswidrigen Programmen, die in Unternehmen von Weltrang erstellt wurden, sei an die oben dargestellten Ausführungen zum macho management erinnert. Siehe S. 89 ff.

178

Das Medium, die Botschaft und der Sinn geliefert werden.37 Dieser Machtzuwachs erinnert an die kritischen Ausführungen von Ralph Nader im Jahr 1971 vor den Teilnehmern des ACM-Kongresses. Wie zuvor dargestellt, geht der Staat dieser Machtstellung verlustig, nicht weil andere Organisationen einen zweiten quasistaatlichen Apparat aufgebaut hätten, sondern weil die auftraggebenden Menschen in der Lage waren, einen Text zu verfassen, der die Automaten handeln, entscheiden und kommunizieren lässt. Im Prinzip kann jeder (einzelne bzw. allein agierende) Mensch, der des Programmierens kundig ist, diese Spionageprogramme versenden und die so ermittelten Daten wiederum durch Programme maschinell auswerten lassen. Das Spionageprogramm führt die Handlungen für den Anwender (und den Staat) unsichtbar aus, es versteckt „sämtliche Prozesse, RegistrySchlüssel, Dateien und Verzeichnisse“ „vor dem Anwender“.38 Die einmal im Zusammenhang mit dem Sony-Kopierschutz installierten Programmanweisungen werden gemäß des Heise OnlineBerichts wiederum von anderen Programmen eingesetzt, um weitere Handlungen auszulösen, die Sony wiederum nicht kennt und insofern auch nicht kontrollieren kann. Der textuelle Charakter der Programme lässt es zu, dass Handlungen im Automaten aktiviert und gleichzeitig unsichtbar gemacht werden können. Der eingeschleuste Computervirus gestattet es anderen Programmentwicklern, die den schädlichen Code kennen, sich seiner Programmfunktionen zu bedienen und ihrerseits wieder andere programmierte Aktivitäten zu starten. Der ausspionierte und angegriffene Anwender muss selbst stets neue bzw. aktualisierte Programme einsetzen, um die Verzerrung des Kommunikationsvorgangs zu bemerken und, sofern es ihm möglich ist, zu unterbinden. Auch diese neue machtvolle und handlungsbefähigte Eigenständigkeit nur auf Sprache basierender Programmtexte, die nicht nur Einzelpersonen attackieren, sondern auch – ganz allgemein gesprochen – die staatliche

37

38

Vgl. dazu die Angaben in Kolla: Lauschverbot, 2004 sowie Borchers: Überwachung, 2004 auf S. 151: Firmen haben festgestellt, „dass annähernd ein Drittel der online geprüften PCs mit Spionageprogrammen oder Dateiresten solcher Programme verseucht sind. Die Tendenz ist steigend“. Vgl. auch die Ausführungen im Feature von Kreysler, Peter und Elise Fried: Von Jägern und digitalen Sammlern. Die neue Welt der elektronischen Überwachung. In: Deutschlandfunk. Sendung am Dienstag, 12.09.2006 19.15 – 20.00 Uhr. Vgl. ebd. S. 10 des Manuskriptes: „Die zunehmende Machtkonzentration der Datenbanken bereitet Datenschützern weltweit Sorge.“ Vgl. Heise Online-News vom 22.11.2005.

179

Kommunizierende Automaten Herrschaftsausübung, ist ein Indiz für eine mögliche medialbedingte Zeitenwende.

Information, mechanistisches Weltbild und Sprache Vor dem oben geschilderten Hintergrund und angesichts der Erfahrungen mit dem Jahr-2000-Problem überrascht, dass Überlegungen über ein auf Messung, Transformation und Logik beruhendes Bild des Automatenhandelns aktuell wieder einen Ausdruck in den Ausführungen der führenden Vertreter der Informationstechnologie finden. Heinz-Paul Bonn, Vizepräsident des Bundesverbandes Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM), verweist im Hinblick auf neu eingesetzte maschinelle Kommunikations-Techniken auf Gedankengänge Demokrits. Nach den Worten Bonns hat Demokrit „auch das Internet der Dinge“ „schon im antiken Griechenland“39 beschrieben. Bonn gibt an, in bestimmten modernen Verfahren digitaler Objektkennzeichnung und Objektwahrnehmung durch Automaten Parallelen zu den Gedanken Demokrits zu erkennen. „Nach seiner [Demokrits; pf] Überzeugung gehen von allen Dingen dieser Welt Bildchen aus, so genannte Eidola – heute sagen wir Idole, oder kurz IDs.“ 40 Bonn sieht in einer neuen Etikettierungs-Technik eine praktische, das heißt technik-gegenständliche Umsetzung der philosophischen Ideen Demokrits. Ziel der Ausführungen Bonns als Vertreter der Informationswirtschaft ist es, die Kennzeichnung von Waren und Güter durch sprechende, das heißt Signale aussendende Stempel, die so genannten RFID-Chips41, mit den Überlegungen Demokrits über die Möglichkeiten von Erkenntnis und Wahrnnehmung zu verbinden. Der Begriff „Internet der Dinge“ ist von der Informationswirtschaft und hier vor allem von der Informationslogistik aufgenommen und in Veröffentlichungen beispielsweise des Fraunhofer Instituts verbreitet worden: 39

40 41

Bonn, Heinz-Paul: Informationslogistik – ein brandheißer Exportschlager. Dinner-Speech im Rahmen des Fraunhofer Symposiums RFID am 13.09.2005. In: Internet: http://www.bitkom.org/files/documents/Rede_Bonn_Fhg_Symposion_ Dortmund_13.09.2005.pdf. S. 8. (Bonn: Informationslogistik, 2005.) Ebd. RFID = Radio Frequency Identification. Die Chips senden über Radiowellen Signale, die von Automaten empfangen, gelesen und bewertet werden können.

180

Das Medium, die Botschaft und der Sinn „Das ‚Internet der Dinge‘ ist eine der ‚Perspektiven für Zukunftsmärkte‘ der Fraunhofer-Gesellschaft. Die Vision vom "Internet der Dinge" wurde erstmals 2004 formuliert“.42

Bei den mit RFID-Chips ausgezeichneten Dingen sind es nicht die Menschen, welche die „Eigenschaften“ der Objekte wahrnehmen, sondern Menschen ordnen bestimmten Objekten Kennzeichnungen willkürlich zu. Maschinen prägen diese Kennzeichnungen auf die ID-Chips der Objekte und nur Maschinen sind fähig, diese Daten zu empfangen und zu verarbeiten. Nur Maschinen können durch ihr Handeln eine „Wechselwirkung“ aufgrund der (willkürlichen) Kennzeichnungen der Dinge herbeiführen.43 Die RFIDs sind eine beliebige äußerliche Auszeichnung eines Objekts. In der Regel werden die Objekte im Sinne einer Warenkennzeichnung markiert. Der Vorgang des Auslesens dieser Information hat mit dem Objekt nichts – oder allenfalls als Warenbezeichnung – zu tun. Die Wahrnehmung der RFID-Kennzeichnungen hat große Bedeutung im Hinblick auf die Ausdifferenzierung der Mechanismen einer sprachgestützte Automatensteuerung. Denn die Automaten, die syntaktischen Geräte44, erkennen im Auslesen der RFIDs nicht etwa das wahre Wesen der von ihnen erfassten Objekte, sondern den sprachlich codierten Aufkleber auf einem Objekt. Es findet eben keine außersprachliche Wahrnehmung und schon gar kein Denken statt. Die Automaten erfassen mechanisch die ausgesandten Zeichen und verarbeiten diese nach dem eingegebenen Programm. In der Darstellung Bullingers und ten Hompels sollen durch die automatisch zu verarbeitende Warenkennzeichnung per RFID, Handeln und Handel näher zusammenrücken: „Jedes Paket, jeder Container, jeder Transportbehälter, so die Vision, findet selbst 42

43

44

Vgl. http://publica.fraunhofer.de/starweb/servlet.starweb?path=pub0.web&search=H-18375. (Zugriff Mai 2009) Auf dieser Seite findet sich der Hinweis auf das Buch von: Bullinger, Hans-Jörg; Ten Hompel, Michael (Hrsg.): Internet der Dinge. Berlin, 2007 Die Darstellung Bonns erinnern an eine Geschichte aus der Odyssee von Homer. Odysseus gerät mit seinen Kameraden in die Gefangenschaft des einäugigen Riesen Polyphem. Odysseus nennt sich ihm gegenüber „Niemand“. Nachdem Odysseus Polyphem geblendet hat, gibt dieser dessen ihm bekannte Identifikation (ID) „Niemand“ an die anderen Riesen weiter. Da niemand ihn geblendet habe, so deren Reaktion, sie auch nichts passiert. Die willkürliche Benennung Niemand hat nichts mit dem Menschen Odysseus zu tun. Die rein äußerliche Kennzeichnung wird, wie in den Ausführungen bei Bonn beschrieben, jedoch mit dem Gegenstand (Subjekt, Objekt) gleichgesetzt. Denken stellt sich bei den Riesen jedoch nicht in der Form ein, dass sie das Wahre eines Gegenstands erkennen. Vgl. Zemanek: Information, 1986. S. 40.

181

Kommunizierende Automaten den richtigen Weg zum Empfänger. Ort und Zustand der Dinge werden transparent und nachvollziehbar“.45 Die richtige Form der Kennzeichnung der Dinge reicht aus, um das eigenständige Handeln und (Sich?)-Bewegen der Dinge möglich werden zu lassen. In diesen Zusammenhang fallen ebenfalls die gesetzlichen Regelungen der EU-Kommission zum automatischen Informationsaustausch zwischen Fahrzeugen und der Straßeninfrastruktur.46 Radiofrequenzen, welche die EU gesetzlich bestimmt hat, sollen für verkehrsbezogene Statusmeldungen genutzt werden. „Über die nun festgelegten Frequenzen könnten mit entsprechender Kommunikationstechnik ausgestattete Autos, die beispielsweise eine gefährlich rutschige Stelle auf der Straße feststellen, diese Informationen an andere Autos übermitteln“.47

Dem neuen Medium wird politisch der Weg bereitet. Ganz im Sinne Hickethiers treten hier politische und ökonomische Kräfte als Geschichte prägende Dimensionen auf, die den Einsatz neuer Medientechnologie vorantreiben und steuern. Gleichwohl gehen diesen Vorgängen Überlegungen voran, welche die medientechnischen Leistungsmöglichkeiten beleuchten. Hierunter fällt beispielsweise der Beitrag Michael Schrauts „Umgebungserfassung auf Basis lernender digitaler Karten zur vorausschauenden Konditionierung von Fahrerassistenzsystemen“. In seiner Arbeit geht Schraut auch auf die „Automatisierung im Straßenverkehr“ und die Leistung der GPS-Steuerung ein.48 In der Kooperation von informationstechnischen Systemen im Fahrzeug – embedded systems -, von RFID-Markierungen an im Fahrzeug befindlichen und externen Objekten sowie von maschinellen Umgebungsinformationen, die über Radiofrequenzen ausgetauscht werden, zeigt sich die kommunikative Herausforderung, welche die Automaten alle in Echtzeit, das heißt ohne Zeitverzug durch Datenverarbeitungsvorgänge, zu bewältigen haben. Grundsätzlich treffen Bonn, Bullinger und ten Hompel mit ihren Ausführungen den Kern der Vorgänge im Rahmen der 45

46 47

48

Vgl. http://publica.fraunhofer.de/starweb/servlet.starweb?path=pub0.web &search=H-18375. (Zugriff Mai 2009) Vgl. http://europa.eu/scadplus/leg/de/lvb/l31103.htm sowie http://europa.eu/scadplus/leg/de/lvb/l24007.htm (Zugriff Mai 2009) ZDF-Meldung vom 5.8.2008. Aus: www.heute.de/zdfheute/inhalt/12/0,3672,72759800,00.html (Zugriff: September 2008) Schraut, Michael: Umgebungserfassung auf Basis lernender digitaler Karten zur vorausschauenden Konditionierung von Fahrerassistenzsystemen. München, 2000. S. 1

182

Das Medium, die Botschaft und der Sinn Automatenkommunikation. Für den Automaten ist nur jenes Objekt rezipierbar, aber eben nicht tatsächlich wahr~nehmbar, das solche Signale sendet, die von ihm als Empfänger bemerkt werden können. Trifft diese Anforderung nicht zu, übersieht der Automat das Objekt. Es ist auch vorstellbar, dass Signale anders als intendiert vom empfangenden Automaten wahrgenommen werden können. Findet eine derartige maschinelle Kommunikation statt, wird die übersandte Information verfälscht. Durch diese falsche (hierunter fällt auch eine unvollständige) Wahrnehmung misslingt die Kommunikation; dies hat unter Umständen zur Folge, dass die vom Automaten eingeleiteten Handlungen ihren Zweck verfehlen. Die Kommunikationsbedingungen, die zum globalen Jahr-2000-Problem geführt haben, wiederholen sich prinzipiell in allen Informationsverarbeitungsvorgängen der Automaten. Aus medienwissenschaftlicher Sicht ist die gesellschaftliche – vor allem logistische – Funktion des weltumspannenden Leitsystem GPS von besonderer Bedeutung. Die Verbindung von kaufmännischen Interessen und Medien beschreibt Werner Faulstich in Bezug auf die Post in seinem Werk über die bürgerliche Mediengesellschaft.49 Die zu Beginn des 19. Jh. deutlich vorgetragene Forderung nach schneller(er) und zielgerichteter Beförderung findet heute durch Technikeinsatz ihre Erfüllung. Die Waren werden zu „sprechenden“ Gütern, die durch Informationen sendende Chips ihre Position und ihr Versandziel selbst bekannt geben. Die automatische Verbreitung erfolgt über Medien, im Fall der RFID-Chips über Radiowellen. Die Verarbeitung der empfangenen Daten findet in medial verbundenen Automaten-Systemen statt. So wird der Transport von Waren und Menschen durch die programmgesteuerte Logistik auf eine neue Stufe gehoben. In einer Fernsehwerbung des Jahres 2005 wirbt IBM mit diesen technischen Fähigkeiten und deutet an, dass auf den Fahrer möglicherweise in Zukunft verzichtet werden kann. Das heißt, die Übernahme des Meldeverkehrs durch die Produkte selbst und die maschinelle Verarbeitung der Signale macht den Menschen in diesem Vorgang als ausführende und steuernde Kraft in Zukunft möglicherweise überflüssig. In der Werbung mit der Aussage „Logistik ohne Umwege – Mit Hilfe von IBM“ (Detailangaben zur Werbung am Ende des Absatzes) wollen zwei Fernfahrer ihre Ladung nach Fresno transportieren. Eine resolute Dame an einem quer auf die Fernstraße gestellten Schreibtisch, einem in

49

Faulstich: Mediengesellschaft, 2002. S. 97.

183

Kommunizierende Automaten der Werbung so genannten IBM-Help Desk, weist sie darauf hin, dass sie sich fälschlicherweise auf der Straße nach Alberquerque befänden. Das Wissen um das gewünschte Ziel kann sie dem System entnehmen, das die Daten, die so genannte RFID-Chips senden, auslesen und in Bezug auf die Strecke interpretieren kann. Die RFID-Chips werden an Waren und Warenkisten angebracht. Den Daten der Chips ist zu entnehmen, wo die Kisten bzw. Waren sich aktuell befinden und wohin sie zu senden sind bzw. welchen Weg sie zurücklegen. Die Kernaussage der Werbung: Die elektronisch aufgerüsteten Kisten wissen über ihre Position und ihr Ziel besser Bescheid als der menschliche Fahrer. Die vordergründige Quintessenz in der Werbe-Darstellung: „Vielleicht sollten die Kisten fahren.“50 Die auf maschinensprachlicher Basis beruhende Realisierung eines solchen Systems von über Medien (Radiowellen, Satellitensignale etc.) miteinander vernetzten Automaten könnte die bereits vor 200 Jahren geäußerte Forderung der „Kaufleute nach Verkürzung“ (Faulstich) der Wegezeiten in einem weltumspannenden Maßstab erfüllen. Aus der Geschichte ist abzuleiten, dass so, wie „in den zwanziger Jahren des 19. Jahrhunderts [...] dann ganz Deutschland mit einem dichten Netz von Kunststraßen überzogen [wurde], auf denen die Eilposten der Deutschen Postverwaltungen mit einer Geschwindigkeit von 8 – 9 km in der Stunde durch die Lande ‚rasten’“51, die infrastrukturellen Maßnahmen umgesetzt werden, welche die Realisierung der neuen Technik erfordert. Das heißt – greift man die Aussagen von Oppermann noch einmal auf – wird möglicherweise ein System entwickelt, das die Umweltdaten wie Verkehrsdichte, Wegstrecke, Energieverbrauch, Wegekosten, Zeitrahmen etc. maschinell nach einem eingegebenen Algorithmus interpretiert und entscheidet, wie (Wegstrecke, Geschwindigkeit etc.) gefahren werden sollte bzw. muss(!) je nach Ausgestaltung des Systems. Die „Kunststraßen“ (Faulstich) sind weitgehend erstellt, der menschliche Postillion wird ausgetauscht

50

51

Die Werbung wurde nach einer Idee des Werbeunternehmens „Ogilvy & Partner“ gedreht. Vgl. auch die Pressemeldungen auf http://www.ogilvy.de/ogilvy/index2.html. Die 2005 tatsächlich gegebene Leistungsfähigkeit der RFID-Chips liegt weit unter der, die IBM in seiner Werbung andeutet. Vgl. dazu „Risiken und Chancen von RFID- Radio Frequency. Eine Studie des BSI in Zusammenarbeit mit dem Institut für Zukunftsstudien und Technologiebewertung u.a.“ auf: http://www.bsi.de/fachthem/rfid/Kelter_RIKCHA_Praesentation_17.pdf Korzendorfer, Adolf: Von Postreutern und Postillionen. Reihe: Meyers bunte Bändchen, Band 30. Leipzig: Bibliograph. Inst., 1936. S. 45 f.; zitiert nach Faulstich: Mediengesellschaft, 2002. S. 97

184

Das Medium, die Botschaft und der Sinn und der maschinelle Fahrer wird über medial übertragene Berechnungen und Entscheidungen gelenkt. Anhand des Jahr-2000-Problems wird beispielhaft deutlich, dass diese Optimierung des Warenhandels durch dienende Maschinen sich aufgrund möglicher Fehler in der maschinensprachlichen Gestaltung dieser Prozesse und Abläufe sich in ihr Gegenteil verkehren kann. Zudem besteht die Gefahr, dass sich eine Abhängigkeit der Menschen von den Maschinen einstellt, das heißt, dass zum Beispiel nur noch Waren befördert werden können, welche die neue digitale Schriftlichkeit in Form von sich selbst meldenden Chips aufweisen. Liegt ein maschineller Lesebzw. Interpretationsfehler vor, wird die Kommunikation verzerrt oder sie misslingt. Die Verkürzung komplexer erkenntnistheoretischer Gedankengänge über die Möglichkeiten der Erfahrung auf eine rein äußerliche und abstrakte Etikettierung, wie sie Bonn vornimmt, irritiert. Gleichzeitig verweist sie in all ihrer Befremdlichkeit auf ein auf Mechanik reduziertes eindimensionales Denken bzw. Wahrnehmen, das im Zusammenhang mit den Vorstellungen über Automatenhandeln gegenwärtig wieder an Bedeutung gewinnt. Angesichts des Versagens eines solchen Denkens, wie es sich im Rahmen des sprachlich bedingten Jahr-2000-Problems gezeigt hat (Welche Krisen- und gar Untergangsszenarien waren allein wegen des Lese- und Verarbeitungsfehlers des Jahrtausenddatums entwickelt worden?), erscheint dieser mechanistische Ansatz ungeeignet, um die mit der Verschriftung von Handlungsanweisungen verbundene Komplexität zu erfassen. John Briggs und David Peat führen in ihrem der ChaosTheorie gewidmeten Buch zum Gedankengebäude von Mechanik und Reduktionismus aus: „Zur Zeit Galileis, Keplers, Descartes´ und Newtons hatte der wissenschaftliche Geist mit seiner Unterdrückung des Chaos die Oberhand gewonnen. Newtons Gesetze der Himmelsmechanik und Descartes´ Koordinanten, die es den Wissenschaftlern erlaubten, sich die Welt als ein riesiges Netz vorzustellen, erweckten den Anschein, als könnte alles in mathematischen oder mechanischen Begriffen beschrieben werden.“52

Die (oben geschilderten) nicht vorhersagbaren Kommunikationsfolgen, die mit dem Jahr-2000-Problem verbunden waren und zu Gefahren und nationalen Krisen hätten führen können, haben 52

Vgl. Briggs, John und F. David Peat: Die Entdeckung des Chaos. Eine Reise durch die Chaos-Theorie. Originaltitel: Turbulent Mirror. An Illustrated Guide to Chaos Theory and the Science of Wholeness. Frankfurt am Main, Wien 1990. S. 25. (Briggs: Chaos, 1990.)

185

Kommunizierende Automaten deutlich gemacht, dass im Rahmen des Automatenhandelns ein mechanistisches Verständnis von Abläufen nicht ausreichte und nicht ausreichen wird. Die Auswirkungen „eines über die Ufer getretenen Intellekts“53 waren nur durch Textkorrekturen zu beheben. Diese Aufgabe erforderte eine „bislang beispiellose“ Zusammenarbeit54 von Regierungen, öffentlichen Einrichtungen und Unternehmen. Die Rahmenbedingungen maschineller Kommunikation verlangten eine Abkehr von einer Vorgehensweise, die alle Handlungen mechanistisch vorgeben wollte. Eine reduktionistische Weltsicht, die das Arbeiten von Automaten mit dem Funktionieren mechanischer Abläufe gleichgesetzt hatte, ist an den Erfahrungen gescheitert, die hinsichtlich der kommunikativen Beziehungen von Automaten im Rahmen des Jahr-2000-Problems gemacht werden mussten. Historisch gesehen, handelt es sich hierbei um ein Weltbild bzw. einen Erklärungsansatz, der sich aus der mathematischnaturwissenschaftlichen Denkweise entwickelt hat. „Zur Zeit Napoleons konnte sich der französische Physiker Pierre Laplace allen Ernstes vorstellen, daß die Forscher eines Tages eine einzige mathematische Gleichung herleiten würden, die mächtig genug wäre, alles zu erklären.“55 Alle Abläufe und alle Abhängigkeiten sollten bis ins Einzelne vorhersagbar sein, sofern dem Menschen die richtigen Daten für die richtige Formel bekannt wären. Die Wissenschaft, der es im wesentlichen um die prinzipielle Ordnung der Dinge geht, sollte ein für alle Mal das richtige Ordnungsmittel erhalten. „Die Unordnung war nun eingekerkert und gezwungen, die Gesten einer universellen Ordnung zu reflektieren.“56 Das Fach Informatik war zur Zeit seiner Gründung Mitte der 1940er Jahre im Bereich der Physik angesiedelt.57 Die Vorstellung einer dem Fachbereich Physik entlehnten Formalisierung, das heißt einer quasi naturgesetzlichen Berechenbarkeit aller informationstechnischen Prozesse und Handlungsdurchführungen zeichnet die ingenieurwissenschaftliche Ausrichtung des Faches aus.58 Gleichwohl wird im Fach selbst ein Mangel an brauchbaren Methoden festgestellt, wie die Erstellung von Software-Programmen auf dieser wissenschaftlichen Basis angeleitet werden kann. Es wird deutlich die Frage aufgeworfen, ob „Informatiker auch 53 54 55 56 57 58

Steinmüller: Informationstechnologie, 1993. S. 329. Siehe das oben auf S. 64 wiedergegebene Zitat der EU-Kommission. Vgl. Briggs: Chaos, 1990. S. 25. Vgl. ebd. Vgl. Pias: Macy Transactions, 2003. Coy: Informatik, 2001 und Zemanek: Information, 1986 Vgl. Weber: Informatiker, 2001.

186

Das Medium, die Botschaft und der Sinn gute Software-Ingenieure“ sind?59 Womit nicht allein die Eignung der Informatiker zur Verschriftung von Handlungsanweisungen für Automaten gemeint ist, sondern auch die grundsätzliche Anbindung der Ausbildung an ingenieurwissenschaftliche Maßstäbe. Wie der Informatiker Herbert Weber ausführt, haben sich im Fach Informatik in den vergangenen Jahrzehnten keine Strukturen herausgebildet, die in Bezug auf das Software Engineering den von ihm geforderten ingenieurtechnischen Systematiken genügt haben. „Die universitäre Informatik-Ausbildung muss deshalb ihren Studenten ein neues Bild von Software vermitteln.“60 Dieses neue Bild muss, nach den Worten Webers, den kommunikativen und durch Vernetzung bedingten Anforderungen eines Datenaustauschs genügen. Gemeint sind eben jene kommunikativen Bedingungen, die sich besonders im Rahmen des global aufgetretenen Jahr-2000-Problems gezeigt haben. „Dieses muss deutlich machen, dass Software einen der größten Wirtschaftsfaktoren in unserer Volkswirtschaft darstellt und dass die Gesellschaft und alle in ihr tätigen Organisationen und Unternehmen, ja selbst Privathaushalte, in der unterschiedlichsten Weise über Software miteinander verknüpft sind, Software also in die unterschiedlichsten Wechselwirkungen mit anderen Software-Systemen eintritt und letztendlich zu einem globalen SoftwareNetzwerk verwoben wird.“ 61

Dem Bild, das Weber in aller Klarheit von der kommunikativen Verwobenheit des Automatenhandelns zeichnet, kann angesichts des historischen Beispiels Jahr-2000-Problem ohne Einschränkung zugestimmt werden. Die Schlussfolgerungen allerdings, die Weber daraus zieht, reichen meines Erachtens auch und besonders angesichts der Jahr-2000-Erfahrungen nicht aus, um die Krise der Software-Produktion zu beenden. „Die Studenten müssen einsehen, dass Veränderungen an diesem globalen Netzwerk, sollen sie ohne katastrophale Seiteneffekte erfolgen, nur unter Anwendung ingenieurtechnischer Systematik und Präzision zu erreichen sind. Eine Ausbildung zum Programmierer reicht dazu nicht aus.“62 59 60 61

62

Vgl. ebd. Ebd. S. 70. Vgl. ebd. Weber erläutert den Hintergrund der Unkenntnis, der seiner Lehrerfahrung nach auch bei Informatikern über Software besteht. S. 70: „Nicht nur der Mangel an Gelegenheit, an der Entwicklung von Software im Großen beteiligt zu sein, sondern auch ein in aller Regel nicht hinreichend vermitteltes Verständnis der Bedeutung von Software führt dazu, dass auch diejenigen, die Software-Strukturierung und Modellierung kennen gelernt haben, dies als nice to have und nicht als essentielles Wissen betrachten.“ Vgl. Weber: Informatiker, 2001. S. 70.

187

Kommunizierende Automaten Die Kommunikation ist es, die, wie bisher ausführlich erläutert und von Weber bestätigt, das zentrale Element der Verschriftung von Anweisungen für Automaten darstellt. Kommunikationsproblemen kann, so ist meine Überzeugung, mit kommunikationswissenschaftlichen Methoden begegnet werden. Es gibt keine Anzeichen dafür, und Weber benennt auch keine solchen, dass die von ihm geforderte „ingenieurtechnische Systematik und Präzision“, die sich „trotz vierzigjähriger Erfahrung in der Entwicklung von Software auch in Großprojekten“63 bislang nicht eingestellt hat, im Entstehen begriffen wäre. Der sich hinter den Begriffen Systematik und Präzision verbergende Wunsch nach Formalisierung und Berechenbarkeit von Software Engineering-Maßnahmen bleibt – zumindest bislang – unerfüllt. Die kommunikativen Bedingungen der Automatenverschriftung müssen auf der Grundlage kommunikationstheoretischer Überlegungen analysiert und bearbeitet werden. Eine ingenieurmäßige Betrachtung reicht dazu allem Anschein nach nicht aus. Wie das Beispiel der Ausführungen Bonns aus dem Jahr 2005 zeigt, unterliegen die mit dem Fach Informatik verbundenen Auffassungen über die Automatenkommunikation auch aktuell Vorstellungen, die von Formalisierung, Berechenbarkeit und Reduktion auf mechanistische Abläufe geprägt sind. Hier ist die Frage zu stellen, ob geeignete Mittel zur Formalisierung und Berechenbarkeit vorliegen, um die notwendige Präzision zu erreichen, mit der dieses globale Netzwerk von Automatenverschriftungen verstanden, gewartet, verändert und ergänzt werden kann. Aus der oben geschilderten wissenschaftshistorischen Betrachtung wird verständlich, dass die Entwickler wie die ingenieurwissenschaftlich ausgebildeten Anwender der Automatenprogramme in den Unternehmen an erster Stelle den mathematischen bzw. natur-gesetzlichen Charakter der programmierten Abläufe eines Automatenhandelns wahrnehmen und erkennen (wollen).64 Der Äußerung Flussers65, dass die Automatenabläufe denen der Naturgesetze ähneln, kann daher aus dieser Einstellung ohne Einschränkung zugestimmt werden. Dagegen dürfte der zweite Teil der Äußerung Flussers, der die nach Belieben zu setzenden Unterbrechungen und damit die eben 63 64

65

Weber: Informatiker, 2001. S. 72. Coy, Informatik, 2001. S. 3: „Im Kern ist die Informatik aus dem Geist und mit dem Personal und Absolventen der Angewandten und manchmal auch der Reinen Mathematik gegründet worden, wenn auch von der Ingenieurseite her viele Antriebe kamen.“ Vgl. Flusser: Universum, 1985. S. 20.

188

Das Medium, die Botschaft und der Sinn nicht naturgesetzlichen Ablaufbedingungen betont, weniger aufmerksam zur Kenntnis genommen werden. Der Gedanke liegt daher nahe, dass die Auswirkungen des Jahr-2000-Problems deshalb so großes Aufsehen erregt haben, weil deutlich wurde, dass die Programmierung in künstlichen Sprachen eben nicht mit dem Beschreiben von Naturgesetzen in künstlichen Formelsprachen und mit den naturgesetzlichen Abläufen vergleichbar ist. Die Verschriftung von Handlungsanweisungen für Automaten stellt Kommunikation mit diesen und zwischen den Automaten dar, die handeln und entscheiden. Auf die Formulierung der sie steuernden Gesetze sind die Regeln der Kommunikation anwendbar. Anstelle der Vorstellung einer Formel, mit der die Handlungen der Automaten hätten berechenbar gemacht werden können, traten die unzählbaren Möglichkeiten des Misslingens von Kommunikation und damit des Misslingens von Handlungen und den mit ihr verfolgten Absichten. Die Erkenntnis der vielfältigen Kommunikations-, Entscheidungs- und Handlungsmöglichkeiten wird auch den Bemühungen zum Entwurf eines mechanistischen Bildes vom Automatenhandeln ein Ende bereiten. Die eindeutige Berechnung und Lenkung der Automatenhandlungen nach naturgesetzlicher Ordnung hat sich als unmöglich heraus gestellt. Der Herrschaft über die Technik und damit der Vorhersagbarkeit aller künftigen Zustände eines automatischen Ablaufs sind Grenzen gesetzt. Diese Rahmenbedingungen sind eher in dem Bereich der Kommunikationstheorie zu erkunden. „Der endgültige Triumph der menschlichen Vernunft“66 erweist sich nicht in der Formulierung unumstößlicher allgemein gültiger Formeln. Vielmehr wird es die Beherrschung unzähliger maschineller Kommunikationsvorgänge sein, die in Zukunft die menschliche Vernunft beschäftigt. Der Versuch der Darstellung komplexer Zusammenhänge durch formalisierende Verfahrensweisen war nicht auf den Bereich der mathematischen und Naturwissenschaften beschränkt. Auch im Bereich der Sprachphilosophie bzw. Sprachwissenschaft wurde versucht, ein wissenschaftliches Verfahren zu finden, das für alle kommunikativen Vorgänge gilt und zu unanfechtbaren allgemeingültigen Aussagen führt. In der Schrift „Tractatus logico-philosophicus“67 möchte Wittgenstein durch eine

66 67

Hawking, Stephen W.: Eine kurze Geschichte der Zeit. Die Suche nach der Urkraft des Universums. Frankfurt: Rowohlt Verlag, 1998. S. 218 Vgl. Wittgenstein, Ludwig: Tractatus logico-philosophicus. Logischphilosophische Abhandlung. Kritische Edition. Frankfurt am Main 2003. (Wittgenstein: Tractatus, 2003.)

189

Kommunizierende Automaten formalisierte Prüfung der in der Sprache zur Verfügung stehenden Begriffe und ihrer Verwendung in Aussagen zur wissenschaftlich unumstößlichen Darstellung der Wirklichkeit vorstoßen. „Wittgenstein hatte die Hoffnung, mit seinem Verfahren eine klare Unterscheidung erreicht zu haben, worüber man klare, logische Aussagen machen kann, und worüber man wissenschaftlich schweigen muß, weil es sich nur ‚zeigt’, nicht aber der methodischen Informationsverarbeitung nach den Regeln des ‚Tractatus’ unterworfen werden kann.“68 Durch sein Verfahren wollte er sicherstellen, dass Äußerungen, die im Rahmen der Wissenschaften zu Recht Gültigkeit beanspruchen, von anderen Äußerungen unzweifelhaft unterschieden werden können. Dabei bedient sich Wittgenstein im Tractatus des Verfahrens des logischen Rationalismus und versucht die Erkenntnis von den möglicherweise irreführenden Erfahrungen und Wahrnehmungen abzulösen. „Er ist im Tractatus ein logischer Rationalist. Ein Rationalist versteht die erfahrbare Wirklichkeit logisch, er benötigt dazu keinen besonderen Erfahrungsbegriff, geschweige denn eine Theorie der Erfahrung.“69 Dieses Verfahren eines logischen Rationalismus stimmt mit den Vorgängen im Computer, der „das Verfahren des Tractatus perfekt realisiert“ (Zemanek, vgl. oben), überraschenderweise Jahrzehnte vor dessen erster Realisierung überein. Wittgenstein selbst hat das im Tractatus beschriebene Verfahren in Analogie zu den Analysevorgängen in der Naturwissenschaft gesetzt. Die Erkenntnis der Wirklichkeit sollte auch in der Sprache naturwissenschaftlichen und vor allem logischen Prinzipien entsprechen. Ein für den Einsatz sprachgesteuerter Automaten wie geschaffener Denkansatz. Auch dieser Ansatz zur einheitlichen Erklärung von Welt bzw. Wirklichkeit scheitert. Wittgenstein wendet sich von seiner eigenen Herangehensweise ab: „Meine Auffassung in der Logisch-philosophischen Abhandlung war falsch: 1) weil ich mir über den Sinn der Worte ‚in einem Satz ist ein logisches Produkt versteckt’ (und ähnlicher) nicht klar war, 2) weil auch ich dachte, die logische Analyse müsse verborgene Dinge an den Tag bringen (wie es die chemische und physikalische tut).“70

68

69

70

Zemanek: Information, 1986. S. 41. Zemanek gibt keine Quelle an, bezieht sich aber vermutlich auf die Aussage in Wittgenstein: Tractatus, 2003. S. 111, Satz 7. Vossenkuhl, Wilhelm: Ludwig Wittgenstein. Reihe: Becksche Reihe Denker, Band: 532. Müchen 1995. S. 116. (Vossenkuhl: Wittgenstein, 1995.) Wittgenstein: Grammatik, 1969. S. 210.

190

Das Medium, die Botschaft und der Sinn Es ist bezeichnend, dass Zemanek sich in seiner Darstellung von „Information und Ingenieurwissenschaft“ explizit auf Wittgenstein und sein Scheitern im Tractatus bezieht, jedoch die Überlegungen Chomskys zur Syntax-Theorie vollkommen unerwähnt lässt. Zemanek geht nach der Darstellung des Scheiterns – „Wittgenstein hat aber die Begrenztheit seines Verfahrens selbst erkannt und in seiner späteren Philosophie an Stelle des einen umfassenden Modells die Fülle der relativen Modelle gesetzt“71 – auf die aus der Mathematik herrührenden spieltheoretischen Vorstellungen in dessen späteren Werken ein.72 In Bezug auf die Einordnung und Anwendung der Automatensprache reichen, wie das Jahr-2000-Problem zeigt, diese Überlegungen nicht aus, um die Automaten eindeutig zu beherrschen. Selbst wenn alle Aussagen ihrem Ursprung nach eindeutig sind, werden sie durch die von Wittgenstein selbst angeführten Transformationen in andere Maße73 verändert. Diese Veränderungen und die notwendigerweise im Kontext der Kommunikation durchzuführende Interpretationen des Übermittelten können zu Mehrdeutigkeiten führen. Aus dem eindeutig gemeinten Datum wird durch die Interpretation ein anderes Datum oder eine Abbruchbedingung usw. Wittgensteins „Raum des Denkens und der Wirklichkeit ist die Sprache.“74 Die Sprache ist jedoch nicht unveränderbar, bleibt nicht stets gleich. Sie ist Veränderungen unterworfen, das erschwert ihren Einsatz in pragmatischer Absicht in einem rein syntaktischen Gerät (Zemanek). Die Veränderungen zerstören die Dauerhaftigkeit der logisch-rationalen Bestimmung. „Die Sprache ist aber ständig in Bewegung, ihre Regeln und die Bedeutungen der Wörter und Sätze sind nicht ein für allemal fixiert.“75 Wittgenstein hat die Überlegungen, die er im Tractatus vorgestellt hat, in anderer Form weitergeführt. „Einerseits ist diese Radikalisierung des Verhältnisses zwischen Sprache und Denken ein Bruch mit dem Tractatus, andererseits setzt sie dessen Linie fort.“76 Das Verlassen des einen Verfahrens, das logisch-rational sich an die naturwissenschaftlichen Analysemodelle anschloss,

71 72

73 74 75 76

Zemanek: Information, 1986. S. 41. Vgl. zu spieltheoretischen Vorstellungen über das Einhalten von Konventionen in der Sprache: Lewis, David: Konventionen. Eine sprachphilosophische Abhandlung. Berlin: Verlag de Gruyter. 1975. Vgl. zur Transformation in andere Maße in dieser Arbeit die Ausführungen auf S. 116 ff. Vossenkuhl: Wittgenstein, 1995. S. 145. Ebd. Ebd.

191

Kommunizierende Automaten eröffnete die Möglichkeit einer „Fülle der relativen Modelle“, auch zum besseren Verständnis des „Sprachspiels des Computers“77. Wäre die der ganzen Welt ent~sprechende präzise mathematisch-naturwissenschaftliche Formalisierung gelungen, wäre auch die Möglichkeit zur sprachlichen Formalisierung aller vorstellbaren Prozesse gegeben. Folgt man dieser Vorstellung, wäre die Bildung von Algorithmen ein rein mechanistischer Prozess. Die Übertragung von Handlungsanweisungen durch Verschriftung auf Automaten wäre berechenbar und dadurch vorhersagbar. Den Automaten könnten alle möglichen Außenweltzustände aufgrund der gefundenen Formalisierung im Sinne einer mechanistischen Welterklärung zur Ausführung mitgeteilt werden. Möglicherweise stellt jedoch die Komplexität der Welt eine unüberwindbare Hürde da, um eine eineindeutige Formel zu ihrem Verständnis bzw. zu ihrer Messung zu schaffen. Der im Bereich der Naturwissenschaften und der Sprachwissenschaften wirkende Reduktionismus sieht die Welt zu sehr vereinfachend als riesiges Uhrwerk, wo Unruhe und Rädchen auf einfache oder besser: eindeutig vorhersehbare Weise ineinander greifen. „Im wesentlichen ist der Reduktionismus die Natursicht eines Uhrmachers. Eine Uhr läßt sich auseinandernehmen und in ihre Bestandteile wie Zahnräder, Hebelchen, Federn und Triebwerk zerlegen. Sie läßt sich aus diesen Teilen auch wieder zusammensetzen. Der Reduktionismus stellt sich auch die Natur als etwas vor, was sich zusammensetzen und auseinandernehmen läßt. Reduktionisten glauben, daß auch die komplexesten Systeme aus atomaren und subatomaren Entsprechungen von Federn, Zahnrädchen und Hebeln bestehen, die die Natur auf unendlich vielfältige, geniale Art kombinierte.“78

Den interdependenten Kräften, die im Rahmen des Jahr-2000Problems auftraten, war nur durch eine – bis dahin beispiellose – gemeinsame Arbeit aller an der Lösung beteiligten Personen und Stellen zu begegnen. Die von Briggs als Bild eines mechanistischen Funktionierens der Technik zitierte Uhr konnte im Angesicht der sich abzeichnenden sehr umfangreichen Kommunikationsprobleme von Automaten nicht mehr als technisches Symbol dienen. Die technischen Bestandteile dieses komplexen Systems ließen sich nicht mehr einfach zerlegen, in ihm konnte nicht mehr nach fehlerhaften Teilen gesucht werden. Nicht die Teile der einzelnen Maschine, nicht die Sätze in den einzelnen Programmbestandteilen waren fehlerhaft, sondern der Informationsaus77 78

Vgl. Zemanek: Information, 1985. S. 41. Vgl. Briggs: Chaos, 1990. S. 25.

192

Das Medium, die Botschaft und der Sinn tausch zwischen ihnen konnte zu Fehlern führen. Hier ist an den Plot des Fernsehfilms zu erinnern, der eben nicht diesen Bereich des Jahr-2000-Problems thematisierte. Der Fernsehfilm erhob ein fehlerhaftes Teil, eine eingeschleuste Schadsoftware, oder, um im Bild der Uhr zu bleiben, eine mit böser Absicht falsch eingesetzte Feder zur Ursache des Problems. Die Rettung war durch den Austausch des einen fehlerhaften Teils möglich. Dennoch, und das ist der Kern des Jahr-2000-Problems, wäre dieser Austausch eines Bestandteils nicht ausreichend gewesen; eine umfangreiche Zusammenarbeit war notwendig geworden. Die Teile der Maschine hatten sich – mittels der ihnen durch die Automatensprache übertragenen Entscheidungskompetenz – verselbstständigt. Aus der einfachen Mechanik einer Uhr war durch die sprachlichen Anweisungen ein Automat entstanden, dessen Handlungen sich nicht in allen Konstellationen berechnen ließen. Die Interpretation von Naturgesetzen versetzte den Fachmann nicht mehr in der Lage, die (wahrscheinlichen) Taten der Automaten zu erklären und vorherzusagen. Die handelnden Automaten waren durch die ihnen eingegebenen Programme befähigt worden, zum Beispiel Datum und Uhrzeit auf eigene Weise in ihrem Programm zu interpretieren. Die modernen Gesellschaften haben durch die Verschriftung von Handlungsanweisungen für Automaten eine neue kommunikative Situation begründet. Die sprachwissenschaftliche Schichtung der Information und die textualen Merkmale der Automatentexte, der Programme und Daten, sind für diese Verschriftung und die Ausführung von entscheidender Bedeutung. Diese Form der Verschriftung ist welthistorisch ohne Vorbild und stellt möglicherweise wie die Verschriftung des Rechts im antiken Griechenland ein Zeichen für eine Zeitenwende dar. Der neue historische Zustand, den die Verschriftung von Handlungsanweisungen mit sich bringt, ist zurzeit weder in seinen Möglichkeiten noch in seinen Gefahren ausreichend wissenschaftlich erforscht oder technisch vollkommen beherrschbar. Es ist allenfalls deutlich geworden, dass formalisierte, mechanistische Weltbilder nicht ausreichen, dieser Gefahren Herr zu werden. Das Jahr-2000-Problem hat deutlich gemacht, wie verletzbar die modernen Gesellschaften sind, falls die Kommunikation mit und unter den Automaten scheitert.

193

Glossar ASCII

American Standard Code for Information Interchange

Cobol

Die Abkürzung Cobol steht für Common Business-Oriented Language. Cobol wurde Ende der 1950er Jahre entwickelt und ist damit eine der ersten Programmiersprachen, die im Bereich der Wirtschaft eingesetzt wurde und wird. Auch im Jahr 2006 sind in Cobol geschriebene Programme im betrieblichen Einsatz noch weit verbreitet.

Compiler

Ein Compiler ist ein Übersetzungsprogramm, das Texte, die in einer bestimmten Programmiersprache geschrieben wurden, in maschinell ausführbaren Code übersetzt. Ein Compiler ist mit einem logischen Algorithmus ausgestattet, der es erlaubt, während des Übersetzungsvorgangs lexikalische, syntaktische und zu einem gewissen Grad auch semantische Fehler in einem Programmtext maschinell zu erkennen. Der Compiler informiert den Anwender durch die Erstellung von Hinweisen und Fehlermeldungen.

Dualsystem

Stellenwertsystem zur digitalen Darstellung von Zahlen und Zeichen auf Basis der Zahl 2. Alle Zahlen und Zeichen werden als Folge der Ziffern 0 und 1 dargestellt.

http

Das hypertext transfer protocol ist die technische Vereinbarung zur Darstellung von Informationen im grafischen Bereich des Internet.

195

Literaturverzeichnis

Monographien, Sammelwerke ACL: Meeting, 2004 Association for Computational Linguistics (Hrsg.): 42nd Annual Meeting of the Association for Computational Linguistics. Proceedings of the Conference 21. - 26. July, 2004, Barcelona, Spain. Barcelona 2004. ACM: Communication, Association for Computing Machinery (Hrsg.): Communications of the ACM. New York, NY , ohne Jahr. Adamzik: Textlinguistik, 2004 Adamzik, Kirsten: Textlinguistik. Eine einführende Darstellung. Tübingen 2004. Adorno: Noten, 1989 Adorno, Theodor Wiesengrund: Noten zur Literatur. Frankfurt am Main 41989. Aho: Compilerbau, 1999 Aho, Alfred V., Ravi Sethi und Jeffrey D. Ullmann: Compilerbau. Teil 1. Originaltitel: Compilers. Principles, Techiniques and Tools. München, Wien 21999. Aristoteles: Ethik, 1984 Aristoteles: Die Nikomachische Ethik. München 51984. Aristoteles: Politik, 1984 Aristoteles: Politik. München 51984. Ashby: Cybernetics, 1957 Ashby, W. Ross: An Introduction to Cybernetics. London 21957. Assmann: Gedächtnis, 1983 Assmann, Aleida, Jan Assmann und Christof Hardmeier (Hrsg.): Schrift und Gedächtnis. Beiträge zur Archäologie der literarischen Kommunikation. München 1983.

197

Kommunizierende Automaten Assmann: Herrschaft, 2000 Assmann, Jan: Herrschaft und Heil. Politische Theologie in Altägypten, Israel und Europa. München, Wien 2000. Assmann: Kultur, 1998 Assmann, Jan (Hrsg.): Kultur und Gedächtnis. Frankfurt am Main 1998. Assmann: Kulturelle, 1992 Assmann, Jan: Das kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen. Reihe: C.-H.-Beck-Kulturwissenschaft München 1992. Ästhetik & Kommunikation: Epochenschwelle?, 1995 Hickethier, Knut (Heftredaktion): Ästhetik & Kommunikation. Medien an der Epochenschwelle? Jg. 26, Heft 88 . Berlin 1995. Bachmann-Medick: Cultural, 2007 Bachmann-Medick, Doris: Cultural turns. Neuorientierungen in den Kulturwissenschaften. Reihe: Rowohlts Enzyklopädie Reinbek bei Hamburg 22007. Baker: Double, 2001 Baker, Nicholson: Double Fold. Libraries and the Assault on Paper. New York 2001. Balzert: Software-Entwicklung, 2000 Balzert, Helmut: Lehrbuch der Software-Technik. SoftwareEntwicklung. Reihe: Lehrbücher für Informatik, Band: 1. Heidelberg, Berlin 22000. Balzert: Software-Management, 1998 Balzert, Helmut: Lehrbuch der Software-Technik. SoftwareManagement, Sofware-Qualitätsischerung, Unternehmensmodellierung. Reihe: Lehrbücher für Informatik, Band: 2. Heidelberg, Berlin 1998. Barck: Innis, 1997 Barck, Karlheinz (Hrsg.): Harold A. Innis - Kreuzwege der Kommunikation. Ausgewählte Texte. Wien 1997. Bartsch: Software, 1998 Bartsch, Michael: Software und das Jahr 2000. Haftung und Versicherungsschutz für ein technisches Großproblem. Baden-Baden 1998. Baudrillard: Philosophien, 1989 Baudrillard, Jean: Philosophien der neuen Technologie. Reihe: Internationaler Merve-Diskurs, Band: 146. Berlin , ohne Jahr.

198

Literaturverzeichnis Beaugrande: Textlinguistik, 1981 Beaugrande, Robert-Alain de und Wolfgang Ulrich Dressler: Einführung in die Textlinguistik. Reihe: Konzepte der Sprachund Literaturwissenschaft, Band: 28. Tübingen 1981. Becker: Wirtschaftsinformatik, 1999 Becker, Jörg et al. (Hrsg.): Wirtschaftsinformatik und Wissenschaftstheorie. Bestandaufnahme und Perspektiven. Wiesbaden 1999. Bentele: Kommunikation, 2003 Bentele, Günter, Hans-Bernd Brosius und Otfried Jarren (Hrsg.): Öffentliche Kommunikation. Handbuch Kommunikations- und Medienwissenschaft. Reihe: Studienbücher zur Kommunikations- und Medienwissenschaft Wiesbaden 2003. Berghaus: Interaktive Medien, 1999 Berghaus, Margot (Hrsg.): Interaktive Medien - interdisziplinär vernetzt. Opladen, Wiesbaden 1999. Blum: Viren, 2001 Blum, Daniel: Krieg der Viren – Armeen rüsten sich für den Angriff im Internet. Eine Sendung des DeutschladRadio: DLF – Hintergrund Politik vom 13.06.2001. Köln 2001. BMI und BMWI: Sind Sie fit, 1999 BMI und BMWI. Gesamtredaktion: Bundesministerium für Sicherheit in der Informationstechnik: Sind Sie fit fürs nächste Jahrtausend? Was Sie über das Jahr-2000-Problem wissen müssen. Berlin 1999. Bock: Bild, 2002 Bock, Wolfgang: Bild - Schrift - Cyberspace. Reihe: Aisthesis Studienbuch, Band: 3. Bielefeld 2002. Böhme: Orientierung, 2002 Böhme, Hartmut, Matussek, Peter und Lothar Müller: Orientierung Kulturwissenschaft. Was sie kann, was sie will. Reinbek bei Hamburg 22002. Bohn: Ansichten, 1998 Bohn, Rainer, Eggo Müller und Rainer Ruppert (Hrsg.): Ansichten einer künftigen Medienwissenschaft. Reihe: sigma medienwissenschaft, Band: 1. Berlin 1998. Bolz: Computer, 1999 Bolz, Norbert, Friedrich Kittler und Georg-Christoph Tholen (Hrsg.): Computer als Medium. München 21999. Bolz: Welt, 1992 Bolz, Norbert: Die Welt als Chaos und Simulation. München 1992.

199

Kommunizierende Automaten Boos: Kommunikation, 2000 Boos, Margarete, Kai J. Jonas und Kai Sassenberg (Hrsg.): Computervermittelte Kommunikation in Organisationen. Reihe: Internet und Psychologie. Neue Medien in der Psychologie, Band: 3. Göttingen, Bern, Toronto 2000. Braun: Schwindel, 2001 Braun, Christina von: Versuch über den Schwindel. Religion, Schrift, Bild, Geschlecht. Zürich, München 2001. Braun: Technik, 1994 Braun, Ingo von und Bernward Joerges (Hrsg.): Technik ohne Grenzen. Frankfurt am Main 1994. Bredenkamp: Antikensehnsucht, 2000 Bredenkamp, Horst: Antikensehnsucht und Maschinenglaube. Die Geschichte der Kunstkammer und die Zukunft der Kunstgeschichte. Berlin 22000. Briggs: Chaos, 1990 Briggs, John und F. David Peat: Die Entdeckung des Chaos. Eine Reise durch die Chaos-Theorie. Originaltitel: Turbulent Mirror. An Illustrated Guide to Chaos Theory and the Science of Wholeness. Frankfurt am Main, Wien 1990. Brinker: Textanalyse, 2005 Brinker, Klaus: Linguistische Textanalyse. Eine Einführung in Grundbegriffe und Methoden. Reihe: Reihe Grundlagen der Germanistik, Band: 29. Berlin 62005. Brinker: Textlingusitik, 2000 Brinker, Klaus u.a. (Hrsg.): Text- und Gesprächslinguistik. Ein internationales Handbuch zeitgenössischer Forschung. Berlin, New York 2000. Brunner: Geschichtliche Grundbegriffe, 1992 Brunner, Otto, Werner Conze und Reinhart Koselleck (Hrsg.): Geschichtliche Grundbegriffe. Histoisches Lexikon zur politisch-sozialen Sprache in Deutschland. Stuttgart 41992. Bruns: Neue Medien, 2007 Bruns, Karin, Reichert, Ramón (Hrsg.): Reader neue Medien. Texte zur digitalen Kultur und Kommunikation. Reihe: Cultural studies, Band: 18. Bielefeld 2007. Bucher: Grundlagen, 1984 Bucher, Walter und Hermann Maurer: Theoretische Grundlagen der Programmiersprachen. Automaten und Sprachen. Reihe: Reihe Informatik, Band: 41. Mannheim, Wien, Zürich 1984.

200

Literaturverzeichnis Bunz: Speicher, 2008 Bunz, Mercedes: Vom Speicher zum Verteiler. Die Geschichte des Internet. Reihe: Copyrights, Band: 20. Berlin 2008. Calvino: Reisender, 1983 Calvino, Italo: Wenn ein Reisender in einer Winternacht. Originaltitel: Se una notte d’inverno un viaggiatore. München, Wien 1983. Carnap: Meaning, 1947 Carnap, Rudolf: Meaning and Necessity. A Study in Semantics and Modal Logic. Chicago 21956. Carstensen: Computerlinguistik, 2001 Carstensen, Kai Uwe, Christian Ebert, Cornelia Endriss et. al. (Hrsg.): Computerlinguistik und Sprachtechnologie. Eine Einführung. Heidelberg, Berlin 2001. Castells: Aufstieg, 2001 Castells, Manuel: Der Aufstieg der Netzwerkgesellschaft. Teil 1 der Trilogie: Das Informationszeitalter. Originaltitel: The Information Age: Economy, Society, and Culture (volume one): The Rise of the Network Society. Reihe: Das Informationszeitalter, Band: 1. Opladen 2001. Castells: Identität, 2002 Castells, Manuel: Die Macht der Identität. Teil 2 der Trilogie: Das Informationszeitalter. Originaltitel: The Information Age: Economy, Society, and Culture (volume two): The Power of Identity. Reihe: Das Informationszeitalter, Band: 2. Opladen 2002. Castells: Jahrtausendwende, 2003 Castells, Manuel: Jahrtausendwende. Teil 3 der Trilogie: Das Informationszeitalter. Originaltitel: The Information Age: Economy, Society, and Culture (volume three): End of Millennium. Reihe: Das Informationszeitalter, Band: 3. Opladen 2003. Charwat: Lexikon, 1992 Charwat, Hans Jürgen: Lexikon der Mensch-Maschine-Kommunikation. München u.a. 1992. Chomsky: Regeln, 1981 Chomsky, Noam: Regeln und Repräsentationen. Originaltitel: Rules and representations. Frankfurt am Main 1981. Chomsky: Syntax-Theorie, 1973 Chomsky, Noam: Aspekte der Syntax-Theorie. Originaltitel: Aspects of the Theory of Syntax. MTI. 1965. Frankfurt am Main 1973.

201

Kommunizierende Automaten CIS: Computerlinguistik, 2004 Centrum für Informations- und Sprachverarbeitung (Hrsg.): Hinweise zum Nebenfach Computerlinguistik im Internet. München 102004. Cremers: Intelligenz, 1992 Cremers, Armin B., Rolf Haberbeck, Jürgen Seetzen und Ipke Wachsmuth (Hrsg.): Künstliche Intelligenz. Leitvorstellungen und Verantwortbarkeit. Düsseldorf 1992. Crespo: Alinei, 1987 Crespo, Roberto, Bill Dotson Smith and H. Schultink (Hrsg.): Aspects of Language. Studies in Honour of Mario Alinei. Reihe: Theoretical and Applied Semantics, Band: II. Amsterdam 1987. Dencker: Weltbilder, 1995 Dencker, Klaus Peter (Hrsg.): Weltbilder Bildwelten. Computergestützte Visionen. Hamburg 1995. Derrida: Schrift, 1992 Derrida, Jacques: Die Schrift und die Differenz. Originaltitel: L´ecriture et la difference. Frankfurt am Main 51992. Desel: Informatik, 2001 Desel, Jörg (Hrsg.): Das ist Informatik. Berlin, Heidelberg 2001. DIHT: Jahr-2000, 1998 Heyermann, Dirk, Sabina Jansen, Charlotte Kirchhof u.a.: Wegweiser zum Jahr-2000-Problem. Bonn 1999. Dravenau: Bugs Jitterclub, 1999 Dravenau, Horst und Hartmut Przybylski unter Mitarbeit von Udo Rudnitzki-Primbsch und Ulrich Timmermann: Bugs Jitterclub. Szenarien der Zukunft. Hörspiel WDR. Reihe: Verschiebt das Jahr 2000 Köln 1999. Dreßler: Patente, 2006 Dreßler, Anja: Patente in technologieorientierten Mergers & Acquisitions. Nutzen, Prozessmodell, Entwicklung und Interpretation semantischer Patentlandkarten. Wiesbaden 2006. Drexler: Experiment, 1994 Drexler, Eric K., Chris Peterson und Gayle Pergamit: Experiment Zukunft. Die nanotechnologische Revolution. Bonn 1994. Dürscheid: Schriftlinguistik, 2002 Dürscheid, Christa: Einführung in die Schriftlinguistik. Reihe: Studienbücher zur Linguistik, Band: 8. Wiesbaden 2002. Dunn: Software, 1984 Dunn, Robert H.: Software Defect Removal. New York 1984.

202

Literaturverzeichnis Eggeling: Industrialisierung, 1985 Eggeling, Jörn: Die Industrialisierung von Programmierarbeit. Ihr Ausdruck in Kontroversen um Programmiersprachen und Sprachelemente. Reihe: Europäische Hochschulschriften: Reihe V Volks- und Betriebswirtschaft, Band: 632. Frankfurt am Main, Berlin, Bern usw. 1985. Ehler: Verschriftung, 1998 Ehler, Christine und Ursula Schaefer (Hrsg.): Verschriftung und Verschriftlichung. Aspekte eines Medienwechsels in verschiedenen Kulturen und Epochen. Reihe: ScriptOralia, Band: 94. Tübingen 1998. Ernst: Sprachwissenschaft, 2004 Ernst, Peter: Germanistische Sprachwissenschaft. Wien 2004. EU-Kommission: Jahr-2000-Problem, 1999 Kommission der Europäischen Gemeinschaft: EU-Infrastrukturen und das Jahr 2000-Problem. Bericht der Kommission an den Rat, das Europäische Parlament, den Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Brüssel 1999. Europäische Gemeinschaft: Befehlssprache CCL, 1989 Kommission der europäischen Gemeinschaft: Handbuch der gemeinsamen Befehlssprache CCL. Brüssel 1989. Europäische Gemeinschaft: Echo-Datenbasen, 1989 Kommission der europäischen Gemeinschaft: Echo-Datenbasen und Dienste. Brüssel 1989. Europäische Gemeinschaft: Online Informationsdienste, 1989 Kommission der europäischen Gemeinschaft: Einführung in die Benutzung von Online-Informationsdiensten. Brüssel 1989. Faßler: Cyberspace, 1994 Faßler, Manfred und Wulf R. Hallbach (Hrsg.): Cyberspace. Gemeinschaften, Virtuelle Kolonien, Öffentlichkeiten. München 1994. Faßler: Geschichte, 1998 Faßler, Manfred und Wulf R. Hallbach (Hrsg.): Geschichte der Medien. München 1994. Faßler: Netzwerke, 2001 Faßler, Manfred: Netzwerke. Einführung in die Netzstrukturen, Netzkulturen und verteilte Gesellschaftlichkeit. München 2001. Faulstich: Mediengesellschaft, 2002 Faulstich, Werner: Die bürgerliche Mediengesellschaft. Reihe: Die Geschichte der Medien, Band: 4. Göttingen 2002.

203

Kommunizierende Automaten Faulstich: Einführung Medienwissenschaft, 2002 Faulstich, Werner: Einführung in die Medienwissenschaft. Probleme - Methoden - Domänen. München 2002. Faulstich: Medienwissenschaft, 2004 Faulstich, Werner: Medienwissenschaft. Paderborn 2004. Faulstich: Stichwörter, 1979 Faulstich, Werner: Kritische Stichwörter Medienwissenschaft. München 1979. Fehr: Semantik, 1989 Fehr, Elfriede: Semantik von Programmiersprachen. Reihe: Studienreihe Informatik Berlin, Heidelberg, New York 1989. Feierstein: Medienbegriff, 2008 Feierstein, Andreea: Der Medienbegriff bei Harold A. Innis. Studienarbeit. ohne Ort 2008. Flusser: Gesten, 1991 Flusser, Vilém: Gesten. Versuch einer Phänomenologie. Reihe: Bollmann-Bibliothek, Band: 5. Bensheim, Düsseldorf 1991. Flusser: Philosophie, 1994 Flusser, Vilém: Für eine Philosophie der Fotografie. Reihe: Edition Flusser. Göttingen 71994. Flusser: Schrift, 2002 Flusser, Vilém: Die Schrift. Hat Schreiben Zukunft? Reihe: Edition Flusser. Göttingen 52002. Flusser: Subjekt, 1998 Flusser, Vilém: Vom Subjekt zum Projekt. Herausgegeben von Stefan Bollmann und Edith Flusser. Reihe: Forum Wissenschaft : Kultur & Medien Frankfurt am Main, Hamburg 1998. Flusser: Universum, 1985 Flusser, Vilém: Ins Universum der technischen Bilder. Göttingen 1994. Flusser: Vampyroteuthis, 2002 Flusser, Vilém: Vampyroteuthis infernalis. Eine Abhandlung samt Befund des Institut Scientifique de Recherche Paranaturaliste. Reihe: Edition Flusser Göttingen 52002. Folberth: Informationsbegriff, 1986 Folberth, Otto G. und Clemens Hackl (Hrsg.): Der Informationsbegriff in Technik und Wissenschaft. Festschr. zum 65. Geburtstag von Prof. Dr. rer. nat. Dr.-Ing. E.h. Karl E. Ganzhorn. München usw. 1986. Foucault: Botschaften, 1999 Engelmann, Jan (Hrsg.): Michel Foucault: Botschaften der Macht. Der Foucault-Reader, Diskurs und Medien. Stuttgart 1999.

204

Literaturverzeichnis Foucault: Überwachen, 1977 Foucault, Michel: Überwachen und Strafen. Die Geburt des Gefängnisses. Originaltitel: Surveillir et punir. La naissance del prison. Frankfurt am Main 1977. Fuchs/Hofkirchner: Globalisierung, 2000 Fuchs, Christian und Wolfgang Hofkirchner: Die Dialektik der Globalisierung in Ökonomie, Politik, Kultur und Technik. Überarbeitete und erweiterte Version eines Vortrages gehalten beim Jubiläumskongreß der Österreichischen Gesellschaft für Soziologie (ÖGS), Wien, 20-23/09/2000. ohne Ort 2000. Funk-Kolleg Sprache 1, 1975 Baumgärtner, Klaus, Gerd Fritz, Wolfgang Herrlitz u.a. (Hrsg.): Funk-Kolleg Sprache. Band 1. Eine Einführung in die moderne Linguistik. Frankfurt am Main, Hamburg 51975. Gadamer: Plato, 2001 Gadamer, Hans-Georg: Wege zu Plato. Reihe: Universal-Bibliothek, Band: 18111. Stuttgart 2001. Gansel: Textlinguistik, 2007 Gansel, Christina und Frank Jürgens: Textlinguistik und Textgrammatik. Reihe: Studienbücher zur Linguistik, Band: 6. Wiesbaden 22007. Gehrke: Recht, 1996 Gehrke, Hans-Joachim (Hrsg.) unter Mitwirkung von Eckhard Wirbelauer: Rechtskodifizierung und soziale Normen im interkulturellen Vergleich. Tübingen 1996. Goody: Literalität, 1981 Goody, Jack (Hrsg.): Literalität in traditionalen Gesellschaften. Originaltitel: Literacy in traditional societies. Frankfurt am Main 1981. Goody: Schrift, 1990 Goody, Jack: Die Logik der Schrift und die Organisation von Gesellschaft. Originaltitel: The logic of writing and the organization of society. Frankfurt am Main , ohne Jahr. Goos: Informatik, 2000 Goos, Gerhard: Vorlesungen über Informatik. Berlin, Heidelberg, New York usw. 32000. Görz: Gedanken, 1972 Görz, Günther: Die Sprache GEDANKEN als ein Beitrag zur syntaktischen und semantischen Definition von Programmiersprachen. Reihe: Arbeitsberichte des Instituts für Mathematische Maschinen und Datenverarbeitung, Band: 5. Erlangen 1972.

205

Kommunizierende Automaten Gramelsberger: Semiotik, 2002 Gramelsberger, Gabriele: Semiotik und Simulation: Fortführung der Schrift ins Dynamische. Entwurf einer Symboltheorie der numerischen Simulation und ihrer Visualisierung. Berlin 2002. Greber: Materialität, 2002 Greber, Erika, Konrad Ehlich und Jan-Dirk Müller (Hrsg.): Materialität und Medialität von Schrift. Reihe: Schrift und Bild in Bewegung, Band: 1. Bielefeld 2002. Grube: Schrift, 2005 Grube, Gernot, Kogge, Werner und Sybille Krämer (Hrsg.): Schrift. Kulturtechnik zwischen Auge, Hand und Maschine. München 2005. Gumm: Informatik, 2002 Gumm, Heinz Peter und Manfred Sommer: Einführung in die Informatik. München usw. 52002. Haarmann: Schrift, 1991 Haarmann, Harald: Universalgeschichte der Schrift. Frankfurt, New York 1991. Hamel: Wettlauf, 1995 Hamel, Gary, Prahalad, Coimbatore K.: Wettlauf um die Zukunft. Originaltitel: Competing for the future. Wien 1995. Hanft: Jahr-2000-Probleme, 1999 Hanft, Alexandre: Jahr-2000-Probleme bei Großrechnern. Arbeit im Seminar „Risks of Computing“ an der Humboldt Universität zu Berlin WS 1999/2000. Originaltitel: Betreuer Prof. Dr. Wolfgang Coy. Berlin 1999. Hartmann: Medien, 2008 Hartmann, Frank: Medien und Kommunikation. Wien 2008. Hegel: Phänomemologie, 1975 Hegel, Georg, Wilhelm Friedrich: Phänomemologie des Geistes. Frankfurt am Main 21975. Heinecke: Mensch, 2004 Heinecke, Andreas M.: Mensch-Computer-Interaktion. München, Wien 2004. Heinemann: Textlinguistik, 2002 Heinemann, Margot und Wolfgang Heinemann: Grundlagen der Textlinguistik. Interaktion - Text - Diskurs. Reihe: Reihe Germanistisiche Linguistik. Herausgegeben von Helmut Henne, Horst Sitta und Herbert Ernst Wiegang, Band: 230. Tübingen 2002.

206

Literaturverzeichnis Helmes: Medientheorie, 2002 Helmes, Günter und Werner Köster (Hrsg.): Texte zur Medientheorie. Reihe: Universal-Bibliothek, Band: 18239. Stuttgart 2002. Hennig: Kommunikation, 1975 Hennig, Jörg und Lutz Huth: Kommunikation als Problem der Linguistik. Eine Einführung. Göttingen 1975. Hepp: Kultur, 2006 Hepp, Andreas, Rainer Winter (Hrsg.): Kultur - Medien Macht. Cultural Studies und Medienanalyse. Wiesbaden 32006. Hesse: Beschreibung, 1976 Hesse, Wolfgang: Vollständige formale Beschreibung von Programmiersprachen mit zweischichtigen Grammatiken. Diss. TU München. München 1976. Heßler: Sichtbarkeiten, 2006 Heßler, Martina (Hrsg.): Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit. München 2006. Hickethier: Medien, 1991 Hickethier, Knut und Siegfried Zielinski (Hrsg.): Medien Kultur. Schnittstellen zwischen Medienwissenschaft, Medienpraxis und gesellschaftlicher Kommunikation. Berlin 1991. Hickethier: Medienwissenschaft, 2003 Hickethier, Knut: Einführung in die Medienwissenschaft. Stuttgart, Weimar 2003. Hoffmann: Medienbegriff, 2002 Hoffmann, Stefan: Geschichte des Medienbegriffs. Reihe: Archiv für Begriffsgeschichte Hamburg 2002. Hoffmann: Sprachwissenschaft, 2000 Hoffmann, Ludger (Hrsg.): Sprachwissenschaft. Ein Reader. Reihe: deGruyter Studienbuch Berlin, New York 22000. Hopcroft: Automatentheorie, 2002 Hopcroft, John E., Rajeev Motwani und Jeffrey D. Ullman: Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. Originaltitel: Introducing to Automata Theory, Languages, and Computation. München 22002. Hörisch: Geschichte, 2004 Hörisch, Jochen: Eine Geschichte der Medien. Von der Oblate zum Internet. Frankfurt am Main 2004. Horrocks: McLuhan, 2000 Horrocks, Chris: Marshall McLuhan and Virtuality. Cambridge usw. 2000.

207

Kommunizierende Automaten Humboldt: Sprachbau, 1998 Humboldt, Wilhelm von: Über die Verschiedenheit des menschlichen Sprachbaues und ihren Einfluß auf die geistige Entwicklung des Menschengeschlechts. Reihe: Uni-Taschenbücher, Band: 2019. Paderborn usw. 1998. Humboldt: Sprache, 1994 Humboldt, Wilhelm von: Über die Sprache. Reden vor der Akademie. Originaltitel: Hrsg. kommentiert und mit einem Nachwort versehen von Jürgen Trabant. Reihe: Uni-Taschenbücher, Band: 1783. Tübingen, Basel 1994. Huß: Ägypten, 2001 Huß, Werner: Ägypten in hellenistischer Zeit. 332 - 30 vor Christus. München 2001. IBM: Year 2000, 1997 (1995) IBM (Hrsg.): The Year 2000 and 2-Digit Dates. A Guide for Planning and Implementation. Poughkeepsie, NY 81997. Irrgang: Technische, 2001 Irrgang, Bernhard: Technische Kultur. Instrumentelles Verstehen und technisches Handeln. Reihe: Philosophie der Technik, Band: 1. Paderborn 2001. IT - Information Technology, Prof. Dr. Paul Molitor (Hrsg.): it – Information Technology. Methoden und innovative Anwendungen der Informatik und Informationstechnik. München usw. , ohne Jahr. Jansen: Government, 2001 Jansen, Stephan A. und Birger P. Priddat: Electronic Government. Neue Potentiale für einen modernen Staat. Stuttgart 2001. Jaspers: Ursprung, 1956 Jaspers, Karl: Vom Ursprung und Ziel der Geschichte. Frankfurt am Main, Hamburg 21956. Jeßing: Literaturwissenschaft, 2003 Jeßing, Benedikt und Ralph Köhnen: Einfühung in die Neuere deutsche Literaturwissenschaft. Stuttgart und Weimar 2003. Kahlert: Fuzzy-Logik, 1994 Kahlert, Jörg und Hubert Frank: Fuzzy-Logik und FuzzyControl. Eine anwendungsorientierte Einführung mit Begleitsoftware. Braunschweig, Wiesbaden 21994. Kallmeyer: Textlinguistik, 1974 Kallmeyer, W. u.a.: Lektürekolleg zur Textlinguistik. Band 1: Einführung. Frankfurt am Main 1974.

208

Literaturverzeichnis Kemper: Globalisierung, 2002 Kemper, Peter und Ulrich Sonnenschein (Hrsg.): Globalisierung im Alltag. Frankfurt am Main 2002. Kerckhove: McLuhan, 2008 Kerckhove, Derrick de, Leeker, Martina und Kerstin Schmidt (Hrsg.): McLuhan neu lesen. Kritische Analysen zu Medien und Kultur im 21. Jahrhundert. Bielefeld 2008. Kerlen: Medienkunde, 2003 Kerlen, Dietrich: Einführung in die Medienkunde. Reihe: Universal-Bibliothek, Band: 17637. Stuttgart 2003. Kersken: Fachinformatiker, 2005 Kersken, Sascha: Handbuch für Fachinformatiker. Der Ausbildungsbegleiter. Bonn 22005. Kidder: Seele, 1982 Kidder, Tracy: Die Seele einer neuen Maschine. Originaltitel: (The Soul of a New Machine). Basel, Boston, Stuttgart 1982. Kilov: Behavioral, 1996 Kilov, Haim, Bernhard Rumpe und Ian Simmonds (ed.): Behavioral Specifications of Business and Systems. Reihe: The Kluwer international series in engineering and computer science, Band: 523. Boston, Dordrcht, London 1996. Kittler: Aufschreibsysteme, 1995 Kittler, Friedrich: Aufschreibsysteme 1800 - 1900. München 31995. Kittler: Grammophon, 1986 Kittler, Friedrich A.: Grammophon Film Typewriter. Berlin 1986. Kittler: Kulturgeschichte, 2000 Kittler, Friedrich: Eine Kulturgeschichte der Kulturwissenschaft. München 2000. Klaeren: Problem, 2001 Klaeren, Herbert und Michael Sperber: Vom Problem zum Programm. Architektur und Bedeutung von Computerprogrammen. Stuttgart, Leipzig, Wiesbaden 32001. Kling: Computerization, 1996 Kling, Rob (Ed.): Computerization and Controversy. Value Conflicts and Social Choices. San Diego 21996. Kloock: Medientheorien, 2000 Kloock, Daniela und Angela Spahr: Medientheorien. Eine Einführung. Reihe: UTB, Band: 1986. München 22000. Kloock: Schrift, 2003 Kloock, Daniela: Von der Schrift- zur Bildschirmkultur. Analysen aktueller Medientheorien. Berlin 22003.

209

Kommunizierende Automaten Koch: Schrift, 1997 Koch, Peter, Krämer, Sybille (Hrsg.): Schrift, Medien, Kognition. Über die Exteriorität des Geistes. Reihe: Probleme der Semiotik, Band: 19. Tübingen 1997. Krämer: Medien, 1998 Krämer, Sybille (Hrsg.): Medien Computer Realität. Wirklichkeitsvorstellungen und Neue Medien. Frankfurt am Main 1998. Krämer: Symbolische, 1998 Krämer, Sybille: Symbolische Maschinen. Die Idee der Formalisierung in geschichtlichem Abriß. Darmstadt 1998. Kümmel: Geschichte, 2004 Kümmel, Albert Leander Scholz und Eckhard Schumacher (Hrsg.): Einführung in die Geschichte der Medien. Paderborn 2004. Künzel: Maschinendenken, 1996 Künzel, Werner, Bexte, Peter: Maschinendenken, Denkmaschinen. An den Schaltstellen zweier Kulturen. Frankfurt am Main (u.a.) 196. Kunz: Crash, 1999 Kunz, Martin: Der 2000 Crash. Wenn die Computer verrückt spielen. Der Survival Guide. München 21999. Lacan: Ich, 1991 Lacan, Jacques: Das Ich in der Theorie Freuds und in der Technik der Psychoanalyse. Reihe: Das Seminar, Band: II. Weinheim 21991. Lagaay: Medientheorien, 2004 Alice Lagaay und David Lauer (Hrsg.): Medientheorien. Eine philosophische Einführung. Frankfurt (u.a.) 2004. Lenders: Medienwissenschaft, 2004 Lenders, Winfried (Hrsg.): Medienwissenschaft. Eine Herausforderung für die Geisteswissenschaft. Reihe: Bonner Beiträge zur Medienwissenschaft, Band: 2. Frankfurt am Main, Berlin, Bern usw. 2004. Lessig: Code, 2001 Lessig, Lawrence: Code ud andere Gesetze des Cyberspace. Originaltitel: Code and Other Laws of Cyberspace. Berlin 2001. Levinson: McLuhan, 1999 Levinson, Paul: Digital McLuhan. A guide to the information millennium. London 1999.

210

Literaturverzeichnis Levi-Strauss: Tropen, 1978 Levi-Strauss, Claude: Traurige Tropen. Frankfurt am Main 1978. Liebrand: Medien, 2002 Liebrand, Claudia, Schneider, Irmela (Hrsg.): Medien in Medien. Reihe: Mediologie, Band: 6. Köln , ohne Jahr. Liessmann: Anders, 2002 Liessmann, Konrad Paul: Günther Anders. Philosophie im Zeitalter der technologischen Revolutionen. München 2002. Linke: Linguistik, 2004 Linke, Angelika, Markus Nussbaumer und Paul R. Portmann: Studienbuch Linguistik. Reihe: Germanistische Linguistik, Band: 121. Tübingen 52004. List: Kulturwissenschaften, 2004 List, Elisabeth und Erwin Fiala (Hrsg.): Grundlagen der Kulturwissenschaften. Interdisziplinäre Kulturstudien. Tübingen, Basel 2004. Ludes: Medienwissenschaft, 2003 Ludes, Peter: Einführung in die Medienwissenschaft. Entwicklungen und Theorien. Mit einer Einleitung von Jochen Hörisch. Berlin 22003. Luhmann: Massenmedien, 1996 Luhmann, Niklas: Die Realität der Massenmedien. Opladen 1996. Majetschak: Wittgenstein, 2006 Majetschak, Stefan (Hrsg.): Wittgensteins 'große Maschinenschrift'. Untersuchungen zum philosophischen Ort des Big Typescripts (TS 213) im Werk Ludwig Wittgensteins. Reihe: Wittgenstein-Studien, Band: 12. Frankfurt am Main usw. 2006. Management Wissen, 2001 Forschungsinstitut für anwendungsorientierte Wissensverarbeitung (FAW) (Hrsg.): Management von nichtexplizitem Wissen. Noch mehr von der Natur lernen. Abschlussbericht. Teil 1, 2 und 3. Originaltitel: Im Auftrag des Bundesministeriums für Bildung und Forschung (bmb+f). Ulm 2001. Maresch: Macht, 1999 Maresch, Rudolf und Niels Werber (Hrsg.): Kommunikation, Medien, Macht. Frankfurt am Main 1999. Marx: Grundrisse, 1974 Marx, Karl: Grundrisse der Kritik der politischen Ökonomie. (Rohentwurf) 1857 - 1858. Berlin 21974.

211

Kommunizierende Automaten McLuhan: Gutenberg-Galaxis, 1995 McLuhan, Marshall: Die Gutenberg-Galaxis. Das Ende des Buchzeitalters. Originaltitel: The Gutenberg Galaxy (Toronto, 1962). Bonn u.a. 1995. McLuhan: Kanäle, 1992 McLuhan, Marshall: Die magischen Kanäle. Understanding media. Originaltitel: Understanding Media: The Extensions of Man (1964). Düsseldorf u.a. 1992. McLuhan: Laws, 1988 McLuhan, Marshall and Eric McLuhan: Laws of Media. The New Sciene. Toronto, Buffalo, London 1988. McLuhan: Massage, 1969 McLuhan, Marshall, Fiore, Quentin: Das Medium ist Massage. Originaltitel: The Medium is the Massage. Frankfurt/M. u.a., 1969. McLuhan: Medium, 2001 McLuhan, Marshall (Hrsg. u. übers. Von Martin Baltes et. Al.): Das Medium ist die Botschaft. The Medium is the Message. Dresden 2001. McLuhan: Understanding, 1995 McLuhan, Marshall: Understanding Media. The Extensions of Man. London 71995. McLuhan: Village, 1989 McLuhan, Marshall und Bruce R. Powers: The global village. Transformations in World Llife and Media in the 21st Century. New York u.a. 1989. Meggle: Handlung, 1979 Meggle, Georg (Hrsg.): Handlung, Kommunikation, Bedeutung. Frankfurt am Main 1979. Meibauer: Linguistik, 2002 Meibauer, Jörg u.a.: Einführung in die germanistische Linguistik. Stuttgart, Weimar 2002. Meier: Entstehung, 1983 Meier, Christian: Die Entstehung des Politischen bei den Griechen. Frankfurt am Main 1983. Menßen: Mensch-Maschine-Kommunikation, 1971 Menßen, Karl-Heinz: Zur Bedeutung und organisatorischen Gestaltung der betrieblichen Mensch - Maschine – Kommunikation. Köln 1971. Mersch: Medientheorien, 2006 Mersch, Dieter: Medientheorien zur Einführung. Hamburg 2006.

212

Literaturverzeichnis Merten: Wirklichkeit, 1994 Merten, Klaus, S. J. Schmidt und S. Weichenberg (Hrsg.): Die Wirklichkeit der Medien. Eine Einführung in die Kommunikationswissenschaft. Opladen 1994. Messerschmidt: Lehrplansynopse, 2001 Messerschmidt, Detlef: Lehrplansynopse zur Informationstechnischen Grundbildung (ITG) in der Sekundarstufe I an allgemeinbildenden Schulen in der BRD. Darmstadt 2001. Messmer: PC-Hardware, 1995 Messmer, Hans-Peter: PC-Hardwarebuch. Aufbau, Funktionsweise, Programmierung. Bonn, Paris etc. 31995. Montaigne: Essais, 1999 Montaigne, Michel de: Essais. Erste moderne Gesamtübersetzung von Hans Stillet. Reihe: Die andere Bibliothek Frankfurt am Main 21999. Müller: Programmierung, 1998 Müller, Ovier: Grundlagen der Programmierung. Das Einsteigerseminar. Kaarst 1998. Neswald: Flusser, 1998 Neswald, Elizabeth: Medien-Theologie. Das Werk Vilém Flussers. Reihe: Literatur - Kultur - Geschlecht: Kleine Reihe, Band: 11. Köln, Wien, Weimar 1998. Niemeyer: Datenverarbeitung, 1981 Niemeyer, Gerhard: Einführung in die elektronische Datenverarbeitung. Reihe: Systemstudium Wirtschaftsinformatik München 31981. Noble: Maschinenstürmer, 1986 Noble, David. F.: Maschinenstürmer. oder Die komplizierten Beziehungen der Menschen zu ihren Maschinen. Originaltitel: Automation: Progress without People. Berlin 1986. Nöth: Semiotik, 2000 Nöth, Winfried: Handbuch der Semiotik. Stuttgart, Weimar 22000. Oberschelp:, 2003 Oberschelp, Walter und Gottfried Vossen: Rechneraufbau und Rechnerstrukturen. Müchen 92003. Ong: Oralität, 1987 Ong, Walter J.: Oralität und Literalität. Die Technologisierung des Wortes. Opladen, 1987. Oppermann: Fragen, 1999 Oppermann, Christiane: 2000. 100 Fragen zum Jahrtausendwechsel. Wie Sie sich vor dem Jahr-2000-Problem und seinen fatalen Folgen schützen können. München 1999.

213

Kommunizierende Automaten Paulsen: ADIS, 2001 Paulsen, Christian: ADIS-ADED. Einmal formuliert - überall verstanden. Münster 2001. Pias: Macy Essays, 2003 Pias, Claus (Hrsg.): Cybernetics/Kybernetik. The MacyConferences 1946 - 1953. Essays und Dokumente. , Band: 2. Zürich u.a, 2003. Pias: Macy Transactions, 2003 Pias, Claus (Hrsg.): Cybernetics/Kybernetik. The Macy-Conferences 1946-1953. Transactions/Protokolle. , Band: 1. Zürich u.a., 2003. Pias: Medienkultur, 1999 Pias, Claus (Hrsg.): Kursbuch Medienkultur. Die maßgeblichen Theorien von Brecht bis Baudrillard. Stuttgart 1999. Platon: Phaidros, 1957 Platon: Phaidros oder Vom Schönen. Übertr. und eingeleitet Kurt Hillebrandt. Stuttgart 1957. Postman: Aufklärung, 1999 Postman, Neil: Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert. Originaltitel: A Bridge to the Eighteenth Century. Berlin 1999. Postone: Zeit, 2003 Postone, Moishe: Zeit, Arbeit und gesellschaftliche Herrschaft. Eine neue Interpretation der kritischen Theorie von Marx. Originaltitel: Time, labor, and social domination. Freiburg 2003. Prokop: Konzerne, 1985 Prokop, Dieter (Hrsg.): Konzerne, Macher, Kontrolleure. Reihe: Medienforschung, Band: 1. Frankfurt am Main, Hamburg 1985. Prokop: Wünsche, 1985 Prokop, Dieter (Hrsg.): Wünsche, Zielgruppen, Wirkungen. Reihe: Medienforschung, Band: 2. Frankfurt am Main, Hamburg 1985. Pross: Medienforschung, 1972 Pross: Harry: Medienforschung. Fim, Funk, Fernsehen. Darmstadt 1972. Ramming: Worten, 2006 Ramming, Ulrike: Mit den Worten rechnen. Ansätze zu einem philosophischen Medienbegriff. Bielefeld 2006.

214

Literaturverzeichnis Reihlen: Knowledge-Systems, 2005 Reihlen, Markus and Torsten Ringsberg: Computer-Mediated Knowledge-Systems in Consultancy Firms: Do They Work? Universität Köln, 2005. Rheingold: Virtual, 1993 Rheingold, Howard: The Virtual Community. Homestanding on the Electronic Frontier. Reading, Mass. u.a. 21993. Robins: Ideen- und Problemgeschichte, 1973 Robins, Robert Henry: Ideen- und Problemgeschichte der Sprachwissenschaft. Mit besonderer Berücksichtigung des 19. und 20. Jahrhunderts. Reihe: Schwerpunkte Linguistik und Kommunikationswissenschaft, Band: 16. Frankfurt am Main 1973. Röller: Medientheorie, 2002 Röller, Nils: Medientheorie im epistemischen Übergang. Hermann Weyls Philosophie der Mathematik und Naturwissenschaften und Ernst Cassirers Philosophie der symbolischen Formen im Wechselverhältnis. Reihe: [me'dien]i, Band: 9. Weimar 2002. Rötzer: Schein, 1991 Rötzer, Florian: Digitaler Schein. Ästhetik der elektronischen Medien. Frankfurt am Main 1991. Rötzer: Telepolis, 1995 Rötzer, Florian: Die Telepolis. Urbanität im digitalen Zeitalter. Mannheim 1995. Rüsen: Unruhe, 2004 Rüsen, Jörn, Fehr, Michael und Annelie Ramsbrock (Hrsg.): Die Unruhe der Kultur. Potientiale des Utopischen. Weilerswist 2004. Rusch: Medienwissenschaft, 2002 Rusch, Gebhard: Einführung in die Medienwissenschaft. Konzeptionen, Theorien, Methoden, Anwendungen. Wiesbaden 2002. Russell: Philosphie, 1997 Russell, Bertrand: Philosophie des Abendlandes. Ihr Zusammenhang mit der politischen und der sozialen Entwicklung. Originaltitel: A History of Western Philosophy (erschienen 1945). München 71997. Sagiv: Programming Languages, 2005 Sagiv, Mooly (Ed.): Programming Languages and Systems. 14th European Symposium on Programming, ESOP 2005; European Joint Conference on Theory and Practice of Soft-

215

Kommunizierende Automaten ware 2005. Reihe: Lecture Notes in Computer Science, Band: 3444. Berlin, Heidelberg, New York 2005. Sandbothe: Renaissance, 2000 Sandbothe, Mike (Hrsg.): Die Renaissance des Pragmatismus. Aktuelle Verflechtungen zwischen analytischer und kontinentaler Philosophie. Weilerswist 2000. Schanze: Mediengeschichte, 2001 Schanze, Helmut (Hrsg.): Handbuch der Mediengeschichte. Stuttgart 2001. Schefe: Informatik, 1993 Schefe, Peter et al.: Informatik und Philosophie. Probleme – Methoden - Domänen. Mannheim u.a. 1993. Schiersmann: Medienkompetenz, 2002 Schiersmann, Christiane, Johannes Busse und Detlev Krause: Medienkompetenz – Kompetenz für Neue Medien. Studie im Auftrag des Forum Bildung. Workshop am 14. September 2001 in Berlin. Reihe: Materialien des Forum Bildung, Band: 12. Bonn 2002. Schimpf: Informatik, 1994 Schimpf, Christian Antonius und Carl-Magnus Ullfors: Informatik - EDV - Computertechnik. Bertelsmann Lexikon. Hrsg. vom Lexikon-Institut Bertelsmann. Gütersloh 1994. Schinzel: Maschinen, 1997 Schinzel, Britta: Wie menschlich sind Maschinen. München 1997. Schmidt: Programming Languages, 2004 Schmidt, David (Ed.): Programming Languages and Systems. 13th European Symposium on Programming, ESOP 2004; European Joint Conference on Theory and Practice of Software 2004. Reihe: Lecture Notes in Computer Science, Band: 2986. Berlin, Heidelberg, New York 2004. Scholz: Medienmanagement, 2006 Scholz, Christian (Hrsg.): Handbuch Medienmanagement. Berlin, Heidelberg, New York 2006. Schröter: Analog, 2004 Schröter, Jens und Alexander Böhnke (Hrsg.): Analog/Digital – Opposition oder Kontinuum? Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Reihe: Medienumbrüche, Band: 2. Bielefeld 2004. Schröter: analog/digital, 2004 Jens Schröter; Alexander Böhnke (Hrsg.): Analog / Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte

216

Literaturverzeichnis einer Unterscheidung. Reihe: Medienumbrüche, Band: 2. Bielefeld 2004. Schulmeister: eLearning, 2006 Schulmeister, Rolf: eLearning: Einsichten und Aussichten. München 2006. Schulmeister: Virtuelle, 2001 Schulmeister, Rolf: Virtuelle Universität - Virtuelles Lernen. München 2001. Scott: Programming, 2006 Scott, Michael L.: Programming language pragmatics. San Francisco, Calif. u.a. 22006. Seebaß: Sprache, 1981 Seebaß, Gottfried: Das Problem von Sprache und Denken. Frankfurt am Main 1981. Segeberg: Sound, 2005 Segeberg, Harro und Frank Schätzein (Hrsg.): Sound. Zur Technologie und Ästhetik des Akustischen in den Medien. Reihe: Schriftenreihe der Gesellschaft für Medienwissenschaften (GFM), Band: 12. Marburg 2005. Seidel: Thales, 1980 Seidel, Helmut: Von Thales zu Platon. Vorlesungen zur Geschichte der Philosophie. Reihe: Kleine Bibliothek, Band: 209. Köln 1980. Seitter; Physik der Medien, 2002 Seitter, Walter: Physik der Medien. Materialien, Apparate, Präsentierungen. Weimar 2002. Shannon: Ein - Aus, 2000 Shannon, Claude E.: Ein - Aus. Ausgewählte Schriften zur Kommunikations- und Nachrichtentheorie. Hrsg. von Friedrich A. Kittler, Peter Berz, David Hauptmann und Axel Roch. Berlin 2000. Stehr: Zerbrechlichkeiten, 2000 Stehr, Nico: Die Zerbrechlichkeiten moderner Gesellschaften. Die Stagnation der Macht und die Chancen des Individuums. Weilerswist 2000. Steinmüller: Informationstechnologie, 1993 Steinmüller, Wolfgang: Informationstechnologie und Gesellschaft. Einführung in die Angewandte Informatik. Darmstadt 1993. Stelling: Teamarbeit, 1999 Stelling, Dirk: Teamarbeit in Mensch-Maschine-Systemen. Reihe: Lehr- und Forschungstexte Psychologie, Band: 8. Göttingen, Bern, Toronto u.a. 1999.

217

Kommunizierende Automaten Tanenbaum: Computerarchitektur, 2001 Tanenbaum, Andrew S. und James Goodman: Computerarchitektur. Strukturen, Konzepte, Grundlagen. Originaltitel: Structured Computer Organization. München 2001. Tarski: Logic, 1956 Tarki, Alfred: Logic, Semantics and Metamathematics. Papers from 1923 to 1938. Oxford 1956. Trogemann: CodeArt, 2005 Trogemann, Georg und Jochen Viehoff: CodeArt. Eine elementare Einführung in die Programmierung als künstlerische Praktik. Reihe: Ästhetik und Naturwissenschaften. Medienkultur Wien, New York 2005. Vater: Sprachwissenschaft, 2002 Vater, Heinz: Einführung in die Sprachwissenschaft. Reihe: Universtitätstaschenbuch, Band: 1799. München 42002. Vater: Textlinguistik, 2001 Vater, Heinz: Einführung in die Textlinguistik. Reihe: UniTaschenbücher, Band: 1660. München 32001. Villers: Alphabet, 2005 Villers, Jürgen: Das Paradigma des Alphabets. Platon und die Schriftbedingtheit der Philosophie. Würzburg 2005. Vollrath: Grundlegung, 1987 Vollrath, Ernst: Grundlegung einer philosophischen Theorie des Politischen. Würzburg 1987. Vollrath: Kategorienlehre, 1969 Vollrath, Ernst: Studien zur Kategorienlehre des Aristoteles. Ratingen 1969. Vollrath: Politische, 2003 Vollrath, Ernst: Was ist das Politische? Eine Theooie des Politischen und seiner Wahrnehmung. Würzburg 2003. Volmert: Sprachwissenschaft, 2005 Volmert, Johannes (Hrsg.): Grundkurs Sprachwissenschaft. Reihe: Uni-Taschenbücher, Band: 1879. München 52005. Vorländer: Philosophie, 1971 Vorländer, Karl: Philosohie des Altertums. Reihe: Geschichte der Philosophie, Band: 1. Reinbek bei Hamburg 61971. Vossenkuhl: Wittgenstein, 1995 Vossenkuhl, Wilhelm: Ludwig Wittgenstein. Reihe: Becksche Reihe Denker, Band: 532. Müchen 1995. Watzlawick: Kommunikation, 1975 Watzlawick, Paul, Janet H. Beavin und Don D. Jackson: Menschliche Kommunikation. Formen, Störungen, Paradoxien. Originaltitel: Pragamtics of Human Communication.

218

Literaturverzeichnis Reihe: A Study of Interactional Patterns, Pathologies, and Paradoxes Bern, Stuttgart, Wien 31975. Weigand: Mensch-Maschine-Kommunikation, 1983 Weigand, Karl Heinz: Mensch-Maschine-Kimmunikation als innovative Leistung. Empirische Untersuchungen zur Akzeptanz interaktiver Informationsangebote. Reihe: Europäische Hochschulschriften: Reihe XXII: Soziologie, Band: 78. München 1983. Weingarten: Information, 1990 Weingarten, Rüdiger (Hrsg.): Information ohne Kommunikation? Die Loslösung der Sprache vom Sprecher. Frankfurt am Main 1990. Weingarten: Verkabelung, 1989 Weingarten, Rüdiger: Die Verkabelung der Sprache. Grenzen der Technisierung von Kommunikation. Frankfurt am Main 1989. Weizenbaum: Computer, 1977 Weizenbaum, Joseph: Die Macht der Computer und die Ohnmacht der Vernunft. Originaltitel: Computer Power and Human Reason. From Judgement to Calculation. Frankfurt am Main 1977. Wiener: Gott, 1965 Wiener, Norbert: Gott & Golem Inc. Originaltitel: God and Golem, Inc. Düsseldorf, Wien 1965. Wiener: Mensch, 1952 Wiener, Norbert: Mensch und Menschmaschine. Originaltitel: The Human Use of Human Beings (Cybernetics and Society). Frankfurt am Main, Berlin 1952. Winkler: Medien, 2008 Winkler, Hartmut: Basiswissen Medien. Frankfurt am Main 2008. Winter: Theorien, 2008 Winter, Carsten, Andreas Hepp und Friedriech Krotz (Hrsg.): Theorien der Kommunikations- und Medienwissenschaft. Grundlegende Diskussionen, Forschungsfelder und Theorieentwicklungen. Wiesbaden 2008. Wirth: Compilerbau, 1997 Wirth, Nikolaus: Grundlagen und Techniken des Compilerbaus. München usw. 1997. Wittgenstein: Grammatik, 1969 Wittgenstein, Ludwig: Philosophische Grammatik. Hrsg. von Rush Rhees. Frankfurt am Main 1969.

219

Kommunizierende Automaten Wittgenstein: Tractatus, 2003 Wittgenstein, Ludwig: Tractatus logico-philosophicus. Logisch-philosophische Abhandlung. Frankfurt am Main 2003. Wittgenstein: Untersuchungen, 2001 Wittgenstein, Ludwig: Philosophische Untersuchungen. Kritisch-genetische Edition. Hrsg. von Joachim Schulte. Frankfurt am Main 2001. Yeo: Textpragmatik, 2003 Yeo, Jong-Moon (Yŏ, Chong-mun): Textpragmatik, Textfunktion, Textanalyse. Reihe: Europäische Hochschulschriften, Band: 1876. Frankfurt am Main, Berlin, Bern usw. 2003. Zemanek: Kalender, 1981 Zemanek, Heinz: Kalender und Chronologie. Bekanntes & Unbekanntes aus der Kalenderwissenschaft. Ein Essay von Heinz Zemanek, IBM Fellow, Professor an der TU Wien. München, Wien 21981. Ziemann: Soziologie, 2006 Ziemann, Andreas: Soziologie der Medien. Bielefeld 2006. Zimmer: Elektrifizierung, 1991 Zimmer, Dieter E.: Die Elektrifizierung der Sprache. Über Sprechen, Schreiben, Computer, Gehirne und Geist. Zürich 1991.

Unselbstständige Literatur Amtrup: Aspekte, 2001 Amtrup, Jan W.: Computerlinguistik - Was ist das? Aspekte der Computerlinguistik. In: Carstensen: Computerlinguistik, 2001. S. 10 - 23. Androutsopoulos: Studies, 2006 Androutsopoulos, Jannis: Cultural Studies und Sprachwissenschaft. In: Hepp: Kultur, 2006 . S. 237 - 254 Apel: Mensch, 2005 Apel, Friedmar: Der kodierte Mensch. Kommunizieren - das Unwort des Zeitalters. In: FAZ vom 09.02.2005. S. N 3. Aristoteles: De interpretatione, 1963 Aristoteles: De interpretatione. Originaltitel: Peri Hermeneias. In: J.L. Ackrill: Aristotle’s Categories and De interpretatione. Translated with Notes and Glossary, Oxford 1963.

220

Literaturverzeichnis Assmann: Einleitung, 1992 Assmann, Jan: Einleitung. In: Assmann: Kulturelle, 1992. S. 16 - 25. Assmann: Hieroglyphen, 2002 Assmann, Jan: Sieben Funktionen der ägyptischen Hieroglyphenschrift. In: Greber: Materialität, 2002. S. 31 - 50. Assmann: Nachwort, 1983 Assmann, Aleida und Jan Assmann: Schrift und Gedächtnis. Nachwort. In: Assmann: Gedächtnis, 1983. S. 266 - 284. Assmann: Schrift, 2000 Assmann, Jan: Schrift und Normativität. In: Assmann: Herrschaft, 2000. S. 178 - 194. Assmann: Schriftkultur, 1992 Assmann, Jan: Schriftkultur. In: Assmann: Kulturelle, 1992. S. 87 - 129. Assmann: Verschriftung, 1996 Assmann, Jan: Zur Verschriftung rechtlicher und sozialer Normen im alten Ägypten. In: Gehrke: Recht, 1996. S. 61 - 85. Baecker: Kommunikation, 1999 Baecker, Dirk: Kommunikation im Medium der Information. In: Maresch: Macht, 1999. S. 174 - 191. Baker: Discards, 1996 Baker, Nicholson: Discards. In: Ders.: The Size of Thoughts. Essays and Other Lumber. New York: Random House, 1996. S. 125 - 174. Bakker: Fiktionalität, 1998 Bakker, Egbert: Fiktionalität und Medienwechsel im Altgriechischen. Von Homer zu Thukydides. In: Ehler: Verschriftung, 1998. S. 57 - 77. Batels: Antiquiertheit, 2008 Bartels, Klaus: Die Antiquiertheit der Prothese - McLuhan, das Spiel, die Avatare. In: Kerckhove: McLuhan, 2008. S. 409 - 429. Bauer: Electronic Commerce, 1999 Bauer, Hans H.: Electronic Commerce: Stand, Chancen und Probleme. In: Berghaus: Interaktive Medien, 1999. S. 85 104. Benesch: Technology, 2008 Benesch, Klaus: Does Technology Drive History. McLuhan, Leo Marx und die materialistische Medientheorie. In: Kerckhove: McLuhan, 2008. S. 95 - 104.

221

Kommunizierende Automaten Benning: Nutzer, 1999 Benning, Maria: Der Nutzer, das unbekannte Wesen. In: c't, 1999, Heft 25. S. 106 - 107. Benning: Start, 1999 Benning, Maria und Jörg Wagner: Auf ‚Start‘, um zu beenden. Oberflächensprache ist oft oberflächlich getextet, zu kompliziert und nicht auf Anwender bezogen. In: c't, 1999, Heft 25. S. 104. Bense: Kunst, 2007 Bense, Max: Kunst und Intelligenz. In: Bruns: Neue Medien, 2007. S. 65 - 74. Berghaus: Alte Theorien über neue Medien, 1999 Berghaus, Margot: „Alte“ Theorien über neue Medien. Was sich aus Medien-, Kommunikations- und Gesellschaftstheorien über Begleiterscheinungen im Internet ableiten lässt. In: Berghaus: Interaktive Medien, 1999. S. 32 - 63. Berghaus: Thema dieses Buches, 1999 Berghaus, Margot: Thema dieses Buches und Überblick über die Beiträge. In: Berghaus: Interaktive Medien, 1999. S. 7 10. Biskup: Grundzüge, 2001 Biskup, Joachim: Vorlesung „Grundzüge der Informatik“. http://ls1-www.informatik.uni-dortmund.de (Zugriff Mai 04) Universität Dortmund WS 2001/02. Bledjian: Einstellungsstruktur, 1985 Bledjian, Frank: Theoretische Ansätze über den Einfluß der präkommunikativen Einstellungsstruktur der Rezipienten auf Bildung und Änderung von Einstellungen. In: Prokop: Wünsche, 1985. S. 75 - 113. Bleul: Operation, 1999 Bleul, Andreas und Jörn Loviscach: Operation 2000. Software fit machen für das nächste Jahrtausend. In: c't, 1999, Heft 1. S. 76 - 81. Bock: Technikdokumentation, 1991 Bock, Gabriele: Technikdokumentation. Vom Abstellgleis zum Berufsfeld mit Zukunft. In: Hickethier: Medien, 1991. S. 451 457. Bolz: Medium, 1999 Bolz, Norbert: Computer als Medium. In: Bolz: Computer, 1999. S. 9 - 16. Bonn: Informationslogisitik, 2005 Bonn, Heinz-Paul: Informationslogistik – ein brandheißer Exportschlager. Dinner-Speech im Rahmen des Fraunhofer

222

Literaturverzeichnis Symposiums RFID am 13.09.2005. http://www.bitkom.org/files/documents/Rede_Bonn_Fhg_Symposion_Dortmund_13. 09.2005.pdf . (Zugriff 2006). Boos: Aspkte, 2000 Boos, Margarete, Kai J. Jonas und Kai Sassenberg: Sozialund organisationspsychologische Aspekte computervermittelter Kommunikation. In: Boos: Kommunikation, 2000. S. 1 - 7. Boos: Computergestützte Problemstrukturierung, 2000 Boos, Margarete: Computergestützte Problemstrukturierung in Arbeitsgruppen. In: Boos: Kommunikation, 2000. S. 73 87. Borchers: Überwachung, 2004 Borchers, Detlef: Überwachung total. PC-Spionage am Arbeitsplatz und zu Hause. In: c't, 2004, Heft 23. S. 146 151. Boudol: ULM: A Core Programming, 2004 Boudol, Gérard: ULM: A Core Programming Model for Global Computing. In: Schmidt, David (Ed.): Programming Languages and Systems, 2004. S. 234 - 248. Brauer: Informatikbetrachtungen, 2001 Brauer, Wilfried: Informatikbetrachtungen. Versuch einer Beschreibung des Fachs Informatik. In: Desel: Informatik, 2001. S. 117 - 134. Braun: Codierung, 2002 Braun, Christina von: Die kulturelle Codierung des männlichen und des weiblichen Körpers. In: concilium. Internationale Zeitschrift für Theologie. April 2002, Heft 2. S. 133 - 143. Brumlik: Cybizens, 2004 Brumlik, Micha: Die Republik der Cybizens. Wie sich die Politik vom Menschen löst. In: Rüsen: Unruhe, 2004. S. 251 256. Bullen: Autor, 1991 Bullen, Andrew R.: Gedanken zur Situation des (Freien) Technischen Autors. Vom Abstellgleis zum Berufsfeld mit Zukunft. In: Hickethier: Medien, 1991. S. 465 - 467. Burckhardt: Strom, 1998 Burckhardt, Martin: Unter Strom. Der Autor und die elektromagnetische Schrift. In: Krämer: Medien, 1998. S. 27 - 54. Capurro: Menschenbilder, 1992 Capurro, Rafael und Jürgen Seetzen: Menschenbilder. In: Cremers: Intelligenz, 1992. S. 11 - 15.

223

Kommunizierende Automaten Church: An unsolvable Problem, 1936 Church, Alonzo: An unsolvable problem of elemantary number theory. In: Journal of Mathematics, 1936, Heft 58. S. 345 363. Computerwoche: Testphase, 1999 Computerwoche: Aufwendige Testphase durch Zeitreisen verkürzen. Strategien zur Bewältigung des Jahr-2000Problems. In: Computerwoche, 1999, Heft 4. S. 20 - 21. Conradt: Bibliotheksservice-Zentrum, 2004 Conradt, Volker: Das Bibliotheksservice-Zentrum BadenWürttemberg (BSZ). Kooperationspartner und Dienstleister für Bibliotheken, Archive und Museen. In: Maier, Gerald u.a.: Kulturgut aus Archiven, 2004. S: 65 - 76. Coy: Analog, 2000 Coy, Wolfgang: Analog / Digital. Schrift, Bilder und Zahlen als Basismedien. http://waste.informatik.hu-berlin.de/~coy/Papers/Coy_Siegen_000929.pdf (Zugriff 2004) Coy: Galaxis-Einleitung, 1995 Coy, Wolfgang: Einleitung. In: McLuhan: Gutenberg-Galaxis, 1995. S. VII - XVIII. Coy: Informatik, 2001 Coy, Wolfgang: Was ist Informatik? In: Desel: Informatik, 2001. S. 1 - 22. Coy: Turing, 1995 Coy, Wolfgang: Die Turing-Galaxis - Computer als Medien. In: Dencker: Weltbilder, 1995. S. 48 - 54. Coy: Vorgeschichte, 1999 Coy, Wolfgang: Aus der Vorgeschichte des Mediums Computer. In: Bolz: Computer, 1999. S. 19 - 37. Cremers: Intelligent Agents, 2004 Cremers, Armin: Intelligent Agents. Originaltitel: Agenten der Wissensgesellschaft. In: Lenders, Winfried (Hrsg.): Medienwissenschaft, 2004. S. 167 - 179. Crichton: Herrschaft, 23.11.2002 Crichton, Michael: Herrschaft der Maschinen. Unsere Zukunft mit der Nanotechnologie. (übersetzt von Joachim Kalka). In: Frankfurter Allgemeine Zeitung vom 23.11.2002. c't (hps): US-Patent, 1999 hps: US-Patent für Datumsangaben löst Kritik aus. In: c't, 1999, Heft 4. S. 61.

224

Literaturverzeichnis Daemisch: Chips, 1998 Daemisch, Ferdinand: Fehler in Chips gebrannt? Das Problem 2000 embedded. In: Computerwoche Spezial „Problem 2000". Sonderheft vom 27.02.1998, Heft 1. S. 56. Dath: Zuflucht, 2003 Dath, Dietmar: Zuflucht des Göttlichen. Komplexe Zahlen: Robert B. Brandoms Kritik an Frege. In: Frankfurter Allgemeine Zeitung vom 14.05.2005. Denning: Looking back, 1971 Denning, Peter J.: Looking Back and looking Ahaead. S. 819 820. Depenheuer: Informationsordnung, 1999 Depenheuer, Otto: Informationsordnung durch Informationsmarkt. Rechtliche Rahmenbedingungen einer Informationsordnung. In: Berghaus: Interaktive Medien, 1999. S. 63 - 83. Dischler: Fleißarbeit, 1998 Dischler, Wolfgang: Jede Menge Fleißarbeit - aber bis Ende 1998 fertig. In: Computerwoche Spezial „Problem 2000“. Sonderheft vom 27.02.1998, Heft 1. S. 94 - 97. Donges: Medien, 2008 Donges, Patrick: Medien als Strukturen und Akteure. Kommunikationswissenschaftliche Theoriediskussion zwischen System und Handlungstheorie. In: Winter: Theorien, 2008. S. 329 - 344. Dorer: Internet, 2006 Dorer, Johanna: Das Internet und die Genealogie des Kommunikationsdispositivs: Ein medientheoretischer Ansatz nach Focault. In: Hepp: Kultur, 2006. S. 353 - 365 Dreyer: Farbmanagement-Workflow, 2004 Dreyer, Roland: Der Farbmanagement-Workflow bei der Filmdigitalisierung von Archivgut. In: Maier: Kulturgut aus Archiven, Bibliotheken und Museen im Internet, 2004. S. 207 - 247. Duhm: Programmiertes Chaos, 1999 Duhm, Ulrike: Programmiertes Chaos. Allen Beschwichtigungen zum Trotz erwarten Experten zum Jahrtausendwechsel eine Katastrophe. In: com!online, 1999, Heft 4. S. 19 - 22. Ebeling: Geist, 1999 Ebeling, Adolf: Geist aus der Maschine. Das erste Jahrtausend des Computers neigt sich seinem Ende zu. In: c't, 1999, Heft 26. S. 74 - 81.

225

Kommunizierende Automaten Effelsberg: Automatische Inhaltsanalyse, 1999 Effelsberg, Wolfgang: Automatische Inhaltsanalyse von digitalen Videos. In: Berghaus: Interaktive Medien, 1999. S. 167 193. Ehlich: Text, 1983 Ehlich, Konrad: Text und sprachliches Handeln. Die Entstehung von Texten aus dem Bedürfnis nach Überlieferung. In: Assmann: Gedächtnis, 1983. S. 24 - 43. Engelmann: Foucault, 1999 Engelmann, Jan: Aktenzeichen Foucault. In: Foucault: Botschaften, 1999. S. 215 - 226. Ermert: Jugendfreies, 2003 Ermert, Monika: Jugendfreies Internet. Ein Staatsvertrag reguliert Internet und Neue Medien. In: c't, 1999, Heft 8. S. 50 - 51. Faßler: Vorwort. Neue Innenwelten, 1994 Faßler, Manfred und Wulf R. Halbach: Vorwort. Neue Innenwelten oder Kurzschlüsse. In: Faßler, Manfred und Wulf R. Halbach: Cyberspace, 1994. S. 7 - 18. FAZ (bf): Amerikas, 1999 FAZ (bf): Amerikas Konzerne haben „Jahr-2000-Problem“ im Griff. Studie von Morgan Stanley / Computer-Umstellung kommt voran / Kosten geringer als erwartet. In: Frankfurter Allgemeine Zeitung vom 25.09.1999. Fiehler: Kommunikation, 1990 Fiehler, Reinhard: Kommunikation, Information und Sprache. Alltagsweltliche und wissenschaftliche Konzeptualisierungen und der Kampf um die Begriffe. In: Weingarten: Information. 1990. S. 99 - 128. Filik: Medienphilosophie, 2004 Filik, Christian, Grampp, Sven und Kay Kirchmann: Was ist „Medienphilosophe“ und wer braucht sie womöglich dringender: die Philosophie oder die Medienwissenschaft? Ein kritisches Forschungsreferat. In: Allgemeine Zeitschrift für Philosophie, Jg. 2004, Heft 29. S. 39 – 65. Finney: Mathematical, 1996 Finney, Kate: Mathematical notation in formal specification. Too difficult for the masses? In: IEEE Transactions on Software Engeneering, Jg. 22, 1996, Heft 2. S. 158 - 159. Fischer: Schrift, 1997 Fischer, Martin: Schrift als Notation. In: Koch: Schrift, 1997. S. 83 - 101.

226

Literaturverzeichnis Flusser: Denken, 1990 Flusser, Vilém: Aktuelles Denken. In: Kunstforum International, 1990, Heft 108. S. 94 - 102. Flusser: Millennium, 1990 Flusser, Vilem: Millennium zu verkaufen. In: GDI-Impuls (Gottlieb Duttweiler Institut), 1990. 5 S. Flusser: Schein, 1991 Flusser, Vilém: Digitaler Schein. In: Rötzer: Schein, 1991. S. 147 - 159. Fosburgh: Nader, 1970 Fosburgh, Lacey: Nader Fears Computer Will Turn Us Into ‚Slaves‘. In: New York Times vom 02.09.1970. S. 18. Foucault: Pfeife, 1999 Foucault, Michel: Dies ist keine Pfeife. (zu René Margittes Ceci n´est pas une pipe). In: Foucault: Botschaften, 1999. S. 111 144. Foucault: Ausgeübt, 1999 Foucault, Michel: Wie wird Macht ausgeübt? In: Foucault: Botschaften, 1999. S. 187 - 201. Foucault: Aussage?, 1999 Foucault, Michel: Was ist eine Aussage? In: Foucault: Botschaften, 1999. S. 49 - 53. Foucault: Macht, 1999 Foucault, Michel: Warum ich die Macht untersuche. Die Frage des Subjekts. In: Foucault: Botschaften, 1999. S. 161 - 171. Foucault: Maschen, 1999 Foucault, Michel: Die Maschen der Macht. In: Foucault: Botschaften, 1999. S. 172 - 186. Foucault: Technologie, 1999 Foucault, Michel: Die politische Technologie der Individuen. In: Foucault: Botschaften, 1999. S. 202 - 214. Frege: Über Sinn, 1892 Frege, Gottlob: Über Sinn und Bedeutung. In: Zeitschrift für Philosophie und philosophische Kritik, 1892, Heft 100. S. 25 50. Fuchs-Kittowski: Information, 1999 Fuchs-Kittowski, Klaus, Lutz J. Heinrich, Arno Rolf: Information entsteht in Organisationen – in kreativen Unternehmen – wissenschaftstheoretische und methodologische Konsequenzen für die Wirtschaftsinformatik. In: Becker: Wirtschaftsinformatik, 1999. S. 329 - 361.

227

Kommunizierende Automaten Gadamer: Schrift, 2001 Gadamer, Hans-Georg: Unterwegs zur Schrift. In: Gadamer: Plato, 2001. S. 85 - 105. Gehrke: Verschriftung, 1998 Gehrke, Hans-Joachim: Verschriftung und Verschriftlichung im sozialen und politischen Kontext. Das archaische und klassische Griechenland. In: Ehler: Verschriftung, 1998. S. 40 - 56. Geilhausen: Stadt ohne Ampeln, 08.12.2004 Geilhausen, Stefani: Stadt ohne Ampeln. Ein Rechnerfehler. In: Rheinische Post vom 08.12.2004. Giesecke: Medien, 1990 Giesecke, Michael: Als die alten Medien neu waren. Medienrevolution in der Geschichte. In: Weingarten: Information. 1990. S. 75 - 98. Gipper: Sprache, 1986 Gipper, Helmut: Sprache als In-formation (Geistige Prägung). In: Folberth: Informationsbegriff, 1986. S. 257 - 298. Glaser: Taking Issue, 1972 Glaser, George: Taking Issue. In: Communications of the ACM, 1972, Heft 2. S. 117. Görz: Auswirkungen, 1992 Görz, Günther, Anton Kremeier, Horst Röpke, Paul Schreiber, Gerhard Strube, Ipke Wachsmuth und Michael Wilker: Mögliche Auswirkungen einer entwickelten KI auf Arbeits- und Lebenswelt. In: Cremers: Intelligenz, 1992. S. 156 - 170. Gramelsberger: Zeichen, 2005 Gramelsberger, Gabriele: Im Zeichen der Wissenschaften. Simulation als semiotische Rekonstruktion wissenschaftlicher Objekte. In: In: Grube: Schrift. 2005. S. 439 - 452. Grube: Abbildungen, 2006 Grube, Gernot: Digitale Abbildungen - Ihr prekärer Zeichenstatus. In: Heßler: Sichtbarkeiten, 2006. S. 179 - 196. Grundmann: Schienen, 1994 Grundmann, Reiner: Über Schienen, Straßen, Sand und Perlen. Große technische Systeme in der Theorie sozialer Systeme. In: Braun: Technik. 1994. S. 501 - 544. Guggenberger: Digitale, 2002 Guggenberger, Bernd: Digitale Neunomaden. In: Kemper: Globalisierung, 2002. S. 34 - 38. Gumbrecht: Wegkommunizieren, 1999 Gumbrecht, Hans Ulrich: Was sich nicht wegkommunizieren läßt. In: Maresch: Macht, 1999. S. 329 - 341.

228

Literaturverzeichnis Habermann: Television, 1985 Habermann, Peter: Television and Behavior. Kognitive und emotionale Verarbeitungsprozesse. In: Prokop: Wünsche, 1985. S. 64 - 75. Hagen: Computerpolitik, 1999 Hagen, Wolfgang: Computerpolitik. In: Bolz: Computer, 1999. S. 139 - 160. Hagen: Genealogie, 1999 Hagen, Wolfgang: Zur medialen Genealogie der Elektrizität. In: Maresch: Macht, 1999. S. 133 - 173. Hagner: Bilder, 2006 Hagner, Michael: Bilder der Kybernetik: Diagramm und Anthropologie, Schaltung und Nervensystem. In: Heßler: Sichtbarkeiten, 2006. S. 383 - 404. Hammann: Nanotechnik, 1995 Hammann, Winfried: Die nanotechnologische Revolution. In: Ästhetik & Kommunikation: Epochenschwelle? 1995, Heft 88. S. 31 - 39. Hampe-Neteler: Ergonomen, 1999 Hampe-Neteler, Wolfgang, Robert Baggen und Christoph Zurheiden: Die Ergonomen kommen. Was die Bildschirmarbeitsverordnung für Software bedeutet. In: c't, 1999, Heft 25. S. 100 - 102. Harich-Schwarzbauer: Fort-schreiben, 2004 Harich-Schwarzbauer, Henriette: Fort-schreiben. Inszenierungen griechischer Wissenstradtionen im Spiegel des Denkens der Geschlechterdifferenz. In: List: Kulturwissenschaften, 2004. S. 421 - 430. Heckl: Ich, 01.12.2002 Heckl, Wolfgang M.: Das Ich ist eine gefährdete Spezies. Die Nanoboter sind in uns: Michael Crichtons Roman „Beute“ flirtet mit dem Untergang. In: Frankfurter Allgemeine Sonntagszeitung vom 01.12.2002. Heckl: Nanobots, 29.11.2002 Heckl, Wolfgang M.: Gefräßige Nanobots. Michael Crichton schürt die Angst vor der neuen Technologie. In: Frankfurter Allgemeine Zeitung vom 29.11.2002. Herr: Versicherer, 1999 Herr, Joachim: Die Versicherer stoßen an die Grenzen der Versicherbarkeit. Ausschluss des Millenium-Risikos kommt nicht in Frage, auch auch spezielle Deckung nicht. In: Frankfurter Allgemeine Zeitung vom 06.09.1999, Heft 206.

229

Kommunizierende Automaten Herrlitz: Kommunikation, 1975 Herrlitz, Wolfgang: Einführung in die allgemeinen Grundlagen der Kommunikation. In: Funk-Kolleg Sprache 1, 1975. S. 27 37. Hickethier: Apparat, 1991 Hickethier, Knut: Apparat - Dispositiv - Programm. Skizze einer Programmtheorie am Beispiel des Fernsehens. In: Hickethier: Medien, 1991. S. 421 - 447. Hickethier: Epochenschwelle, 1995 Hickethier, Knut: Medien an der Epochenschwelle. Editorial. In: Ästhetik & Kommunikation: Epochenschwelle? 1995, Heft 88. S. 8. Hickethier: Gutenberg-Galaxis, 1999 Hickethier, Knut: Zwischen Gutenberg-Galaxis und BilderUniversum. Medien als neues Paradigma, Welt zu erklären. In: Geschichte und Gesellschaft, 1999, Heft 25. S. 146 - 172. Hickethier: Mediengeschichte, 2002 Hickethier, Knut: Mediengeschichte. In: Rusch: Medienwissenschaft, 2002. S. 171 - 188. Hickethier: Online, 1997 Hickethier, Knut: Die Online-Maschine. Öffentlichkeiten im Medium der Computernetze. In: Ästhetik & Kommunikation: Online-Verstrickungen, 1997, Heft 96. S. 21–26. Hickethier: Zukunft, 1995 Hickethier, Knut: Online mit der Zukunft. Zum Diskurs über die neuen Medien. In: Ästhetik & Kommunikation: Epochenschwelle? 1995, Heft 88. S. 9 - 15. Hicketihier: Medium, 1998 Hickethier, Knut: Das ‚Medium‘, die ‚Medien‘ und die Medienwissenschaft. In: Rainer Bohn et al. (Hg.): Ansichten einer künftigen Medienwissenschaft. 1998. S. 51 - 74. Hiebler: Mediengeschichte, 2004 Hiebler, Heinz: Mediengeschichte - Medientheorie im Kontext der Medienkulturwissenschaften. In: List: Kulturwissenschaften, 2004. S. 185 - 205. Hoelzer: Analogcomputer, 1999 Hoelzer, Helmut: 50 Jahre Analogcomputer. In: Bolz: Computer, 1999. S. 69 - 90. Hohmann: Haftung, 1999 Hohmann, Harald: Haftung der Softwarehersteller für das „Jahr-2000-Problem“. In: Neue Juristische Wochenschrift, 52. Jg. 1999, Heft 8. S. 520 - 526.

230

Literaturverzeichnis Holich: Umgemünzt, 1999 Holich, Volker: Umgemünzt. Wenn die Buchhaltung in Euro rechnen soll. In: c't, 1999, Heft 1. S. 89 ff. Holtgrewe: Vorarbeit, 1998 Holtgrewe, Burkhard: Gründliche Vorarbeit zahlt sich aus. In den DV-Aktivitäten des Gerling Konzerns ist das Datumsproblem seit zwei Jahren ein Kernprojekt. In: Computerwoche Spezial „Problem 2000“. Sonderheft vom 27.02.1998. S. 16 - 19. Holtus: Alinei, 1984 Holtus. Günter und Wolfgang Schweickard: Mario Alinei: La struttura del lessico. Bologna (Verlag Il Mulino) 1974. 264 S. In: Zeitschrift für Romanische Philologie, 1984, Heft 100. S. 234 - 237. Hönnighausen: Mc Luhans Erbe, 2004 Hönnighausen, Lothar: Mc Luhans Erbe: Der Verlust von Raum und Zeit im Global Village. In: Lenders, Winfried (Hrsg.): Medienwissenschaft, 2004. S. 91 - 102. Hooffacker: Internet, 1997 Hooffacker, Gabriele: Wem gehört das Internet? In: Neues Deutschland vom 10.12.1997. Hörisch: Einleitung, 2003 Hörisch, Jochen: Einleitung. In: Ludes: Medienwissenschaft, 2003. S. 7 - 30. Hörisch: Medium ist die Botschaft, 1999 Hörisch, Jochen: Das Medium ist die Botschaft: Zurück zur Interaktion. In: Berghaus: Interaktive Medien, 1999. S. 11 29. Hörl: McLuhan, 2008 Hörl, Erich: „We Seem to Play the Platonic Tape Backwards“. McLuhan und der Zusammenbruch der Euklidischen Mentalität. In: Kerckhove: McLuhan, 2008. S. 376 - 393. Hottelet: Netzwerk, 2004 Hottelet, Ulrich und Thomas Jüngling: Globales Netzwerk der Chips. Moderne Radiofrequenz erobert die Welt: Sie lokalisiert jedes Produkt grenzenlos - und könnte Menschen lückenlos überwachen. In: „Die Welt am Sonntag“ vom 25.04.2004, Heft 17. S. 41. Hubwieser: Informatik, 2001 Hubwieser, Peter: Informatik - Allgemeinbildung für die Informationsgesellschaft. In: Desel: Informatik, 2001. S. 117 - 134.

231

Kommunizierende Automaten Innis: Tendenzen, 1949 Harold A. Innis: Tendenzen der Kommunikation. Originaltitel: The Bias of Communication. In: Barck: Innis, 1997. S. 95 – 119. Innis: Zeit, 1950 Harold A. Innis: Ein Plädoyer für die Zeit. Originaltitel: A Plea for Time. In: Barck: Innis. 1997 . S. 120 - 146. jo: Bund, 2001 jo: Bund will Milliarden durch E-Commerce sparen. In: c't, 1999, Heft 20. S. 42. Joerges: Systeme, 1994 Joerges, Bernward und Ingo Braun: Große technische Systeme - erzählt, gedeutet, modelliert. In: Braun: Technik. 1994. S. 7 - 49. Johnson: Technologisierung, 1980 Johnson, Fred Grant: Der Computer und die Technologisierung des Inneren. In: Psyche. Zeitschrift für Psychoanalyse und ihre Anwendungen, 1980, Heft 61. S. 790 - 811. Kammer: Geschichte Digitalmedien, 2001 Kammer, , Manfred: Geschichte der Digitalmedien. In: Schanze, Helmut (Hrsg.): Handbuch der Mediengeschichte, 2001. S. 519 - 552. Keil-Slawik: Gedächtnis lernt laufen, 1994 Keil-Slawik, Reinhard: Das Gedächtnis lernt laufen - vom Kerbholz zur virtuellen Realität. In: Faßler, Manfred und Wulf R. Hallbach: Cyberspace, 1994. S. 207 - 294. Kempf: Real-Time, 1967 Kempf, Günther und Peter Beudelt: Real-Time und UNIVAC ein Begriff in der Datenverarbeitung. Teil 1: Die Real-TimeKonzeption. In: Die Lochkarte, 31. Jg., 1967, Heft 201. S. 14 26. Kerckhove: Text, 2007 Kerckhove, Derrick de: Text, Kontext, Hypertext. Drei Sprachzustände, drei Bewußtseinszustände. In: Bruns: Neue Medien, 2007. S. 212 - 218. Kilov: Preface, 1996 Kilov, Haim, Bernhard Rumpe und Ian Simmonds: Preface. In: Kilov, Haim et al.: Behavioral Specifications of Business and Systems. Boston, 1996. S. VII - XII. Kittler: Hardware, 1998 Kittler, Friedrich: Hardware, das unbekannte Wesen. In: Krämer: Medien, 1998. S. 119 - 132.

232

Literaturverzeichnis Kittler: Mode, 1999 Kittler, Friedrich: Protected Mode. In: Bolz: Computer, 1999. S. 209 - 220. Kittler: Schrift, 2002 Kittler, Friedrich: Schrift und Bild in Bewegung. In: Greber: Materialität, 2002. S. 17 - 29. Kittler: Zum Geleit, 1999 Kittler, Friedrich: Zum Geleit. In: Foucault, Michael: Botschaften der Macht. Hrsg. von Jan Engelmann. 1999. S. 7 - 9. Kling: Computers, 1996 Kling, Rob: Computers as Tools and Social Systems. The Car – Computer Analogy. In: Kling: Computerization, 1996. S. 16 21. Kling: Controversies, 1996 Kling, Rob: Social Controversiesabout Computerization. In: Kling: Computerization, 1996. S. 10 - 15. Kling: Heads, 1996 Kling, Rob: Heads-Up versus Heads-In Views of Computer Systems. In: Kling: Computerization, 1996. S. 2 - 3. Kling: Information, 1996 Kling, Rob: Information and Computer Scientists as Moral Philosophers and Social Analysts. In: Kling: Computerization, 1996. S.32 - 38. Kling: Learning, 1996 Kling, Rob: Learning about the Possible Futures of Computerization from the Present and the Past. In: Kling: Computerization, 1996. S. 26 - 31. Kling: Outlaws, 1996 Kling, Rob: Beyond Outlaws, Hackers, and Pirates. Ethical Issues in the Work of Informatin and Computer Science Professionals. In: Kling: Computerization, 1996. S. 848 - 867. Kling: Reader, 1996 Kling, Rob: A Reader´s Guide to Computerization and Controversy. In: Kling: Computerization, 1996. S. 4 - 9. Kling: Seductive, 1996 Kling, Rob: The Seductive Equation of Technological Progress with Social Progress. In: Kling: Computerization, 1996. S. 22 25. Kling: Systems, 1996 Kling, Rob: Systems Safety, Normal Accidents, and Social Vulnerability. In: Kling: Computerization, 1996. S. 746 -763.

233

Kommunizierende Automaten Klingberg: Datenerfassung, 1969 Klingberg, Günther: Datenerfassung auf Magnetband. In: IBM-Nachrichten. 19. Jg., 1969. S. 535 - 538 u. S. 628 - 634. Knilli: Medium, 1979 Knilli, Friedrich: Medium. In: Faulstich: Stichwörter, 1979. S. 230 - 251. Kober: Wittgenstein, 2006 Kober, Michael: Wittgensteins Überlegungen zur Handlungstheorie im Big Typescript. In: Majetschak: Wittgenstein, 2006. S. 179 - 202. Kolla: Lauschverbot, 2004 Kolla, Patrick M.: Lauschverbot. Spionageprogramme aufspüren und eliminieren. In: c't, 2004, Heft 23. S. 152 - 157. KR (eh): Erde, 31.12.2005 Kölnische Rundschau (eh): Die Erde geht nach. In: Kölnische Rundschau vom 31.12.2005. S. 3. KR map: Syndrom 2000, 29.03.1999 Kölnische Rundschau (map): „Syndrom 2000“ auch an Ampeln. Verkehrsrechner benötigen neue Software. In: Kölnische Rundschau vom 29.03.1999, Heft 74. Krämer: Computer, 1998 Krämer, Sybille: Was haben die Medien, der Computer und die Realität miteinander zu tun? Zur Einleitung in diesen Band. In: Krämer: Medien, 1998. S. 9 - 26. Krämer: Kittler, 2004 Krämer, Sybille: Friedrich Kittler. Kulturtechniken der Zeitachsenmanipulation. In: Lagaay: Medientheorien, 2004. S. 201 - 224. Krämer: Medium, 1998 Krämer, Sybille: Das Medium als Spur und als Apparat. In: Krämer: Medien, 1998. S. 73 - 94. Krämer: Operative, 1993 Krämer, Sybille: Operative Schriften als Geistestechnik. Zur Vorgeschichte der Informatik. In: Schefe: Informatik, 1993. Krämer: Schrift, 1997 Krämer, Sybille: Schrift und Episteme am Beispiel Descartes´. In: Koch: Schrift, 1997. S. 105 - 127. Krämer: Wende, 1992 Krämer, Sybille: Eine weitere kopernikanische Wende. Zur philosophischen Ortsbestimmung künstlicher Intelligenz. In: Cremers: Intelligenz, 1992. S. 28 - 37.

234

Literaturverzeichnis Kraus: Körper, 2004 Kraus, Elisabeth: Körper und Selbst in der Technokultur und als Themen des Techno-Imaginären. In: List: Kulturwissenschaften, 2004. S. 359 - 381. Krause: Button, 1991 Krause, Manfred: „You press the button, we do the rest“. Vom Abstellgleis zum Berufsfeld mit Zukunft. In: Hickethier: Medien, 1991. S. 459 - 461. Kreysler: Jäger, 2006 Kreysler, Peterr und Elise Fried: Von Jägern und digitalen Sammlern. Die neue Welt der elektronischen Überwachung. In: Deutschlandfunk, Feature vom 12.09.2006 . Köln 2006. Krempl: Casino-Prinzip, 2004 Krempl, Stefan: Das Casino-Prinzip. Warum so viele IT-Großprojekte scheitern. In: c't, 2004, Heft 23. S. 218 - 223. Kroß: Wittgenstein, 2006 Kroß, Matthias: Wittgensteins logisches Interesse an der Intention. In: Majetschak: Wittgenstein, 2006. S. 145 - 162. Krotz: Handlungstheorien, 2008 Krotz, Friedrich: Handlungstheorien und Symbolischer Interaktionismus als Grundlage kommunikationswissenschaftlicher Forschung. In: Winter: Theorien, 2008. S. 29 - 47. Krotz: Kommunikationswissenschaft, 2008 Winter, Carsten, Andreas Hepp und Friedriech Krotz: Einleitung: Theorien der Kommunikations- und Medienwissenschaft. In: Winter: Theorien, 2008. S. 9 - 25. Krummen: Wissen, 2004 Krummen, Eveline: Wissen und Gedächtnis. Entstehung und Folgen der Schriftkultur im antiken Griechenland. In: List: Kulturwissenschaften, 2004. S. 141 - 160. Kuhlins u.a.: Präsenz und Interaktion, 1999 Kuhlins, Stefan und Martin Schader: Präsenz und Interaktion im World Wide Web. In: Berghaus: Interaktive Medien, 1999. S. 195 - 203. Kuhn: Nicht zu vergessen: Mikrofilm, 2004 Kuhn, Frieder: Nicht zu vergessen: Mikrofilm. Ein Zwischenruf. In: Maier, Gerald u.a.: Kulturgut aus Archiven, 2004. S. 203 - 205. Kurzweil: Maschinen, 2000 Kurzweil, Ray und Jordan Mejias: Die Maschinen werden uns davon überzeugen, dass sie Menschen sind. Nur weil Europa die technologische Revolution verschläft, muss nicht die ganze

235

Kommunizierende Automaten Welt vor sich hin träumen / Ein Gespräch mit Ray Kurzweil. In: FAZ vom 05.07.2000. S. 51. Lauer: Winkler, 2004 Lauer, David: Hartmut Winkler. Die Dialektik der Medien. In: Lagaay: Medientheorien, 2004. S. 225 - 247. Leeker: Camouflagen, 2008 Leeker, Martina: Camouflagen des Computers. McLuhan und die Neo-Avantgarde der 1960er Jahre. In: Kerckhove: McLuhan, 2008. S. 345 - 375. Leibrock: Gauß, 1998 Leibrock, Gerhard: Hat der große Gauß geirrt? Das Schaltjahr 2000 und der Streit um die „Kalenderformel“. In: Computerwoche Spezial „Problem 2000“. Sonderheft vom 27.02.1998, Heft 1. S. 21 - 22. Lenders: BabelFish und Co., 2004 Lenders, Winfried: BabelFish und Co. In: Lenders, Winfried (Hrsg.): Medienwissenschaft, 2004. S. 201 - 223. Levi und Bodei: A Control Flow, 2004 Levi, Francesca und Chiara Bodei: A Control Flow Analysis for Safe and Boxed Ambients. In: Schmidt, David (Ed.): Programming Languages and Systems, 2004. S.188 - 203. Licklider: Man-Computer-Symbiosis, 1960 Licklider, J. C. R.: Man-Computer-Symbiosis. In: IRE Transactions on Human Factors in Electronics, 1960, Heft 1. S. 4 11. Lier: Tücken, 1998 Lier, Monika: Die Tücken der Technik: Das Jahr-2000-Problem. Kölnische Rück warnt vor grober Fahrlässigkeit. In: Versicherungswirtschaft, Jahrgang 53, 1998, Heft 12. S. 837 ff. Lipka: Alinei, 1989 Lipka, Leonhard: Aspects of Language. Studies in Honour of Mario Alinei. Vol. 2: Theoretical and Applied Semantics. Ed. by Roberto Crespo et al. In: Anglia. Zeitschrift für englische Philologie, 1989, Heft 107. S. 99 - 100. List: Institutionen, 2004 List, Elisabeth: Institutionen des Wissens. Zur Frage nach dem Ort der Kulturwissenschaften im Wissenshaushalt der Moderne. In: List: Kulturwissenschaften, 2004. S. 13 - 38. Loebbecke: Medienmanagement, 2006 Loebbecke, Claudia: Digitalisierung - Technologien und Unternehmensstrategien. In: Scholz: Medienmanagement, 2006. S. 357 - 374.

236

Literaturverzeichnis Lossau: Tickets, 2004 Lossau, Norbert: Tickets für die WM 2006 werden Mikrochips tragen. Elektronische Eitketten für Waren, Pässe, Bnaknoten oder Eintrittskarten - Auch die ersten Menschen werden schon gekennzeichnet. In: „Die Welt“ vom 31.08.2004. S.30. Loviscach: Zeitbombe, 1999 Loviscach, Jörn und Wolfgang Stieler: Zeitbombe. Das Jahr2000-Problem nimmt Gestalt an. In: c't, 1999, Heft 1. S. 60 65. Luhmann: Meinung, 1999 Luhmann, Niklas: Öffentliche Meinung und Demokratie. In: Maresch: Macht, 1999. S. 19 - 34. Lutterbeck: Informatik, 2004 Lutterbeck, Bernd: Informatik im Kontext. Eine Geschichte der Rechtsinformatik, erzählt von einem gelernten Juristen, der sein Brot als Informatiker verdient. Reihe: Workshop Grenzflächen der Informatik. Schloss Dagstuhl, 8. bis 12. November 2004. In: Lutterbeck. http://igw.tuwien.ac.at/peterf/iug1_ss/IuG1_V3.pd. 2004. Berlin, Technische Universität; Web: ig.cs.tu-berlin.de Mahrenholz: de Kerckhove, 2004 Mahrenholz, Simone: Derrick de Kerckhove. Medien als Infrastrukturen und Archetypen. In: Lagaay: Medientheorien, 2004. S. 69 - 96. Maresch: Kommuniktation, 1999 Maresch, Rudolf: Die Kommunikation der Kommunikation. In: Maresch: Macht, 1999. S. 265 - 298. Maresch: Vorwort, 1999 Maresch, Rudolf und Niels Werber: Vorwort. In: Maresch: Macht, 1999. S. 11 - 18. McAuley: Issues, 1994 McAuley, John: Exploring Issues in Culture and Competence. In: Human Relations, Ausgabe April (4), 1994, Heft 47. S. 417 - 430. McCarthy: Mathematical Science, 1963 McCarthy, John: Towards a Mathematical Science of Computation. In: C. M. Popplewell (Hrsg.): Proceedings IFIP Congress 62, 1963. S. 21 - 28. McLuhan: Geschlechtsorgan, 2001 McLuhan, Marshall: Geschlechtsorgan der Maschinen. In: McLuhan: Medium, 2001. S. 169 - 244.

237

Kommunizierende Automaten McLuhan: Nichts Altes, 2001 McLuhan, Marshall: Nichts Altes unter der Sonne. In: McLuhan: Medium, 2001. S. 129 - 168. McLuhan: Testen, 2001 McLuhan, Marshall: Testen bis die Schlösser nachgeben. Gespräch mit Gerald Emanuel Stearn. In: McLuhan: Medium, 2001. S. 55 - 107. Menzel: Geschichte, 2001 Menzel, Wolfgang: Computerlinguistik - Was ist das? Zur Geschichte der Computerlinguisitik. In: Carstensen: Computerlinguistik, 2001. S. 1 - 9. Mersch: Medienteleologismus, 2008 Mersch, Dieter: Kritik des Medienteleologismus. McLuhan, Flusser und Hegel. In: Kerckhove: McLuhan, 2008. S. 196 209. Neumann: Risks, 1996 Neumann, Peter G.: Risks of Technology. In: Kling: Computerization, 1996. S. 844 - 846. Noack: Softwaredokumentation, 1991 Noack, Claus: Softwaredokumentation im Wandel. In: Hickethier: Medien, 1991. S. 469 - 479. Noble: Beziehungen, 1986 Noble, David F.: Maschinenstürmer. oder Die komplizierten Beziehungen der Menschen zu ihren Maschinen. Originaltitel: Automation: Progress without People. In: Noble: Maschinenstürmer, 1986. S. 6 -97. Noble: Entwicklung, 1986 Noble, David. F.: Die Entwicklung numerisch gesteuerter Maschinen. Originaltitel: Social Choice in Machine Design: The Case of Automatically-Controlled Machine Tools (1979). In: Noble: Maschinenstürmer, 1986. S. 98-136. Odell: Agents, 1996 Odell, J. James: Agents: Between Order and Chaos. In: Kilov, Haim et al.: Behavioral Specifications of Business and Systems. Boston, 1996. S. 189 - 193. Oeser: Informationsbegriff, 1986 Oeser, Erhard: Der Informationsbegriff in der Philosophie und in der Wissenschaftstheorie. In: Folberth: Informationsbegriff, 1986. S. 231 - 256. Oesterreicher: Textzentrierung, 1998 Oesterreicher, Wulf: Textzentrierung und Rekontextualisierung. Zwei Grundprobleme der diachronischen Sprach- und Textforschung. In: Ehler: Verschriftung, 1998. S. 10 - 39.

238

Literaturverzeichnis Pereira: Tanz, 2002 Pereira, Nancy Cardoso: Der bewegungslose Tanz. Körper und Bibel in Lateinamerika. In: concilium. Internationale Zeitschrift für Theologie. April 2002, Heft 2. S. 178 - 186. Pflüger: Sprachbau, 1999 Pflüger, Jörg: Über die Verschiedenheit des maschinellen Sprachbaues. In: Bolz: Computer, 1999. S. 161 - 181. Pias: Elektronenhirn, 2004 Pias, Claus: Elektronenhirn und verbotene Zone. Zur kybernetischen Ökonomie des Digitalen. In: Schröter: analog/digital, 2004. S. 295 - 309. Pias: Kybernetische Illusion, 2002 Pias, Claus: Die kybernetische Illusion. In: Liebrand: Medien, 2002. S. 51 - 66. Pias: Unruhe, 2004 Pias, Claus: Unruhe und Steuerung. Zum utopischen Potential der Kybernetik. In: Rüsen: Unruhe, 2004. S. 301 - 325. Pias: Welt, 2008 Pias, Claus: Die Welt als Schmoo. Computer mit, nach und neben McLuhan. In: Kerckhove: McLuhan, 2008. S. 140 157. Pohlenz: Sprachlehre, 1939 Pohlenz, Max: Die Begründung der abendländischen Sprachlehre aus der Stoa. Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen. S. 151 - 198. Poser: Zeichentheorie, 1997 Poser, Hans: Zeichentheorie und natürliche Sprache bei Leibniz. In: Koch: Schrift, 1997. S. 127 - 147. Puhl: Kultur, 2004 Puhl, Klaus: Kultur als Struktur oder Differenz: Strukturalismus und Poststrukturalismus. In: List: Kulturwissenschaften, 2004. S. 119 - 139. Raible: Text, 1983 Raible, Wolfgang: Vom Text und seinen vielen Vätern oder: Hermeneutik als Korrelat der Schriftkultur. In: Assmann: Gedächtnis, 1983. S. 20 - 24. Rheingold: Alltag, 1994 Rheingold, Howard: Der Alltag in meiner virtuellen Gemeinschaft. In: Faßler, Manfred und Wulf R. Hallbach: Cyberspace, 1994. S. 95 - 121.

239

Kommunizierende Automaten Richter: Maschinendenken, 1996 Richter, Rainer: Maschinendenken und Denkmaschinen. In: Zeitschrif für Didaktik der Philosophie und Ethik, 1996, Heft 18. S. 124 - 128. Rohbeck: Kapp, 1996 Rohbeck, Johannes: Ernst Kapp: Philosophie der Technik. In: Zeitschrif für Didaktik der Philosophie und Ethik, 1996, Heft 18. S. 129 - 134. Rötzer: Internet, 2005 Rötzer, Florian: Wem gehört das Internet? In: Telepolis Artikel-URL: http://www.telepolis.de/r4/artikel/21/21192/1.html. 2005 Telepolis Artikel-URL: http://www.telepolis.de/r4/artikel/21/21192/1.html Rötzer: Körper, 1998 Rötzer, Florian: Vom zweiten und dritten Körper oder: Wie wäre es, eine Fledermaus zu sein oder einen Fernling zu bewohnen? Ein Essay. In: Krämer: Medien, 1998. S. 152 168. Rötzer: Mediales, 1991 Rötzer, Florian: Mediales und Digitales. Zerstreute Bemerkungen und Hinweise eines irritierten informationsverarbeitenden Systems. In: Rötzer: Schein, 1991. S. 9 - 80. Rötzer: Mobilität, 2002 Rötzer, Florian: Mobilität und Seßhaftigkeit. In: Kemper: Globalisierung, 2002. S. 26 - 33. Rowan: Privacy, 2003 Rowan, David: Privacy campaigner targets ‚spy tags‘ at M[arks] & S[pencer]. In: The Times vom 26.08.2003. S. 5. Sandbothe: Ethik, 1996 Sandbothe, Mike: Medienethik im Zeitalter des Internet. In: http://www.sandbothe.net/32.html, 1996. (Zugriff Mai 2005) Sandbothe: Wende, 2000 Sandbothe, Mike: Die pragmatische Wende des linguistic turn. In: Sandbothe: Renaissance, 2000. S. 116 ff. Sassen: Digitale, 2002 Sassen, Saskia: Digitale Netzwerke und Macht. In: Kemper: Globalisierung, 2002. S. 102 - 113. Sassenberg: Räumlich getrennt, 2000 Sassenberg, Kai: Räumlich getrennt gemeinsam entscheiden. In: Boos: Kommunikation, 2000. S. 103 - 114. Schachtschabel: Aotomation, 1966 Schachtschabel, Hans Georg: Sozioökonomische Konsequenzen der Automation. In: Frank: Kybernetik, 1966.

240

Literaturverzeichnis Schanze: Apriori, 2004 Schanze, Helmut: Gibt es ein digitales Apriori? In: Schröter: analog/digital, 2004. S. 67 - 79. Schäpers: Amadeus, Ariane, 2004 Schäpers, Arne: Amadeus, Ariane, Aristoteles, Altona. Was Softwaretechnik leisten kann - und was nicht. In: c't, 2004, Heft 23. S. 224 - 227. Schenkel: Ägypter, 1983 Schenkel, Wolfgang: Wozu die Ägypter eine Schrift brauchten. In: Assmann: Gedächtnis, 1983. S. 45 - 63. Schmidt: Medienwissenschaft, 2002 Schmidt, Siegfiried J.: Medienwissenschaft und Nachbardisziplinen. In: Rusch: Medienwissenschaft, 2002. S. 53 - 68. Schmidt: Technik, 1999 Schmidt, Siegfried J.: Technik - Medien - Politik. Die Erwartbarkeit des Unerwarteten. In: Maresch: Macht, 1999. S. 108 132. Schmitz: Kollaps, 1998 Schmitz, Ludger: Kurz vor dem Kollaps. Zahlenfresser auf Nulldiät. Keine industrielle Gesellschaft funktioniert mehr ohne Computer - obwohl die oftmals nicht einmal zwischen Jahrhunderten unterscheiden können. In: Computerwoche Spezial „Problem 2000“. Sonderheft vom 27.02.1998. S. 8 10. Schnabel: Jahr-2000, 1998 Schnabel, Willfried: Das Jahr-2000-Problem in der Sachversicherung. Ein reales Problem von Industrie und Dienstleistung. In: Versicherungswirtschaft, Jahrgang 53, 1998, Heft 17. S. 1198 ff. Schröter: Ende, 2004 Schröter, Jens: Das Ende der Welt. Analoge vs. digitale Bilder - mehr und weniger ‚Realität‘? In: Schröter: analog/digital, 2004. S. 335 - 354. Schröter: Heiß/Kalt, 2008 Schröter, Jens: Von Heiß/Kalt zu Analog/Digital. Die Automation als Grenze von McLuhans Medienanthropologie. In: Kerckhove: McLuhan, 2008. S. 304 - 320. Schröter: Opposition, 2004 Schröter, Jens: Analog/Digital - Oppostion oder Kontinuum. In: Schröter: analog/digital, 2004. S. 7 - 25.

241

Kommunizierende Automaten Schultz: McLuhan, 2004 Schultz, Oliver Lerone: Marshall McLuhan. Medien als Infrastrukturen und Archetypen. In: Lagaay: Medientheorien, 2004. S. 31 - 68. Schulzki-Haddouti: Rohrpost, 1999 Schulzki-Haddouti, Christiane: Internet statt Rohrpost. BDI Präsident Hans-Olaf Henkel zu Entwinklungen in der Informationsgesellschaft. In: c't, 1999, Heft 15. S. 38 - 39. Schuon: Electronic, 1995 Schuon, Marshall: An Electronic Shepherd to Guide the Sheepishly Lost. Driving Smart. In: New York Times vom 24.12.1995. AU1. Serres: Mensch, 2007 Serres, Michel: Der Mensch ohne Fähgkeiten. Die Neuen Technologien und die Ökonomie des Vergessens. In: Bruns: Neue Medien, 2007. S. 76 - 87. Shannon: Chiffriersysteme, 2000 Shannon, Claude E.: Die mathematische Kommunikation der Chiffriersysteme. In: Shannon: Ein - Aus, 2000. S. 101 - 175. Shannon: Maschine, 2000 Shannon, Claude E. und Edward F. Moore: Eine Maschine, die beim Entwurf von Schaltkreisen behilfich ist. In: Shannon: Ein - Aus, 2000. S. 299 - 310. Shannon: Theorie, 2000 Shannon, Claude E.: Eine Mathematische Theorie der Kommunikation. A Mathematical Theory of Communication. In: Shannon: Ein - Aus, 2000. S. 7 - 100. Siering: Aufgeweckt, 1999 Siering, Peter: Aufgeweckt. Jahr 2000 & PCs: Vor der RTC zum Betriebssystem. In: c't, 1999, Heft 1. S. 66 - 69. Siering: Bermuda, 1999 Siering, Peter: Bermuda 2000. Mit dem PC sicher ins Jahr 2000. In: c't, 1999, Heft 23. S. 118 - 128. Siering: Durchgecheckt, 1999 Siering, Peter: Durchgecheckt. PC-Anwendungssoftware und das Jahr 2000. In: c't, 1999, Heft 1. S. 70 - 74. Siering: Zeitreisen, 1999 Siering, Peter: Zeitreisen auf Probe. PC-Testsoftware für das Jahr 2000. In: c't, 1999, Heft 16. S. 116 - 119. Simon: Zeichenerklärungen, 2006 Simon, Josef: Zeichenerklärungen. Zeichen und Bedeutung in Wittgensteins Big Typescript. In: Majetschak: Wittgenstein, 2006. S. 115 - 128.

242

Literaturverzeichnis Smith: Critics, 1971 Smith, William D.: Critics Mark 25th Year of the Computer. In: New York Times vom 04.08.1971. S. 43. Smith: Future, 1971 Smith, William D.: Future of the Computer Is Assesed. In: New York Times vom 05.08.1971. S. 45. Smith: IBM, 1972 Smith, William D.: How Big Is Too Big? Size of I.B.M: Raises Problems For Trust Busters. In: New York Times vom 13.02.1972. F1. Spielmann: Intermedialität, 1995 Spielmann, Yvonne: Intermedialität als symbolische Form. In: Ästhetik & Kommunikation: Epochenschwelle? 1995, Heft 88. S. 112 - 117. Spreen: Cyborg, 1997 Spreen, Dierk: Was ver-spricht der Cyborg? In: Ästhetik & Kommunikation: Medien an der Epochenschwelle, 1987, Heft 96. S. 86–94. Steinmüller: Zwangsanschluß, 1985 Steinmüller, Wilhelm: Zwangsanschluß ans Informationsnetz der Zukunft - mit „Neuen Medien“. In: Prokop: Wünsche, 1985. S. 419 - 438. Stephens: Haussler, 2005 Stephens, Tim: Professor David Haussler to receive Carnegie Mellon's Dickson Prize. In: UC Santa Cruz Currents online (http://currents.ucsc.edu/05-06/09-26/haussler.asp). Artikel vom 26.09.2005. Stetter: Grammatik, 2006 Stetter, Christian: Der Begriff der Grammatik in Wittgensteins Big Typescript. In: Majetschak: Wittgenstein, 2006. S. 99 114. Stieler: Datumswechsel, 1999 Stieler, Wolfgang und Holger Bleich: Fit für den Datumswechsel? Bundesregierung sieht Deutschland für den Jahreswechsel gerüstet. In: c't, 1999, Heft 25. S. 17. Stieler: Silvester, 1999 Stieler, Wolfgang: Warten auf Silvester. Das Jah-2000-Problem als Glücksspiel. In: c't, 1999, Heft 23. S. 114 - 1117. Ströber: Innovation, 2008 Ströber, Rudolf: Innovation und Evolution: Wie erklärt sich medialer und kommunikativer Wandel? In: Winter: Theorien, 2008. S. 139 - 156.

243

Kommunizierende Automaten Strohner: Information, 1990 Strohner, Hans: Information, Wissen und Bedeutung. Eine Analyse systemischer Strukturen sprachlicher Kommunikation. In: Weingarten: Information. 1990. S. 209 - 226. Studer: Methoden, 2001 Studer, Rudi und Steffen Staab: Intelligente (symbolische) Methoden für das Wissensmanagement. In: Management von nichtexplizitem Wissen, 2001. S. 166 - 190. Tholen: Platzverweis, 1999 Tholen, Georg Christoph: Platzverweis. Unmögliche Zwischenspiele von Mensch und Maschine. In: Bolz: Computer, 1999. S. 111 - 135. Tichy: Computer, 1996 Tichy, Matthias: Wer hat Angst vor dem Computer? In: Zeitschrift für Didaktik der Philosophie und Ethik, 1996, Heft 18. S. 115 - 123. Tribe: Verfassung im Cyberspace, 1994 Tribe, Laurence H.: Die Verfassung im Cyberspace: Gesetz und Freiheit jenseits der elektronischen Grenze. In: Faßler, Manfred und Wulf R. Hallbach: Cyberspace, 1994. S. 153 - 175. Turing: On computable numbers, 1937 Turing, Alan M.: On computable numbers, with an application to the Entscheidungsproblem. In: Proceedings of the London Math. Soc., 1937, Heft 42. S. 230 - 265. Turkle: Ich, 2007 Turkle, Sherry: Ich bin Wir? In: Bruns: Neue Medien, 2007. S. 505 - 523. Ulrich: Kommunikation im pharmazeutischen Außendienst, 2000 Ulrich, Olaf: Kommunikation im pharmazeutischen Außendienst: Ein Praxisbericht. In: Boos: Kommunikation, 2000. S. 175 - 181. Vief: Geld, 1991 Vief, Bernhard: Digitales Geld. In: Rötzer: Schein, 1991. S. 117 - 146. Walther: Beziehungsdynamik, 2000 Walther, Joseph B.: Die Beziehungsdynamik in virtuellen Teams. In: Boos: Kommunikation, 2000. S. 11 - 25. WDR: Barrierefrei, 2004 WDR: Der richtige Klick für NRW. wdr.de weitgehend barrierefrei. www.wdr.de (Zugriff am 6.12.2004).

244

Literaturverzeichnis Weber: Informatiker, 2001 Weber, Herbert: Sind Informatiker auch gute Software-Ingenieure? In: Desel: Informatik, 2001. S. 67 - 74. Weber: Rolle der Archive, 2004 Weber, Hartmut: Die Rolle der Archive in Electronic-Government-Konzepten. In: Maier, Gerald u.a.: Kulturgut aus Archiven, 2004. S. 17 - 23. Weichert: Krisen, 2008 Weichert, Stephan Alexander: Krisen als Medienereignisse: Zur Ritualisierung mediatisierter Kommunikation im Fernsehen. In: Winter: Theorien, 2008. S.311 - 328. Weingarten: Kommunikation, 1990 Weingarten, Rüdiger: Information ohne Kommunikation? In: Weingarten: Information. 1990. S. 7 - 17. Weingarten: Schriftenmuseum, 2002 Weingarten, Rüdiger: Der Computer als Schriftenmuseum. Latinisierung von Schriften durch computertechnische Zwänge? In: Greber: Materialität, 2002. S. 165 - 182. Weingarten: Selbstreferenz, 1990 Weingarten, Rüdiger: Selbstreferenz und Begründung. Die unverständliche Faszination des Computers. In: Weingarten: Information. 1990. S. 129 - 149. Weinzenbaum: ELIZA, 1966 Weizenbaum, Joseph: ELIZA: A Computer Program for the Study of Natural Language Communication between Man and Machine. In: Communications of the ACM, 1966, Heft 9. S. 36-45. Weizenbaum: Sprache, 2002 Weizenbaum, Joseph: Die Sprache des Lernens. In: Kemper: Globalisierung, 2002. S 95 - 101. Werber: Unterlaufen, 2004 Werber, Niels: Vom Unterlaufen der Sinne. Digitalisierung als Codierung. In: Schröter: Analog, 2004. S. 81 - 97. Werber: Unterlaufen, 2004 Werber, Niels: Vom Unterlaufen der Sinne. Digitalisierung als Codierung. In: Schröter: analog/digital, 2004. S. 81 - 96. Wiegerling: Leib, 2002 Wiegerling, Klaus: Der überflüssige Leib. Utopien der Informations- und Kommunikationstechnologien. In: concilium. Internationale Zeitschrift für Theologie. April 2002, Heft 2. S. 124 - 133.

245

Kommunizierende Automaten Wieringa: Embedding, 1996 Wieringa, R. J.: Embedding Object-Oriented Design in System Engeneering. In: Kilov, Haim et al.: Behavioral Specifications of Business and Systems. Boston, 1996. S. 287 - 310. Wollner: Haftungsrisiko, 1998 Wollner, Karola und Dr. Carsten Oermann: Das „Jahr-2000Problem“ als Haftungsrisiko von Management und Aufsichtsrat. In: Versicherungswirtschaft, Jahrgang 53, 1998, Heft 9. S. 609 ff. Wunderlich: Panopticum, 1999 Wunderlich, Stefan: Vom digitalen Panopticum zur elektronischen Heterotopie. Foucaultsche Topographien der Macht. In: Maresch: Macht, 1999. S. 342 - 367. Zemanek: Information, 1986 Zemanek, Heinz: Information und Ingenieurwissenschaft. In: Folberth: Informationsbegriff, 1986. S. 17 - 52. Zemanek: Informationsverarbeitung, 1987 Zemanek, Heinz: Informationsverarbeitung und die Geisteswissenschaften. Sonderdruck aus dem Anzeiger der phil.-hist. Klasse der Österreichischen Akademie der Wissenschaften, 124 Jg., 1987. So. 12. In: Sonderdruck aus dem Anzeiger der phil.-hist. Klasse der Österreichischen Akademie der Wissenschaften, 124 Jg., 1987, Heft 124. S. 199 - 225. Zemanek: Philosophie, 1973 Zemaneck, Heinz: Philosophie und Informationsverarbeitung. In: Nachrichentechnische Zeitschrift NTZ, Jahrgang 26, 1973, Heft 8. S. 384 - 389. Ziemann: Kommunikationstheorie, 2008 Ziemann, Andreas: Kommunikationstheorie als Gesellschaftstheorie und mediale Konstruktion. In: Winter: Theorien, 2008. S. 157 - 171.

246

ZfK – Zeitschrift für Kulturwissenschaften

Sebastian Gießmann, Ulrike Brunotte, Franz Mauelshagen, Hartmut Böhme, Christoph Wulf (Hg.)

Politische Ökologie Zeitschrift für Kulturwissenschaften, Heft 2/2009 Oktober 2009, 158 Seiten, kart., 8,50 €, ISBN 978-3-8376-1190-8 ISSN 9783-9331

ZfK – Zeitschrift für Kulturwissenschaften Der Befund zu aktuellen Konzepten kulturwissenschaftlicher Analyse und Synthese ist ambivalent: Neben innovativen und qualitativ hochwertigen Ansätzen besonders jüngerer Forscher und Forscherinnen steht eine Masse oberflächlicher Antragsprosa und zeitgeistiger Wissensproduktion – zugleich ist das Werk einer ganzen Generation interdisziplinärer Pioniere noch wenig erschlossen. In dieser Situation soll die Zeitschrift für Kulturwissenschaften eine Plattform für Diskussion und Kontroverse über Kultur und die Kulturwissenschaften bieten. Die Gegenwart braucht mehr denn je reflektierte Kultur, historisch situiertes und sozial verantwortetes Wissen. Aus den Einzelwissenschaften heraus kann so mit klugen interdisziplinären Forschungsansätzen fruchtbar über die Rolle von Geschichte und Gedächtnis, von Erneuerung und Verstetigung, von Selbststeuerung und ökonomischer Umwälzung im Bereich der Kulturproduktion und der naturwissenschaftlichen Produktion von Wissen diskutiert werden. Die Zeitschrift für Kulturwissenschaften lässt gerade auch jüngere Wissenschaftler und Wissenschaftlerinnen zu Wort kommen, die aktuelle fächerübergreifende Ansätze entwickeln.

Lust auf mehr? Die Zeitschrift für Kulturwissenschaften erscheint zweimal jährlich in Themenheften. Bisher liegen die Ausgaben Fremde Dinge (1/2007), Filmwissenschaft als Kulturwissenschaft (2/2007), Kreativität. Eine Rückrufaktion (1/2008), Räume (2/2008), Sehnsucht nach Evidenz (1/2009) und Politische Ökologie (2/2009) vor. Die Zeitschrift für Kulturwissenschaften kann auch im Abonnement für den Preis von 8,50 € je Ausgabe bezogen werden. Bestellung per E-Mail unter: [email protected] www.transcript-verlag.de

Kultur- und Medientheorie Erika Fischer-Lichte, Kristiane Hasselmann, Alma-Elisa Kittner (Hg.) Kampf der Künste! Kultur im Zeichen von Medienkonkurrenz und Eventstrategien März 2010, ca. 300 Seiten, kart., zahlr. Abb., ca. 28,80 €, ISBN 978-3-89942-873-5

Barbara Gronau, Alice Lagaay (Hg.) Ökonomien der Zurückhaltung Kulturelles Handeln zwischen Askese und Restriktion März 2010, ca. 350 Seiten, kart., zahlr. Abb., ca. 32,80 €, ISBN 978-3-8376-1260-8

Jürgen Hasse Unbedachtes Wohnen Lebensformen an verdeckten Rändern der Gesellschaft Juni 2009, 254 Seiten, kart., zahlr. Abb., 24,80 €, ISBN 978-3-8376-1005-5

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-10-29 12-04-44 --- Projekt: transcript.anzeigen / Dokument: FAX ID 031b224715103254|(S.

1-

3) ANZ1335.p 224715103262

Kultur- und Medientheorie Thomas Hecken Pop Geschichte eines Konzepts 1955-2009 September 2009, 568 Seiten, kart., 35,80 €, ISBN 978-3-89942-982-4

Christian Kassung (Hg.) Die Unordnung der Dinge Eine Wissens- und Mediengeschichte des Unfalls Juni 2009, 476 Seiten, kart., zahlr. z.T. farb. Abb., 29,80 €, ISBN 978-3-89942-721-9

Karlheinz Wöhler, Andreas Pott, Vera Denzer (Hg.) Tourismusräume Zur soziokulturellen Konstruktion eines globalen Phänomens Februar 2010, ca. 330 Seiten, kart., ca. 29,80 €, ISBN 978-3-8376-1194-6

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-10-29 12-04-44 --- Projekt: transcript.anzeigen / Dokument: FAX ID 031b224715103254|(S.

1-

3) ANZ1335.p 224715103262

Kultur- und Medientheorie Cristian Alvarado Leyton, Philipp Erchinger (Hg.) Identität und Unterschied Zur Theorie von Kultur, Differenz und Transdifferenz

Kristiane Hasselmann Die Rituale der Freimaurer Zur Konstitution eines bürgerlichen Habitus im England des 18. Jahrhunderts

Dezember 2009, ca. 450 Seiten, kart., ca. 32,80 €, ISBN 978-3-8376-1182-3

Januar 2009, 376 Seiten, kart., zahlr. z.T. farb. Abb., 29,80 €, ISBN 978-3-89942-803-2

Moritz Csáky, Christoph Leitgeb (Hg.) Kommunikation – Gedächtnis – Raum Kulturwissenschaften nach dem »Spatial Turn«

Rebekka Ladewig, Annette Vowinckel (Hg.) Am Ball der Zeit Fußball als Ereignis und Faszinosum

Februar 2009, 176 Seiten, kart., 18,80 €, ISBN 978-3-8376-1120-5

Stephan Ditschke, Katerina Kroucheva, Daniel Stein (Hg.) Comics Zur Geschichte und Theorie eines populärkulturellen Mediums August 2009, 366 Seiten, kart., zahlr. Abb., 29,80 €, ISBN 978-3-8376-1119-9

Gunther Gebhard, Oliver Geisler, Steffen Schröter (Hg.) Von Monstern und Menschen Begegnungen der anderen Art in kulturwissenschaftlicher Perspektive Dezember 2009, 258 Seiten, kart., zahlr. Abb., 26,80 €, ISBN 978-3-8376-1235-6

Insa Härtel Symbolische Ordnungen umschreiben Autorität, Autorschaft und Handlungsmacht

Juli 2009, 190 Seiten, kart., 20,80 €, ISBN 978-3-8376-1280-6

Susanne Regener Visuelle Gewalt Menschenbilder aus der Psychiatrie des 20. Jahrhunderts Februar 2010, ca. 220 Seiten, kart., zahlr. Abb., ca. 25,80 €, ISBN 978-3-89942-420-1

Sacha Szabo (Hg.) Kultur des Vergnügens Kirmes und Freizeitparks – Schausteller und Fahrgeschäfte. Facetten nicht-alltäglicher Orte Oktober 2009, 334 Seiten, kart., zahlr. Abb., 29,80 €, ISBN 978-3-8376-1070-3

Wladimir Velminski (Hg.) Sendungen Mediale Konturen zwischen Botschaft und Fernsicht August 2009, 376 Seiten, kart., zahlr. z.T. farb. Abb., 29,80 €, ISBN 978-3-8376-1113-7

April 2009, 326 Seiten, kart., 32,80 €, ISBN 978-3-8376-1042-0

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-10-29 12-04-45 --- Projekt: transcript.anzeigen / Dokument: FAX ID 031b224715103254|(S.

1-

3) ANZ1335.p 224715103262