227 85 8MB
German Pages 368 Year 2013
Thinking Design
Board of International Research in Design, BIRD
Mitglieder: Michael Erlhoff Wolfgang Jonas Gesche Joost Claudia Mareis Ralf Michel
Advisory Board: Gui Bonsiepe Nigel Cross Alain Findeli Kun-Pyo Lee John Maeda Shutaro Mukai Pieter Jan Stappers Susann Vihma
Horst W. J. Rittel
Thinking Design Transdisziplinäre Konzepte für Planer und Entwerfer
Neu herausgegeben von Wolf D. Reuter und Wolfgang Jonas
Birkhäuser Basel
Inhaltsverzeichnis Vorwort zur Neuauflage
006
Kurzbiographie Horst W. J. Rittel
009
Einleitung 011
Zur Theoriebildung Dilemmas in einer allgemeinen Theorie der Planung
020
mit Melvin M. Webber
Zur Planungskrise: Systemanalyse der « e rsten und zweiten Generation »
039
Was ist « d as System » ?
058
Prozeß und Methodik Systematik des Planens
062
Der Planungsprozeß als iterativer Vorgang von Varietätserzeugung und Varietätseinschränkung 071 Über das Messen der Güte von Gebäuden
087
mit Arne Musso
Urteilsbildung und U rteilsrechtfertigung
104
Die Denkweise von Planern und Entwerfern 123
Information für Planen, Entwurf, Design Der Ansatz der I nformationsw issenschaften
138
mit Werner Kunz
Issues als Elemente von I nformationssystemen 147 mit Werner Kunz
004 THINKING DESIGN
Struktur und Nützlichkeit von Planungsinformationssystemen
154
Planungsinformationssysteme 165 mit Werner Kunz und Wolf D. Reuter
Woher weiß man, wer was weiß: Zur Entwicklung von K ommunikationskrücken 176 mit Werner Kunz
Architekten und Computer
185
Planung und Politik Instrumentelles Wissen in der Politik
198
Zur wissenschaftlichen und politischen Bedeutung der E ntscheidungstheorie
216
Sachzwänge – Ausreden für Entscheidungsmüde? 240
Spezielle Probleme Zukunftsorientierte Raumordnung
252
Die Entwicklung der Technik – K onsequenzen für Bildung und W issenschaft
275
Gesellschaftliche Alternativen im Berufsverkehr
297
Energie wird rar? Sachzwänge oder Der Krieg um die Köpfe
321
Ausgewählte Bibliographie
350
Anhang
Index 355 Autorenverzeichnis 363
INHALTSVERZEICHNIS 005
Vorwort zur Neuauflage Im Jahr 1992 hat Wolf D. Reuter in einem Sammelband die wichtigsten Schriften von Horst Rittel herausgegeben. Die Vorauswahl der Texte, adressiert an Planer, Architekten und Designer, konnte er noch gemeinsam mit dem Autor vornehmen, bevor dieser im Juli 1990 gestorben ist. Diese Auflage ist schon lange vergriffen. Rittels Gedanken tauchen heute aus gutem Grund wieder häufig im internationalen Designdiskurs auf. Zumeist wird er mit den wicked problems assoziiert, jenen im sozialen Kontext sich so bösartig gegen ingenieurhafte Zähmung sträubenden Problemen, von denen einige dennoch hoffen, dass sie durch zunehmende Verwissenschaftlichung des Entwerfens zu domestizieren seien. Dass hinter der wickedness mehr und Grundlegenderes steckt, bleibt in den meist schlagwortartigen und indirekten Referenzen oft verborgen. Die Neuauflage soll die hochaktuellen Quellen wieder verfügbar machen. Sie demonstrieren, dass einige der aktuellen Diskussionen – etwa zum Design Thinking – von Rittels Reflexionsniveau noch immer profitieren können. Insbesondere erweisen sich die Texte als hilfreich zur Formulierung und Begründung einer eigenen Forschungspraxis des Designs. Einige seiner relevanten Überlegungen seien exemplarisch genannt: Das Design Thinking, welches häufig als universelle Methode für alle Arten der Simon’schen « Sciences of the Artificial » präsentiert wird, wurde von Rittel weitgehend vorgedacht. Er präsentiert zum einen den kognitiven Kernprozess mit der iterativ lernenden, wiederholten Erzeugung und Reduktion von Varietät, eingebettet in einen orga nisatorischen Rahmen, in dem sich Entwerfen als interaktiver Prozess des kreativen Wissensmanagements darstellt. Seine « Issue-Based Information Systems » verweisen auf die heutigen kollaborativen Verfahren des Argument-, Dialogue-, Mind- und ConceptMapping. Darüber hinaus bespricht er die grundlegenden Dilemmata und Paradoxien und damit die speziellen Probleme des Entwerfens, des Design Thinking und der Design forschung. Rittel befreit das Systemdesign aus den Beschränkungen des Operations Research, des Systems Engineering und der Kybernetik 1. Ordnung. Das abrupte Ende des Design Methods Movement der 1960er Jahre zeigt dessen Ferne zur Realität des Denkens im Design. Rittels Systems Thinking der zweiten Generation beschreibt den Entwurfsprozess als ein soziales Verhandlungssystem unter Stakeholdern; entsprechend ändern sich die Methoden und die wickedness tritt auf. Das Kasseler Systemdesign von Helmut Krauch, dem Kollegen Rittels in der Heidelberger Gruppe für Systemforschung, kann als designorientierte Umsetzung der Ansätze Rittels gelten. Rittel kann auch als Vordenker des aktuellen Social Transformation Design ange sehen werden, ohne dabei der Sozialromantik und Sozialarbeiterattitüde engagierter Designer zu verfallen. Letztere neigen dazu, die methodischen Ansätze des individuali sierten Human-centered Design unkritisch auf soziale Probleme zu übertragen und damit eher die Symptome anstelle der Ursachen anzugehen. Rittel gelingt es, die deskriptiven
006 THINKING DESIGN
und die normativen Aspekte des Sozialen zu unterscheiden. Die grundsätzliche Frage der Integration von Fakten und Werten im Sinne einer Epistemic Democracy ist gerade im sozialen Kontext nicht trivial. Was ist sozial erstrebenswert? Wer redet mit? Wie orga nisieren wir den Prozess? etc. Eine noch so gut gemeinte moralische Haltung reicht nicht aus. Transdisziplinarität ist eng mit dem Konzept der mode-2 Wissenschaft verbunden, einer problemorientierten, kontextgetriebenen, disziplinübergreifenden, g esellschaftlich relevanten und rechenschaftspflichtigen Form der Wissensproduktion. Nicolescus drei Axiome der Transdisziplinarität sind Rittels Gedanken kongenial: (1) Ontologisch: In der Natur und Gesellschaft und in unserem Wissen darüber gibt es unterschiedliche Wirklichkeitsebenen des Subjekts und des Objekts. (2) Logisch: Der Übergang von e iner Wirklichkeitsebene zu einer anderen wird durch die Logik des eingeschlossenen Dritten sichergestellt. (3) Epistemologisch: Die Struktur der Gesamtheit der Wirklichkeitsebenen ist komplex; jede Ebene wird durch die gleichzeitige Existenz aller anderen bestimmt. Eine « offene » Transdisziplinarität integriert heterogene Wissenskulturen: individuelles Wissen, lokales Community-Wissen, Expertenwissen, organisatorisches und ganzheitliches Wissen. Man kann behaupten, dass Rittel sowohl die mode-2 Wissenschaft als auch das Konzept der Transdisziplinarität avant la lettre formuliert hat. Rittel trägt zur Klärung von Designforschung bei. Diese liegt quer zur wissenschaft lichen Disziplinenbildung der Moderne und ist bestrebt, disparate Wissensbereiche in einen Zusammenhang zu bringen und auf die Praxis zu beziehen. Designforschung ist nur Designforschung, wenn die Vielfalt der Perspektiven, die Ungewissheit der Prognosen und die Involviertheit der Stakeholder als konstitutiv gelten. Designforschung meint, die notwendige Verquickung von Fakten und Werten zu reflektieren und einzusehen, dass Werte nicht aus Fakten abzuleiten sind. Rittel hätte wohl nicht widersprochen, wissenschaftliche Forschung in Glanvilles Sinn als eine spezifische Unterkategorie des Entwerfens zu betrachten. Ich schätze Rittel als sokratischen und rortyschen Ironiker. Ich weiß als Entwerfer, dass ich über die Situation und über ihre mögliche Entwicklung verhältnismäßig wenig weiß. Das, was ich weiß, kann nicht objektiv sein. Das Wissen der anderen ist ebenso relevant, die Symmetrie der Ignoranz erfordert Verhandlung. Rittel erkennt den Wert des rationalen Vorgehens, ohne dabei dem Simon’schen Positivismus zu verfallen. Er sucht die Operationalisierung, ohne dabei der Vester’schen Methodengläubigkeit anzuhängen. Er sieht die notwendige ethische Reflexion, ohne dabei angesichts der Aussichtslosigkeit des Unterfangens der Churchman’schen Verzweiflung zu erliegen. Ich danke Wolf D. Reuter für die unschätzbare Vorarbeit zur ersten Ausgabe und für seine Bereitschaft, an dieser Neuausgabe mitzuwirken.
Wolfgang Jonas Braunschweig, April 2013
VORWORT ZUR NEUAUFLAGE 007
Porträt Horst W. J. Rittel, Fotograf: Wolfgang Siol, 1958 © HfG-Archiv Ulm
008 THINKING DESIGN
Horst W. J. Rittel Geboren am 14. Juli 1930 in Berlin 1936–1949 Schule in Berlin und Bückeburg; 3 Jahre, 1943–1946, Autodidakt 1949–1954 Studium der Mathematik und der Theoretischen Physik an der Univer sität Göttingen 1953–1957 Mathematiker und Physiker bei der Maschinenfabrik Deutschland AG, Dortmund 1958 Mitarbeiter an der Sozialforschungsstelle an der Universität Münster; Soziologische Studien und Projekte 1958 Studium der Mathematik und Soziologie an der Universität Münster 1958–1963 Dozent an der Hochschule für Gestaltung (HfG) in Ulm für Design- Methodologie, Wissenstheorie und Theorien der Kommunikation 1959–1962 Mitglied des Rektorats-Kollegiums an der HfG in Ulm seit 1961 Mitglied der Studiengruppe für Systemforschung, Heidelberg; Initiator und leading scientist bei zahlreichen Projekten, u. a. Informationssysteme für den Deutschen Bundestag und den Bundesrat, für die OECD, über den Fluß wissenschaftlicher und technischer Informa tionen in der EG, Informationssysteme für die Umweltplanung in der Bundesrepublik Deutschland und für das Deutsche Patentamt, Re organisation der Wissensbasis in der organischen Chemie. 1963–1990 Professor of the Science of Design an der University of California, Berkeley, College for Environmental Design, Department of Architecture and Department of City and Regional Planning 1967 Visiting Associate Professor for Architecture und Operations Research an der Washington University, St. Louis, Missouri 1973–1990 Direktor und Professor am Institut für Grundlagen der Planung an der Universität Stuttgart, Fakultät für Architektur und Stadtplanung Gestorben am 9. Juli 1990 in Heidelberg
KURZBIOGRAPHIE HORST W. J. RITTEL 009
Einleitung Als Horst W. J. Rittel am 9. Juli 1990 in Heidelberg starb, koinzidierten wie in einer dramatischen Regie die Hommagen zu seinem 60. Geburtstag, der eine Woche später hätte begangen werden sollen, mit den Würdigungen anläßlich seines T odes. Kollegen, Schüler und Freunde übermittelten aus aller Welt, aus Venezuela, den USA, Frankreich, Indonesien und England, aus Deutschland verstreut, Botschaften, in denen sie ihre Bewunderung, Verehrung und Betroffenheit ausdrückten, Texte, die weit über eine Einschätzung seiner fachlichen Bedeutung hinaus erkennen ließen, daß er durch sein Wirken nicht nur eine Wissenschaft, die vom Planen und Entwerfen, konstituiert, sondern auch als Person in das Denken und die Biographien vieler nachhaltig hineingewirkt hat. Es ist bemerkenswert, daß seine Bekanntheit sich weniger auf die breit gestreuten, oft schwer auffindbaren Veröffentlichungen stützte, sondern offensichtlich in erster Linie auf eine außergewöhnlich aktive und vielfältige Lehr- und Vortragstätigkeit, die zwar in Berkeley und Stuttgart ihren Schwerpunkt hatte, die er jedoch in Vorlesungen, Seminaren und Gastvorträgen an Universitäten, auf Tagungen und Kongressen international ausgedehnt hatte. Sein Medium war die gesprochene Sprache und darin war er ein Meister. Er zog es vor, seine Gedanken mündlich zu entwickeln, ehe er sie, meist durch seine Umgebung gedrängt, schriftlich niederlegte. Originalität, Prägnanz, Kreativität, Humor, Dramatik, Provokativität, Lebendigkeit und Schärfe seines Vortrages waren so bekannt, daß er nicht nur, wo immer er lehrte, Studenten in ihrer Wahl des Studienplatzes beeinflußte, sondern daß auch Veranstalter von Symposien und Kongressen sich um seine Mitwirkung bemühten. Die Einladungen zu Gastvorträgen oder Gastseminaren an Universitä ten im In- und Ausland sind zahllos. Dies hatte nicht nur zur Folge, daß man ihn kannte, sondern auch, daß einige, die er als Schüler in ihrem wissenschaftlichen Werdegang begleitete, Lehrer, Professoren wurden, die ihrerseits seine Lehre weitertrugen, ein System, das eher an die samisdatartige Ausbreitung subversiver Texte erinnert, als daß es akademischer Gepflogenheit entspräche. Der legendäre « Grundkurs », eine Vorlesungsreihe, in der er für Planer und Architekten die Sub stanz seines theoretischen und methodischen Wissens präsentierte, ist bis heute nicht aufgeschrieben, sondern existiert – englisch und deutsch – in zahllosen Tonband-Mitschnitten. Es ist erstaunlich, daß sich ein Mathematiker und theoretischer Physiker auf dem Gebiet der Planung und des Design so nachhaltig etablieren konnte. Seine lebenslängliche Liaison mit Planern, Entwerfern, Designern begann 1958 an der Hochschule für Gestaltung in Ulm, wohin ihn Max Bill als Nachfolger von Max Bense berief. Er lehrte Wissenschaftstheorie, Epistemologie, Operations Research, Design-Methodologie, Kommunikationstheorie.
EINLEITUNG 011
Die Zeit an dieser weltberühmten, die Bauhaus-Tradition neu aufgreifenden Design-Schule, die an unrühmlichen schwäbischen Querelen zugrunde ging, war überaus anregend. Als sogenannter « Theoretiker » befand er sich mit den sogenannten « Gestaltern » in jenem fruchtbaren Dauerstreit der HfG, der die Schule so lebendig und kreativ werden ließ. Sein Wirken war mächtig genug, daß auch die Streitpartner den, wie er schreibt, « zähneknirschenden Konsens » mittrugen, daß « Design … planendes Handeln, bemüht um die Kontrolle seiner Konsequenzen (sei). Es erfordert sorgfältiges informiertes Urteilen. Es ist nicht immer vorrangig mit dem Erscheinungsbild befaßt, sondern mit allen Aspekten seiner Folgen, wie Herstellung, Handhabung, Wahrnehmung, aber auch den ökonomischen, sozialen, kulturellen Effekten. Zu entwerfende Objekte sollten nicht in Isolation, sondern im Zusammenhang mit den Kontexten verstanden werden, in die sie plaziert werden. » Und « kritische ‹ Vorgehensbewußtheit › ist angeraten. » (Horst Rittel, « Das Erbe der HfG », in: Herbert Lindinger; Hochschule für Gestaltung Ulm – Die Moral der Gegenstände, Berlin (West): Wilhelm Ernst und Sohn, 1987, S. 118, 119.) Rittel erhielt 1963 den Ruf an die University of California, Berkeley. Der junge Joe Esherick, später berühmter kalifornischer Architekt, der zeitweilig als S tudent in Ulm weilte, war von Person und Lehre Rittels so beeindruckt, daß er den Kontakt hergestellt hatte. Rittels didaktisches Konzept, das er in Berkeley zu realisieren begann, beruht ganz wesentlich auf den Prinzipien, die in Ulm galten. Er hat sie in einem Beitrag für die Zeitschrift Werk 1961 (Horst Rittel, « Zu den Arbeitshypothesen der Hochschule für Gestaltung in Ulm », in: Werk, August 1961) und in einem Artikel für die DMG-Newsletters 1970 zusammengefaßt. (Horst Rittel, « Some Principles for the Design of an Educational System for Design », in: DMG-Newsletters, B erkeley, CA, Dezember 1970.) Eine Didaktik müsse davon ausgehen, daß die Komplexität der Aufgaben keine bloß intuitiven Lösungen, sondern rationale Durchdringung erfordere. Ferner sei das im Lösungsprozeß zu verarbeitende Wissen nicht « disziplinär » verteilt. Der Planer, Entwerfer, Designer arbeite in einem Spannungsfeld divergierender Interessen, innerhalb derer er seine eigenen Soll-Vorstellungen anzusiedeln habe. Einige Grundzüge eines didaktischen Konzeptes lassen sich herausschälen. • Nicht Meinungen und Auffassungen sollten gedrillt werden, sondern lehrbar seien: Sachwissen, Fertigkeiten, Methoden, Prinzipien und die Kenntnis von Problemen. • Wichtiger als die Speicherung von Wissen sei die Fähigkeit, dieses Wissen aufzuspüren und zu verarbeiten. Lernen zu lernen verspricht langfristig mehr Erfolg als Fakten zu lernen. • Das Problemlösungsvermögen sollte geschult werden, die Fähigkeit, Probleme zu entdecken, im Kontext zu sehen, zu strukturieren, zu bearbeiten. Dazu gehöre, Varietät zu erzeugen und urteilend zu reduzieren.
012 THINKING DESIGN
• Phantasie ließe sich schulen, Beurteilungsvermögen verbessern, Entscheidungsvermögen üben, alle diese Vorgänge ließen sich methodisch unterstützen. • Studenten sollten den Umgang mit den typischen Schwierigkeiten des Planens und Entwerfens lernen, nicht Lösungen. • Wissen, auch faktisches, sollte problemorientiert vermittelt werden. • Spielraum für verantwortliche Entscheidungen sollte nicht lehrerhaft beschränkt, sondern bewußt belassen werden. Jean-Pierre Protzen, langjähriger Kollege und Freund von Rittel, sieht hier einen seiner Beiträge von überlebender Bedeutung. Er sagt, daß durch Rittel « sich das Denken über die Ausbildung der Architekten dahin veränderte, daß man von einer strikten beruflichen (fachidiotischen) Ausbildung zu einer allgemeinen, nicht rein professionellen überging. Entsprechend haben alle namhaften Schulen der USA ihren alten fünfjährigen Lehrplan durch einen sogenannten 4- plus 2-Lehrplan ersetzt, wobei die ersten vier Jahre in einem nicht professionellen Bachelor of ArtsAbschluß enden und die nächsten zwei Jahre zum Master of Architecture … führen ». (Interview mit Professor Jean Pierre Protzen, Heidelberg, 15. Juli 1991) Etwa zeitgleich mit dem Beginn seiner Tätigkeit in Ulm liegt seine Verbindung zu einer zunächst losen, später institutionalisierten Vereinigung von j ungen Wissenschaftlern in der « Studiengruppe für Systemforschung » in Heidelberg. Diesen biographischen Strang vor einer Einführung in die planungs- und design relevanten Schriften, die in diesem Buch zusammengestellt sind, zu berichten, scheint mir deshalb wichtig, weil diese Schriften in ein Beschäftigungsspektrum eingebettet sind, das über das in diesem Buch repräsentierte weit hinausgeht. Die Studiengruppe für Systemforschung war Katalysator und Plattform für viele seiner quer zu wissenschaftsdisziplinären Prokrustesbetten liegenden Arbeiten. Zu der Studiengruppe für Systemforschung gehörten zu Beginn der 60er Jahre u. a. der Soziologe Hans Paul Bardt, der Psychiater Paul Matussek, der Sozial philosoph Jürgen Habermas, die Chemiker Helmut Krauch und Werner Kunz, der Ökonom Walter Baur, später der Operations Research- und Systemtheoretiker C. West Churchman. Eine der ersten Arbeiten war, mit Bardt und Krauch zusammen, « Die wissenschaftliche Arbeit in Gruppen » (Hans Paul Bardt, Helmut Krauch, Horst Rittel, « Die wissenschaftliche Arbeit in Gruppen », in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 1960, Heft 1). Es folgten « Hierarchie oder Team? » (Horst Rittel, « Hierarchie oder Team? – Betrachtungen zu den Kooperationsformen in Forschung und Entwicklung » in: Helmut Krauch, Werner Kunz, Horst Rittel, Rationalisierungskuratorium der Deutschen Wirtschaft e. V., (Hrsg.), Forschungsplanung, München, R. Oldenbourg-Verlag, S. 40–70) und die in diesem Band enthaltenen Arbeiten « Instrumentelles Wissen in der Politik » (1964) und « Zur wissenschaftlichen und politischen Bedeutung der Entscheidungstheorie » (1966).
EINLEITUNG 013
Er hat in zahlreichen Projekten als Initiator, Senior Scientist und Berater mitge wirkt, u. a. an einer Systemanalyse des Bundeskanzleramtes, bei der Einführung der Datenverarbeitung in der Bundestagsverwaltung, an dem Informationssystem für das Deutsche Patentamt, an dem Informationssystem für Umweltplanung der Bundesrepublik, an einer Situations-Analyse für die OECD, an einer Studie über den Fluß wissenschaftlicher und technischer Information in der EG. Er hat sich in dieser Zeit insbesondere mit den Forschungsprozessen von Chemikern und den Möglichkeiten ihrer informationellen Unterstützung beschäftigt. Einer seiner wichtigsten Beiträge, der ihm zu internationalem Renommee verhalf, galt der Reorganisation des Systems der anorganischen Stoffe auf der Basis ähnlichen Reak tionsverhaltens (H. W. J. Rittel, Similarity as an Organizing Principle of a Knowledge Base for Organic Chemistry, Heidelberg: 1989). Zusammen mit Werner Kunz veröffentlichte er 1972 « Die Informationswissen schaften », ein Buch, mit dem in Deutschland die Basis für eine Wissenschaft gelegt wurde, in der im Unterschied zur Informatik, die sich mit den technischen Aspekten befaßt, die Prozesse der Wissensverarbeitung Gegenstand der Betrachtung sind. Keine dieser Arbeiten paßt, streng genommen, in eine wissenschaftliche Disziplin. Dies war jedoch gerade seine besondere Begabung, wie Helmut Krauch, Professor für Designtheorie an der Universität Kassel, bemerkt, « weit auseinander liegende Wissenschaftsbereiche in einen Zusammenhang zu bringen und auf Praxis zu beziehen … Dadurch war es ihm möglich, in den etablierten Fachwissen schaften Irrtümer, Fehlstellen und Schwächen zu identifizieren » (Interview mit Prof. Helmut Krauch am 10. Juli 1991). Auch Protzen sieht hier einen seiner besonders wichtigen Beiträge: « in seiner Fähigkeit, Konzepte und Ideen für verschiedene Disziplinen fruchtbar zu machen. Auf Anhieb möchte man denken, daß zwischen seinen Arbeiten in Chemie, Informationswissenschaften und Planungstheorie und -praxis … keine Zusammenhänge bestehen. Bei genauem Hinsehen aber ist es klar, daß dahinter gemeinsame Themen stecken: Verfahrensweise e ines Handelnden, Organisation und Darstellung seines Wissens, Natur seiner Auf gaben … » (Interview mit J. P. Protzen am 15. Juli 1991). Es mag zu weit gehen, in dieser Art zu denken einen allgemeinen Paradigmawechsel zu sehen, doch für ihn und seine Umgebung hatte sie diese Bedeutung: Wissenschaft nicht disziplinorientiert, sondern missions- und prozeßorientiert zu sehen, von einer Enzyklopädie der Befunde zu einer Theorie der Aktion überzu gehen, in der die Logik des Vorgehens und die Verarbeitung von Information die bestimmenden Betrachtungsgrößen sind. Wenn Rittel die Vorgehensweisen von Forschern, insbesondere die der Chemiker, die der Informations-Wissenschaftler und die der Planer, Architekten, Designer zum Gegenstand seiner Betrachtung macht, sehe ich ein gemeinsames Interesse und einige gemeinsame Hypothesen: man kann mit den verschieden sten Systemen methodologisch unterstützt umgehen. Die Prozesse der Forschung
014 THINKING DESIGN
und des Entwerfens sind wissensbasierte und kreative Prozesse. In diesen Prozessen wird Information generiert, verarbeitet und kommuniziert. Die Analyse dieser Prozesse stört den kreativen Prozeß nicht, sondern ermöglicht erst seine methodische Unterstützung. Diese Form von Rationalitäts-Anspruch durchzieht die Beschäftigung mit den disziplinar so weit entfernten Gebieten. Eines davon ist das der Planer, Entwerfer und Designer. Es ist sein Verdienst, über ihre Denkweise eine noch nicht widerlegte allgemeine Theorie entwickelt zu haben. Die Anfänge dieser Theoriebildung datieren aus der Zeit an der HfG in Ulm. Zusammen mit Bruce Archer, im Kontext mit Arbeiten von Asimow, Alger und Hays, lehrte er eine Theorie darüber, was Design sei und wie die Prozesse des Design methodisch zu unterstützen seien. In diesen Pionierzeiten war der Glaube verbreitet, daß Wissenschaft den Entwurfsprozeß nicht nur fundierend unterstützen kann. Die « harten » Methoden des Operations Research waren Kontrapunkte zu der künst lerisch-kreativen Vision der reinen Gestalter. Rittel entwickelte nachfolgend eine kritische Sicht der Anwendung von Operations Research-Methoden, die e indeutige Zielvorgaben, einen eindeutig begrenzten Lösungsraum und ein eindeutiges Güte maß voraussetzen. Die damit zu lösenden Aufgaben, wie auch die der Wissenschaft, seien, so seine Terminologie – « zahme » Probleme im Unterschied zu den « bösartigen », denen sich Planer und Entwerfer gegenübersähen. Er charakterisierte diese bösartigen Probleme in einem mit Melvin Webber 1969 konzipierten Vortrag, der einige Jahre später in dem wegweisenden Aufsatz über die « Dilemmas in einer Allgemeinen Theorie der Planung » veröffentlicht wurde. Es sei bemerkt, daß der Einfluß Poppers auf Rittels Denken deutlich und stark ist. In der Trennschärfe zwischen bösartigen Planungsproblemen zu vergleichbaren zahmen wissenschaftlichen Problemen steht Poppers Wissenschaftsbegriff Pate. In der Tradition Poppers steht er auch, wenn er Planungen an den Phänomenen ihrer Durchsetzung und ihrer Folgen mißt. Damals schon sind ihm die sog. « holistischen » Planungen verdächtig, die an der in pluralen Gesellschaften erwartbaren Bestreitbarkeit ihrer Ziele und an der zu ihrer Durchsetzung erforderlichen totalitären Machtausübung scheitern müssen. Rittel wird auch später nicht müde, sie anzuprangern, ob es sich um Autoritäten wie Corbusier in der Stadtplanung oder Wolfgang Häfele in der nuklearen Energieplanung handelt. Rittel erkannte, daß die Bösartigkeit von Planungsproblemen ein besonderes methodisches Repertoire ihrer Behandlung erfordert. Gegen die Gläubigkeit derjenigen Methodiker, die an der Zähmbarkeit unzähmbarer Problemtypen festhielten, postulierte er neue Behandlungstechniken, eine von ihm so genannte « 2. Generation ». Er entzog dem Rationalitätsglauben der Planer den Boden, indem er scharfsinnig nachwies, daß ihr Versuch, rational zu sein, in Dilemmas der Rationalität auflaufen mußte. Es war ein paradigmatischer Wechsel in der Lehre von Planungsmethoden, den er 1972 in dem Text « Zur Planungskrise – Systemanalyse der ersten und zweiten Generation » formulierte, und den er gegen erhebliche Widerstände und falsche Verbündete mit zäher Geduld und polemischer Schärfe vertrat.
EINLEITUNG 015
Wenn Design-, Entwurfs- und Planungsentscheidungen abhängig von Urteilen sind, die, letztlich subjektiv, vom Akteur zu verantworten sind, dann ist ihre Explizierung, ihre Diskutierbarkeit und ihre Angreifbarkeit wichtige Voraussetzung einer angemessenen Behandlungsmethode. Die theoretische Basis einer kontroversen Behandlung ist eine Sicht der Welt, die nicht von der platonisch-ideal fixierten, objektiven Zuschreibung eines Wertes zu einem Objekt der Welt ausgeht, sondern von der Berkeleyschen These, daß die Welt in intellektueller Anstrengung von den wahrnehmenden Akteuren gleichsam konstruiert werde. Diese Überlegung hat er in dem kurzen Einleitungstext zum Projekt STIEC 1979 formuliert. Wenn aber Wertzuschreibungen von Personen, Zeiten und Zwecken je abhängig sind, dann sind sie auch Gegenstand eines Diskurses, in dem keiner mit letzter Sicherheit weiß, ob der andere nicht besser weiß, welche Handlungsalternative für ihn die richtige ist. Der Begriff von der « Symmetrie der Ignoranz » ist eine der pointiertesten Formulierungen dieses Sachverhalts. Folgerichtig hat Rittel den Diskurs und seine Organisation als die zentrale Vorgehensweise des Planers erkannt und als « argumentatives Modell » von Planung postuliert. Die Nachbarschaft zu dem von Habermas (mit dem er in den sechziger Jahren in der Studiengruppe für Systemforschung intensiven Gedankenaustausch hatte) formulierten Diskurs-Modell, welches die Änderung gesellschaftlicher Normen steuert, ist unübersehbar. Rittels argumentatives Modell von Planung ist einerseits ein deskriptives Modell, insofern der Gegenbeweis, daß irgendeine Planung nicht argumentativ verlaufen sei, noch nicht erbracht wurde. Gleichzeitig ist es ein normatives Modell, welches postuliert, alle Planung solle argumentativ (oder noch argumentativer) verlaufen, um die Willkür von Macht zu erschweren. Das Modell basiert auf der prinzipiellen Nicht-Ableitbarkeit deontischer (Soll-) Aussagen von empirischen Befunden und stellt somit die Kontroversität von Meinungen über Fakten, Ziele, Mittel und Erklärungen als historisch permanenten Zustand in Aussicht; es steht im Gegensatz zu objektivistisch-teleologischen Modellen. Das Modell geht von e inem umfassenden Wissensansatz aus und durchbricht damit die Schranken, die einer – als Voraussetzung für Rationalität – komplexen Planung durch die Klassifizierungsversuche von Wissenschaft, Verwaltung und Politik historisch gesetzt waren. Das Modell bietet die Möglichkeit, gesellschaftliche Planungspraxis dadurch vernünftig zu machen, daß es fordert, sie zu rechtfertigen. Die Theorie hat methodische Folgen. Zunächst gilt es, die Explizierung des eigenen Urteils, die « Objektifizierung » der Urteilsbasis (im Unterschied zur Festlegung « objektiver » Richtigkeit) zu operationalisieren (vergleiche den Aufsatz über « Urteilsbildung und Urteilsrechtfertigung » von 1976). Er entwickelt ein Bewertungssystem, dargelegt in dem mit A. Musso verfaßten Text « Über das Messen der Güte von Gebäuden ». Er sieht den Planungsprozeß als einen von Subjekten getragenen iterativen Prozeß der permanenten Varietätserzeugung und der Reduktion dieser Varietät durch Urteile. Die Urteile sind argumentativ zu belegen. Im Text über die
016 THINKING DESIGN
« Denkweisen von Planern und Entwerfern » (1986) faßt er die theoretische Sicht und die methodischen Folgen zusammen. Unübersehbar ist die Schlüsselrolle der Informationsverarbeitung in den Pro zessen des Planens und Entwerfens. Rittel entwickelt eine Theorie des Wissens und der Information in dem 1972 erschienenen Buch « Informationswissenschaften ». Für Planer operationalisiert er diese theoretischen Überlegungen in dem heute als Schlüsseltext zu bezeichnenden Aufsatz über « Issues als Elemente von Informationssystemen ». Er beschreibt die Informationslage der Planer und Entwer fer in Texten über « Struktur und Nützlichkeit von Planungsinformationssystemen » (1972) und « Planungsinformationssysteme » (1980). Die informationelle Unterstützung des Planungs- und Entwurfsprozesses führt in die Anwendung von Computern in diesen Berufssparten. Die euphorische Erwartung an künstliche Intelligenz dämpft er in dem Grenzen aufzeigenden Aufsatz: « Woher weiß man, wer was weiß: Zur Entwicklung von Kommunikations krücken. » Für Architekten positioniert er die Bedeutung der EDV u. a. in dem Beitrag über « Architekten und Computer ». Da ihm die praktische Verflechtung zwischen Planung und Realisierung und die strukturelle Ähnlichkeit zwischen Planung und Politik klar war, beschäftigt er sich schon früh mit dieser Thematik. Zwei Aufsätze aus der Frühzeit der Arbeit in der Studiengruppe belegen diese Gedanken: « Zur wissenschaftlichen und politischen Bedeutung der Entscheidungstheorie » (1966) und « Instrumentelles Wissen in der Politik » (1969). Später hat er als einen Kernpunkt der Verflechtung von Planung, Wissenschaft und Politik den sogenannten « Sachzwang » ausgemacht und an dessen Problematik die obskure Arbeitsteilung zwischen Politikern und Experten aufgezeigt. Nichts muß so sein wie es ist, auch wenn noch so oft fehlschlüssig behauptet wird, aus Fakten ließen sich Soll-Aussagen ableiten. (Vergleiche den Aufsatz: « Der Sachzwang – Ausreden für Entscheidungsmüde? » von 1976.) Rittel verweilte nicht in Theorie und Methoden-Entwicklung. Die Trennung von Theorie und Praxis hat er nie akzeptiert. Er hat seine Gedanken in zahlreichen praktischen Projekten auf die Probe gestellt. Er entwickelte Konzepte für Informationssysteme der öffentlichen Verwaltungen (OECD, Patentamt, Bundestag, Bundesrat, Umweltbehörde). Er befaßte sich mit Problemen der Raumordnung, der Energieplanung, der Siedlungsplanung, des Berufsverkehrs etc. Ich habe einige Texte zum Beleg dieses Teils seiner Aktivität an den Schluß gestellt, um zu zeigen, daß seine Theorien sich aus Praxis generierten und für Praxis gedacht waren. Sie belegen, daß seine Arbeit einer Theorie des Handelns galt, mit der Intention, durch die Theorie und die daraus folgenden methodologischen Entwicklungen das Handeln in der Welt aus einer aufklärerischen Position zu verändern. Er sah keine b essere Möglichkeit.
EINLEITUNG 017
Zur Theoriebildung
Dilemmas in einer allgemeinen Theorie der Planung mit Melvin M. Webber (Dilemmas in a General Theory of Planning*)
Abstract: Die Suche nach wissenschaftlichen Grundlagen zum Umgang mit gesellschafts politischen Problemen ist wegen der Natur dieser Probleme zum Scheitern verurteilt. Es handelt sich um « bösartige » Probleme; hingegen hat sich Wissenschaft entwickelt, um « zahme » Probleme zu behandeln. Politische Probleme können nicht endgültig beschrieben werden. Überdies gibt es in einer pluralistischen Gesellschaft kein unbestreitbares allgemeines Wohl; es gibt auch keine objektive Definition von Gleichheit; eine Politik, die auf gesellschaftliche Probleme reagiert, kann nicht signifikant richtig oder falsch sein, und es ist nicht sinnvoll über « optimale Lösungen » für derartige Probleme zu reden, wenn nicht zuvor strenge Bedingungen für « Optimalität » gesetzt wurden. Mehr noch, es gibt keine « Lösungen » im Sinne von endgültigen und objektiven Antworten.
George Bernhard Shaw diagnostizierte es schon vor einigen Jahren; in neuerer Zeit wurde Bürgerprotest fast zu einer gesellschaftlichen Bewegung. Shaw behauptete, daß « jede Profession eine Verschwörung gegen die Nicht-Fachleute » sei. Die heutige Öffentlichkeit scheint die gleiche Entdeckung gemacht zu haben. Wenige der modernen Professionen scheinen gegen die Angriffe aus der Bevölkerung immun zu sein – ob sie nun Sozialarbeiter, Erzieher, Wohnungsbauer, Beamte im Gesundheitssystem, Polizisten, Stadtplaner, Straßenbauer oder Ärzte sind. Unsere widerspenstigen Klienten erzählen uns immer wieder, daß sie nicht einverstanden sind mit den Bildungsprogrammen, die Schulbehörden anbieten, mit den Sanierungsprojekten, die Stadterneuerungsplaner vorschlagen, mit dem Stil, mit dem die Polizei über die Einhaltung der Gesetze wacht, dem administra tiven Verhalten der Wohlfahrtsverbände, mit der Führung von Straßentrassen usw. Vor Gericht, auf der Straße und in politischen Kampagnen hören wir seit einiger Zeit immer lauteren öffentlichen Protest gegen die von Fachleuten erstellten Dia gnosen der Probleme des betroffenen Klienten, gegen von Fachleuten geplante Verwaltungsprogramme, gegen die von Experten aufgestellten Standards für die staatlichen Versorgungsleistungen. Es scheint seltsam, daß diese Attacke gerade jetzt kommt, wo Fachleute in den staatlichen Versorgungseinrichtungen beginnen, professionelle Kompetenz zu erwerben. Es könnte scheinen, daß unsere Öffentlichkeit fehlorientiert ist, indem sie Professionalismus verzieh, solange er eigentlich nur aufgeputztes Amateurverhalten war, und ihn verdammt, wenn wir gerade anfangen, gute Arbeit zu
020 ZUR THEORIEB ILDUNG
leisten. Zwar mag die Nicht-Fachwelt vielleicht fehlorientiert sein, doch stecken hinter diesem Angriff sicher auch die Fachleute selbst. Einige der Ursachen der Konfrontation waren ursprünglich rein intellektu eller Natur. Die antiprofessionelle Bewegung entstand zum Teil aus einer Rekon zipierung der Aufgaben der professionellen Planer. Andere haben mehr den Charakter historischer Imperative, d. h., durch den Verlauf gesellschaftlicher Ereignisse wurden Bedingungen geschaffen, die nach unterschiedlichen Arten der Intervention verlangten. Die Aufgabe des Fachmanns wurde einst so gesehen, daß er ein Sortiment von Problemen zu lösen hatte, die definierbar, verständlich und konsensfähig erschienen. Er sollte die Bedingungen eliminieren, die die vorherrschende Meinung für unerwünscht hielt. Die Ergebnisse seiner Arbeit waren ziemlich spektakulär: Die heutige Stadt und die derzeitige städtische Gesellschaft existieren als deut liche Zeugnisse professioneller Tüchtigkeit. Die Straßen wurden gepflastert, und alle Orte sind nun durch Straßen verbunden, Häuser schützen praktisch jeden, schreckliche Krankheiten sind praktisch ausgerottet, fast jedes Gebäude erhält sauberes Wasser, die Kanalisation nimmt die Abwässer auf, Schulen und Krankenhäuser versorgen praktisch jeden Bezirk usw. Die Errungenschaften des vergan genen Jahrhunderts sind in dieser Beziehung tatsächlich phänomenal, so unzu reichend sie aus der Sicht mancher Leute auch gewesen sein mögen. Aber nun, wo diese relativ leicht zu bewältigenden Probleme gelöst sind, wenden wir uns anderen zu, die wesentlich schwieriger sind. Die Überprüfung von Effi zienz, die einst so nützlich als Maß für die Zielerreichung war, ist durch eine neue Beschäftigung mit ihren Konsequenzen für die Gleichheit in Frage gestellt. Der scheinbare Konsens, der früher vielleicht die Lösung von Verteilungsproblemen erlaubt hat, wird durch die wachsende Erkenntnis des nationalen Pluralismus und der Differenzierung der Werte aufgeweicht, die mit der Differenzierung der Öffentlichkeit einhergeht. Die professionalisierten Formen der Erkenntnisgewinnung und der Arbeitsverhältnisse, die sich in der ersten Hälfte dieses Jahrhunderts auf der Basis der mechanistischen Physik Newtons herausbildeten, sind noch nicht völlig an die heutigen Konzepte von interagierenden, offenen Systemen und die heutige Beschäftigung mit Fragen der Gleichheit adaptiert. Eine wachsende Sensibilität für die Wellen von Rückwirkungen, die sich durch solche systemischen Netzwerke bewegen, und für die Konsequenzen solcher Rückwirkungen auf die Wertsysteme, hat die kürzliche Überprüfung überkommener Werte und die Suche nach nationalen Zielen hervorgerufen. Es scheint die Erkenntnis zuzunehmen, daß ein Schwachpunkt in diesem System professioneller Zuarbeit an dem Verbindungspunkt zwischen Zielformulierung, Problemdefinition und Fragen der Gleichheit liegt. Wir wollen dies der Reihe nach betrachten.
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 021
I. Zielformulierung Die Suche nach expliziten Zielen wurde mit Beginn der 60er Jahre mit Macht initiiert. In einer RAND-Publikation von 1960 behauptete Charles J. Hitch: « Wir müssen lernen, unsere Ziele genauso kritisch und professionell zu betrachten wie unsere Modelle und unsere anderen Vorgaben. »1 Die nachfolgende Arbeit auf dem Gebiet der Systemanalyse bestätigte diese Aufforderung. In einem großen Spektrum von Gebieten sah man sich veranlaßt, die Systeme, mit denen man zu tun hatte, neu zu definieren, eher mit Verben als mit Nomina zu arbeiten – eher zu fragen: « was tun die Systeme? », statt « woraus bestehen die Sy steme? », und dann die schwierigste von allen Fragen zu stellen, nämlich: « was sollten diese Systeme tun? » Das Jahr 1960 wurde mit der Publikation von « Goals for Americans » eröffnet, dem Bericht der Kommission für Nationale Ziele, die Präsident Eisenhower installiert hatte.2 Eine Welle ähnlicher Bemühungen folgte. Das « Committee for Economic Development » gab eine Nachfolgeuntersuchung in Auftrag, ebenso die « Brookings Institution », die « American Academy of Arts and Sciences » und schließlich Präsident Nixon durch seinen « National Goals Research Staff ». Aber das mögen nur die auffälligsten Versuche sein, die Ausrichtung der Nation zu klären.3 Symptomatischer in den USA waren wohl die Versuche, « PPBS » zu installieren, ein System, das die Explizierung erwünschter Ergebnisse erfordert; und dann die neueren Versuche, Systeme sozialer Indikatoren zu errichten, die in Wirklichkeit Surrogate für die Aufstellung erwünschter Bedingungen sind. Wie wir alle wissen, hat es sich als schrecklich schwierig, wenn nicht gar unmöglich erwiesen, irgend eines dieser Systeme zum Funktionieren zu bringen. Obwohl es einige kleine Erfolgsgeschichten von ein paar öffentlichen Agenturen gibt, sind Erfolge noch immer rar. Zielfindung stellt sich als eine außerordentlich sperrige Aufgabe heraus. Da Ziel findung eine der zentralen Funktionen der Planung ist, werden wir uns kurz damit befassen, warum das so sein muß. Zeitgleich mit diesen formellen Versuchen, unsere verborgenen Ziele heraus zufinden, wurde die Nation durch die Revolte der Schwarzen erschüttert, dann durch die Studentenrevolte, danach durch den weit verbreiteten Protest gegen den Krieg, in letzter Zeit durch eine neue Protestbewegung für Verbraucherschutz und zur Erhaltung der Umwelt. Alle diese Bewegungen entwickelten sich auf den zugrundeliegenden systembedingten Prozessen der heutigen amerikanischen Gesell schaft. In einer völlig anderen Art und Weise als Systemanalytiker und Präsidentenkommissionen versuchten die Teilnehmer dieser Revolten, diejenigen Wert- und Zielsysteme umzustrukturieren, die die Verteilung des Sozialproduktes beeinflussen und die Richtung der nationalen Politik bestimmen. iversen Systemanalyse, Zielkommissionen, PPBS, soziale Indikatoren, die d Revolten, das Armutsbekämpfungsprogramm, das Konzept der « model cities », das aktuelle Interesse an Umweltqualität und der Qualität urbanen Lebens, die S uche
022 ZUR THEORIEB ILDUNG
der heutigen Jugend nach neuen Religionen und die wachsende A ttraktivität der Idee von Planung – all dies scheint von einem gemeinsamen Verlangen angetrieben zu sein. Jeder sucht auf seine besondere Weise nach einer Klärung von Zwecken, nach einer Neudefinition von Problemen, nach einer Neuordnung der Prioritäten, um gesetzte Zwecke zu vergleichen, nach dem Entwurf neuer Arten zielorientierten Handelns, nach einer Neuorientierung der Fachleute an den Ergebnissen professioneller Aktivitäten statt an den Ausgangspunkten und schließlich nach einer Neuverteilung der Vor- und Nachteile, die Regierungsprogramme bei den konkurrierenden Gruppen der Bevölkerung bewirken. Eine breite Strömung von Optimismus im amerikanischen Denken scheint diese verschiedenen Arten der Suche nach Methoden der Richtungsfindung begünstigt zu haben. Aber zur selben Zeit wird das traditionelle amerikanische Vertrauen auf einen garantierten Fortschritt durch die gleichen Wellen untergraben, die den alten Glauben an die der sozialen Ordnung inhärente Güte und das natürliche Wohlwollen der Geschichte zerstören. Candide ist tot. Sein Platz wird von einer neuen Konzeption der zukünftigen Geschichte eingenommen, die den Historizismus ablehnt und nach Wegen sucht, die intellektuellen und kreativen Fähigkeiten des Menschen auszunutzen. Dieser Glaube kommt in zwei widersprüchlichen Formen auf. Einerseits gibt es den Glauben an die « Machbarkeit » oder uneingeschränkte Formbarkeit der zukünftigen Geschichte durch die Möglichkeiten des planenden Intellekts – durch Denken, rationalen Diskurs und kultivierte Formen der Verhandlung. Zur selben Zeit gibt es Stimmen, die für den « Gefühlsansatz », für passioniertes Engagement und für die dramatische Aktion sprechen, sogar für eine Wiederbelebung des My stizismus, mit dem Ziel, DAS SYSTEM zu besiegen, das als die böse Quelle allen Elends und Leids angesehen wird. Die Gewißheit darüber, was machbar ist, wird gegen Ende des 20. Jahrhunderts entweder ausgereift sein oder auf dem Sterbebett liegen. Viele Amerikaner scheinen beides zu glauben: Daß wir die zukünftige Geschichte perfektionieren können – daß wir zukünftige Ereignisse bewußt in Übereinstimmung mit unseren Wünschen bringen können, und daß es keine Zukunft geben wird. Einige sind bei einem tiefen Pessimismus angelangt, einige bei Resignation. Für sie hat sich erwiesen, daß die Planung großer sozialer Systeme notwendig mit dem Verlust von Freiheit und Gleichheit verbunden sei. Für sie müßte daher das letzte Ziel von Planung Anarchie heißen, da sie auf die Eliminierung von Herrschaft über andere zielt. Eine weitere Gruppe ist zu dem Schluß gelangt, daß Freiheit und Gleichheit Luxusartikel sind, die eine moderne Gesellschaft nicht leisten könne, und daß sie durch « kybernetisch machbare » Werte ersetzt werden sollten. Professionalismus wurde als eines der Hauptinstrumente verstanden, um Perfektion zu erreichen, ein Mittel, das den traditionellen amerikanischen Optimismus am Leben erhält. Basierend auf der modernen Wissenschaft, wurde jede Profession als Medium begriffen, durch welches die Kenntnisse der Wissenschaft
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 023
zur Anwendung kommen. Infolgedessen wurde jede Profession als Teilmenge der Ingenieurwissenschaften gesehen. Planung und die aufkommenden politischen Wissenschaften gehören zu den optimistischeren unter diesen Professionen. Ihre Vertreter weigern sich zu glauben, daß eine die Zustände verbessernde Planung unmöglich ist, wie schwerwiegend ihre Zweifel über die Angemessenheit vergangener oder moderner Arten der Planung auch sein mögen. Sie haben die Hoffnung nicht aufgegeben, daß die Instrumente zur Perfektionierung perfektioniert werden können. Diese Ansicht möchten wir gerne untersuchen, um herauszufinden, ob die sozialen Berufe für das, was man von ihnen erwartet, ausgestattet sind.
II. Problemdefinition Während des Industriezeitalters war die Vorstellung von Planung, zusammen mit der Vorstellung von Professionalismus, von der alles durchdringenden Idee von Effizienz beherrscht. Abgeleitet von der Physik des 18. Jahrhunderts, der klassischen Wirtschaftslehre und dem Prinzip des geringsten Aufwandes, wurde Effizienz definiert als Umstand, unter dem eine bestimmte Aufgabe mit einem geringen Aufwand an Ressourcen durchgeführt werden konnte. Das war eine machtvolle Idee. Sie war für lange Zeit das wesentliche Konzept des zivilen Ingenieurwesens, der wissenschaftlichen Management-Bewegung und auch von großen Teilen des derzeitigen Operations Research; und noch immer durchdringt sie die moderne Verwaltung und Industrie. Als sie auf die Vorstellung von Planung angewandt wurde, wurde sie auch hier vorherrschend. Planung wurde nun als ein Prozeß des Entwerfens von Problemlösungen gesehen, die möglichst billig ein- und durchzuführen wären. Da es während des frühen Industriezeitalters ziemlich leicht war, über die Art der Probleme zu einem Konsens zu kommen, konnte die Aufgabe den technisch Versierten überlassen werden, denen man wiederum zutrauen konnte, das vereinfacht gesehene Ziel zu erreichen. Oder, in der eher alltäglichen Situation, konnten wir uns auf den Experten für Effizienz verlassen, darauf, daß er ein Pro blem diagnostizieren und dann lösen würde, bei gleichzeitiger Reduktion des Aufwandes für alles, was wir taten. Wir sind in den letzten Jahren zu sehr verschiedenen Denkmöglichkeiten über die Planungsaufgabe gekommen. Wir haben gelernt zu fragen, ob das, was wir tun, richtig ist. Das heißt, wir haben gelernt, Fragen über den output von Handlungen zu stellen und Problemaussagen in den Rahmen von Wertsystemen zu stellen. Wir haben gelernt, soziale Prozesse als die Bindeglieder zu sehen, die offene Sy steme in weite und untereinander verknüpfte Netzwerke von Systemen einbinden, so daß die Ergebnisse der einen zu Ausgangspunkten für andere werden. In dieser Rahmenstruktur ist es viel weniger offensichtlich, wo der Kern der Probleme liegt und weniger klar, wo und wie wir intervenieren sollten, selbst wenn wir zufällig wis-
024 ZUR THEORIEB ILDUNG
sen, welche Ziele wir anstreben. Wir sind jetzt sensibilisiert für die zurückflutenden Wellen, die durch eine auf irgendeinen Knoten im Netzwerk gerichtete Pro blemlösungsaktion ausgelöst werden, und wir sind nicht mehr überrascht, daß sie größere und gravierendere Probleme an anderen Knoten induzieren. Daher sind wir nun gezwungen, die Grenzen der Systeme, mit denen wir zu tun haben, auszudehnen und zu versuchen, diese äußeren Wirkungsketten miteinzubeziehen. Es war der professionelle Stil der Systemanalytiker, die im allgemeinen als Vorläufer der universellen Problemlöser gesehen wurden. Mit überheblichem Selbstvertrauen bezeichneten die frühen Systemanalytiker sich selbst als bereit, jedermanns Problem zu übernehmen, seinen verborgenen Charakter diagnostisch zu enthüllen und dann, nachdem sie seine wahre Natur entlarvt haben, geschickt seine Ursachen an der Wurzel auszurotten. Zwei Jahrzehnte Erfahrung haben diese Selbstsicherheit brüchig werden lassen. Diese Analytiker haben schließlich verstanden, wieviel ihr Modell wirklich wert ist, denn sie selbst hatten genau die gleichen diagnostischen Schwierigkeiten wie ihre Klienten. Jetzt beginnen wir alle zu realisieren, daß eines der am schwierigsten zu behandelnden Probleme das der Problemdefinition ist (das Wissen darum, was den Unterschied zwischen einem beobachteten und einem erwünschten Zustand ausmacht), ferner das der Problemrealisierung (herauszufinden, wo in dem komplexen kausalen Netzwerk die Schwierigkeit wirklich liegt). Darauf, und gleichermaßen schwer zu behandeln, folgt das Problem der Identifikation jener Handlungen, die die Lücke zwischen dem, was ist, und dem, was sein soll, wirkungsvoll verkleinern könnten. Wenn wir versuchen, die Effektivität von Handlungen im Hinblick auf wertvolle Ergebnisse zu verbessern, wenn die Grenzen der Systeme ausgedehnt werden, und wenn sich unsere Einsicht in die komplexe Wirkungsweise offener gesellschaftlicher Systeme immer weiter verfeinert, wird es immer schwieriger, die Planungsidee zu operationalisieren. Viele haben zur Zeit ein Bild davon, wie ein idealisiertes Planungssystem funktionieren sollte. Es wird als fortlaufender, kybernetischer Prozeß der Kontrolle gesehen, der systematische Prozeduren zur laufenden Zielfindung einschließt; der Probleme identifiziert; der unkontrollierbare Kontextänderungen vorhersieht; der alternative Strategien, Taktiken und Handlungsfolgen erfindet; der alternative und plausible Aktionen und ihre Konsequenzen anregt; der unterschiedlich vorhergesagte Ergebnisse bewertet; der jene Zustände der Öffentlichkeit und der Systeme statistisch überwacht, die als relevant gelten; der Information wiederum zurück an die Simulations- und Entscheidungskanäle liefert, so daß Irrtümer korrigiert werden können – alles das in einem gleichzeitig ablaufenden Kontrollprozeß. Diese Schrittfolge ist uns allen vertraut, da sie das derzeitige modern-klassische Modell von Planung enthält. Und doch wissen wir alle, daß solch ein Planungssystem unerreichbar ist, gerade dann, wenn wir noch bemühter versuchen, ihm nahezukommen. Es ist sogar fragwürdig, ob ein derartiges Planungssystem wünschenswert ist.
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 025
III. Planungsprobleme sind « bösartige » Probleme Viele Barrieren hindern uns, solch ein Planungs-/Verwaltungssystem zu vervollkommnen: Theorie ist für eine leidliche Vorhersage unangemessen; unsere Intel ligenz reicht nicht aus für unsere Aufgabe; die Vielfalt der Ziele, die durch die Pluralität in der Politik aufrechterhalten wird, macht es unmöglich, einheitliche Ziele zu verfolgen usw. Die Schwierigkeiten, die mit Rationalität verbunden sind, sind hart näckig, und bis jetzt waren wir nicht imstande, uns aus den damit v erbundenen Verstrickungen zu befreien. Teilweise deshalb, weil das klassische Paradigma von Wissenschaft und Technik – das Paradigma, auf dem moderner Professionalismus aufbaut – auf die Probleme offener gesellschaftlicher Systeme nicht anwendbar ist. Einer der Gründe, aus denen unserer Ansicht nach die Öffentlichkeit die Fachleute immer wieder angreift, ist die Tatsache, daß der kognitive und berufliche Stil der Fachleute – der den kognitiven Stil der Wissenschaft und den beruflichen Stil der Technik nachahmt – in einem großen Bereich sozialer Probleme eben nicht funktioniert hat. Die Kunden als Nichtfachleute beschweren sich, weil die Planer und andere Fachleute es nicht geschafft haben, die Probleme zu lösen, von denen sie behauptet hatten, sie lösen zu können. Wir möchten darauf hinweisen, daß die Sozialberufe irgendwo alle bei der (anmaßenden) Annahme angelangt sind, daß sie anwendende Wissenschaftler sein könnten – daß sie Probleme auf die Art lösen könnten, wie Wissenschaftler ihre Art von Problemen lösen. Das war ein schwerer Irrtum. Die Art von Problemen, mit denen Planer zu tun haben – gesellschaftliche Probleme – sind von Natur aus verschieden von den Problemen, mit denen sich Wissenschaftler und vielleicht einige Ingenieurgruppen beschäftigen. Planungsprobleme sind inhärent bösartig. Im Unterschied zu Problemen in den Naturwissenschaften, die definierbar und separierbar sind, und für die sich Lösungen finden lassen, sind Probleme der Verwaltungsplanung – speziell solche sozialer oder politischer Planung – schlecht definiert, und sie beruhen auf einer unzuverlässigen politischen Entscheidung für einen Lösungsbeschluß. (Nicht Lösung = « Solution », sondern Lösungsbeschluß = « resolution ». Soziale Probleme werden nie gelöst (solved). Bestenfalls erreicht man jeweils einen Lösungsbeschluß – immer wieder neu.) Lassen Sie uns mit einer Skizze den Unterschied aufzeigen, den wir meinen. Die Probleme, auf die sich Wissenschaftler und Techniker üblicherweise konzentriert haben, sind meistens « zahm » oder « gutartig ». Denken Sie beispielsweise an ein mathematisches Problem wie die Lösung einer Gleichung; oder an die Aufgabe eines organischen Chemikers, die Struktur einer unbekannten Verbindung zu analysieren; oder auch an die eines Schachspielers, der versucht, ein Schachmatt in fünf Zügen zu erreichen. Für jeden von ihnen ist die Aufgabe klar. Umgekehrt ist auch klar, ob die Probleme gelöst wurden oder nicht.
026 ZUR THEORIEB ILDUNG
Bösartige Probleme hingegen haben nicht diese klaren Charakteristika; und sie schließen praktisch alle gesellschaftspolitischen Themen ein, ob es sich nun um die Trasse einer Schnellstraße handelt, die Festsetzung der Höhe einer Steuer, die Änderung eines Lehrplans oder die Verbrechensbekämpfung. Es gibt wenigstens zehn unterscheidende Merkmale des PlanungsproblemTyps, d. h. für bösartige Probleme, auf die Planer achten sollten, und die wir der Reihe nach besprechen werden. Sie werden sehen, daß wir sie « bösartig » nicht deshalb nennen, weil diese Eigenschaften aus ethischer Sicht zu beklagen wären. Wir benutzen den Ausdruck « bösartig » in der Bedeutung, die den Begriffen « boshaft » (im Gegensatz zu « gutwillig »), « vertrackt » (wie in einem Teufelskreis), « mutwillig » (wie ein Kobold) oder « aggressiv » (wie ein Löwe, im Gegensatz zur Sanftheit eines Lamms) entspricht. Wir wollen diese Eigenschaften sozialer Systeme nicht durch die Unterstellung einer bösen Absicht personifizieren. Aber Sie werden uns zustimmen, daß es nun für den Planer unzulässig wird, ein bösartiges Problem so zu behandeln, als wäre es ein zahmes, oder ein bösartiges Problem vorzeitig zu einem zahmen zu machen, oder auch, die innewohnende Bösartigkeit sozialer Probleme nicht anerkennen zu wollen. 1. Es gibt keine definitive Formulierung für ein bösartiges Problem Für jedes beliebige zahme Problem kann eine erschöpfende Formulierung gefunden werden, die die gesamte Information enthält, die der Problemlöser für das Verständnis und die Lösung des Problems braucht – vorausgesetzt natürlich, er versteht sein « Handwerk ». Bei bösartigen Problemen ist das nicht möglich. Die Information, die nötig ist, um das Problem zu verstehen, hängt von der jeweiligen Vorstellung ab, wie es zu lösen sei. Das heißt: Um ein bösartiges Problem ausreichend detailliert beschreiben zu können, muß man bereits im voraus eine möglichst vollständige Liste aller denk baren Lösungen aufstellen. Der Grund dafür liegt darin, daß jede Frage nach zusätzlicher Information vom Verständnis des Problems – und seiner Lösung – zum aktuellen Zeitpunkt abhängt. Problemverständnis und Problemlösung gehen Hand in Hand. Deshalb ist, um alle Fragen vorwegzunehmen (um alle erforderliche Infor mation für eine Lösung bereits vorher zu sammeln), die Kenntnis aller denkbaren Lösungen erforderlich. Stellen Sie sich beispielsweise vor, was nötig wäre, um die Natur des Pro blems der Armut herauszufinden. Bedeutet niedriges Einkommen Armut? Ja, zum Teil. Aber was sind die Determinanten für niedriges Einkommen? Ist es die Unzu länglichkeit der nationalen und regionalen Wirtschaft oder das Fehlen k ognitiver und beruflicher Fähigkeiten innerhalb der Arbeiterschaft? Wenn letzteres zutrifft, muß die Problemdarstellung und die Problem- « Lösung » die A usbildungsprozesse mit einschließen. Aber wo innerhalb des Ausbildungssystems liegt dann das wirk-
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 027
liche Problem? Was kann es dann bedeuten, « das Ausbildungssystem zu verbes sern »? Oder liegt das Problem der Armut in mangelnder körperlicher und geistiger Gesundheit? Wenn das stimmt, müssen wir diese zugrundeliegenden Zusammenhänge mit in unser Informationspaket aufnehmen und innerhalb des Gesundheits- systems nach einer plausiblen Ursache suchen. Schließt es kulturelle Unterdrük kung ein? Oder räumliche Veränderung? Identitätsprobleme? Mangelnde poli tische und soziale Fähigkeiten? usw. Wenn wir das Problem formulieren können, indem wir es bis zu gewissen Quellen verfolgen – so, daß wir sagen können: « Aha, da liegt die Schwierigkeit! », d. h., da liegen die Wurzeln für die Unterschiede zwischen dem Ist und dem Soll – dann haben wir damit auch eine Lösung formuliert. Das Problem zu finden ist also das gleiche, wie die Lösung zu finden; das Problem kann nicht definiert werden, ehe die Lösung nicht gefunden ist. Die Formulierung eines bösartigen Problems ist das Problem! Der Prozeß der Problemformulierung und der, sich eine Lösung auszudenken, sind identisch, da jede Spezifizierung des Problems auch eine Spezifizierung der Richtung ist, in der man sich eine Behandlung des Problems vorstellt. Wenn wir mangelnde Dienstleistung für geistige Gesundheit als Teil des Problems erkennen, dann ist – einfach genug – die Verbesserung der Dienstleistung für geistige Gesundheit eine Spezifizierung der Lösung. Wenn wir, als nächsten Schritt, das Fehlen von Gemeinschaftszentren als einen Mangel im Dienstleistungssystem für geistige Gesundheit feststellen, dann ist die nächste Lösungsspezifizierung das « Schaffen von Gemeinschaftszentren ». Wenn die Behandlung innerhalb der Gemeinschaftszentren inadäquat ist, dann kann die verbesserte Therapieausbildung des Personals der Lösungsansatz sein usw. Diese Eigenschaft wirft einiges Licht auf die Brauchbarkeit des berühmten « systemtheoretischen Ansatzes » zur Behandlung bösartiger Probleme. Der klassische systemtheoretische Ansatz der Militär- und Raumfahrtprogramme basiert auf der Annahme, daß ein Planungsprojekt in genau unterscheidbare Phasen organisiert werden kann. Jedes Handbuch für Systemtheorie beginnt mit einer Aufzählung dieser Phasen: « die Probleme oder die Aufgabe verstehen », « Information sammeln », « Information analysieren », « Information verknüpfen und auf den kreativen Sprung warten », « eine Lösung ausarbeiten » oder ähnliches. Für bösartige Probleme funktioniert dieses Schema jedoch nicht. Man kann das Problem nicht verstehen, ohne über seinen Kontext Bescheid zu wissen; man kann nicht ohne Orientierung an einem Lösungskonzept effektiv Information suchen; man kann nicht erst verstehen und dann lösen. Der systemtheoretische Ansatz der « ersten Generation » ist der Behandlung bösartiger Probleme nicht adäquat. Ansätze der « zweiten Generation » sollten auf einem Modell von Planung als einem argumentativen Prozeß beruhen, in dessen Verlauf allmählich bei den Beteiligten eine Vorstellung vom Problem und der Lösung entsteht, und zwar als Produkt ununter brochenen Urteilens, das wiederum kritischer Argumentation unterworfen wird. Die Methoden des Operations Research spielen eine wichtige Rolle im systemtheo
028 ZUR THEORIEB ILDUNG
retischen Ansatz der ersten Generation; sie werden jedoch erst anwendbar, nachdem die wichtigen Entscheidungen schon getroffen wurden, d. h. nachdem das Problem bereits « gezähmt » worden ist. Nehmen wir ein Optimierungsmodell: Hier umfassen die benötigten Voraussetzungen die Definition des Lösungsraumes, das System der Konstriktionen, d. h. der einschränkenden Bedingungen und das Gütemaß als eine Funktion der Planungs- und Kontextvariablen. Aber die Erzeugung und die Einschränkung des Lösungsraumes und die Bestimmung eines Gütemaßes stellen den bösartigen Teil des Problems dar. Sehr wahrscheinlich sind diese Schritte wesentlicher als die verbleibenden der Suche nach einer Lösung, die relativ zum Gütemaß und dem System der Konstriktionen optimal ist. 2. Bösartige Probleme haben keine « Stopp-Regel » Bei der Lösung eines Schachproblems oder einer mathematischen Gleichung weiß der Problemlöser, wann er seine Aufgabe erfüllt hat. Es gibt Kriterien, die genau bestimmen, wann die oder eine Lösung gefunden ist. Bei Planungsproblemen ist das anders. Da (laut Behauptung 1) der Prozeß der Problemlösung mit dem Prozeß des Verständnisses der Natur des Problems identisch ist, da es keine Kriterien für ein ausreichendes Verständnis gibt und da es für die Kausalketten, die interagierende offene Systeme verbinden, kein Ende gibt, kann der Möchtegern-Planer immer versuchen, es noch besser zu machen. Ein wenig zusätzlicher Aufwand könnte die Chancen vergrößern, eine bessere Lösung zu finden. Der Planer beendet die Arbeit an einem bösartigen Problem nicht aus Gründen, die in der « Logik » des Problems liegen. Er hört aufgrund von Überlegungen auf, die außerhalb des Problems liegen: Er hat keine Zeit, kein Geld oder keine Geduld mehr. Er sagt schließlich: « Das ist gut genug », oder « Das ist das Beste, was ich innerhalb der Projektgrenzen tun kann » oder « Diese Lösung gefällt mir » usw. 3. Lösungen für bösartige Probleme sind nicht richtig-oderfalsch, sondern gut-oder-schlecht Es gibt allgemein anerkannte Kriterien dafür, objektiv zu entscheiden, ob die angebotene Lösung für eine Gleichung oder die vorgeschlagene Strukturformel für eine chemische Verbindung richtig oder falsch ist. Sie können durch andere qualifizierte Personen überprüft werden, die mit den etablierten Kriterien vertraut sind. Die Antwort wird normalerweise unzweideutig ausfallen. Für bösartige Planungsprobleme gibt es keine richtigen oder falschen Antworten. Normalerweise sind viele Beteiligte gleichermaßen ausgerüstet, interessiert und/oder befähigt, die Lösungen zu beurteilen, obwohl keiner die Macht hat, formale Entscheidungsregeln festzusetzen, um die Richtigkeit zu bestimmen. Ihre
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 029
Urteile differieren wahrscheinlich in Übereinstimmung mit ihren Gruppen- oder persönlichen Interessen, ihren speziellen Wertsystemen und ihren ideologischen Vorlieben. Ihre Einschätzungen vorgeschlagener Lösungen heißen « gut » oder « schlecht », oder wahrscheinlicher, « besser oder schlechter », « befriedigend » oder « gut genug ». 4. Es gibt keine unmittelbare und keine endgültige Überprüfungsmöglichkeit für die Lösung eines bösartigen Problems Für zahme Probleme kann man auf den Punkt genau bestimmen, wie gut ein Lösungsversuch gelungen ist. Genauer gesagt, die Überprüfung einer Lösung ist ganz unter der Kontrolle der wenigen, die damit befaßt und daran interessiert sind. Bei bösartigen Problemen dagegen wird jede Lösung nach ihrer Anwendung Wellen von Konsequenzen während eines ausgedehnten – vermutlich unbegrenzten – Zeitraums bewirken. Darüberhinaus werden die Konsequenzen der Lösung vielleicht völlig unerwünschte Rückwirkungen hervorrufen, die gegenüber den beabsichtigten oder bis dahin erreichten Vorteilen überwiegen. In solchen Fällen wäre man besser daran gewesen, wenn der Plan nie ausgeführt worden wäre. Die Konsequenzen können in ihrer ganzen Breite erst beurteilt werden, wenn die Wogen der Rückwirkungen ganz abgeflaut sind, und wir haben keine Möglichkeit, alle Wellen im Leben aller Betroffenen für alle Zukunft oder innerhalb einer begrenzten Zeitspanne zu verfolgen. 5. Jede Lösung eines bösartigen Problems ist eine « one-shotoperation » (ein einmaliger Vorgang mit nur einer Chance); d. h., da es keine Gelegenheit gibt, durch Versuch-und-Irrtum zu lernen, zählt jeder Versuch signifikant In den Naturwissenschaften und auf Gebieten wie Mathematik, Schach, Puzzleproblemen oder Maschinenbau kann der Problemlöser ohne Schaden verschiedene Durchläufe ausprobieren. Was auch immer bei diesen individuellen Versuchs serien herauskommt, hat keine große Bedeutung für das Subjekt-System oder für den Verlauf gesellschaftlicher Vorgänge. Eine verlorene Schachpartie hat selten Konsequenzen für andere Schachpartien oder für Nicht-Schachspieler. Bei bösartigen Planungsproblemen jedoch ist jede ausgeführte Lösung konsequentiell. Sie hinterläßt « Spuren », die man nicht wegwischen kann. Man kann nicht eine Autobahn bauen, sehen, wie sie funktioniert, und sie dann, bei unbefriedigendem Ergebnis, leicht korrigieren. Große öffentliche Bauwerke sind tatsächlich irreversibel, und die davon ausgehenden Konsequenzen haben lange Halbwertszeiten. Das Leben vieler Menschen wird unumkehrbar beeinflußt worden sein, und große Geldsummen werden ausgegeben sein – eine weitere irre versible Handlung. Das gleiche geschieht bei den meisten anderen großen öffent-
030 ZUR THEORIEB ILDUNG
lichen Vorhaben und mit fast allen öffentlichen Programmen. Die Wirkungen eines Lehrplanexperiments werden die Schüler bis in ihr Erwachsenenleben begleiten. Wenn immer Handlungen tatsächlich irreversibel und die Halbwertszeiten der Konsequenzen lang sind, zählt jeder Versuch. Und jedes Bemühen, eine Entscheidung rückgängig zu machen oder der unerwünschten Konsequenzen wegen zu korrigieren, erzeugt eine neue Menge bösartiger Probleme, die ihrerseits wiederum dieselben Dilemmas hervorrufen. 6. Bösartige Probleme haben weder eine zählbare (oder erschöpfend beschreibbare) Menge potentieller Lösungen, noch gibt es eine gut umrissene Menge erlaubter Maßnahmen, die man in den Plan einbeziehen kann Es gibt keine Kriterien, die den Nachweis ermöglichen, daß alle Lösungen für ein bösartiges Problem identifiziert und bedacht wurden. Es kann vorkommen, daß sich, dank logischer Widersprüche in der « Abbildung » des Problems, gar keine Lösung findet. (Zum Beispiel könnte der Problem löser zu einer Problembeschreibung kommen, die fordert, daß sowohl A als auch Nicht-A zur gleichen Zeit stattfinden sollen.) Oder es liegt daran, daß es ihm nicht gelungen ist, eine Idee für eine Lösung zu entwickeln (was nicht bedeutet, daß irgendjemand anderes darin erfolgreicher wäre). Aber normalerweise ergeben sich bei der Beschäftigung mit einem bösartigen Planungsproblem eine Unmenge potentieller Lösungen; an eine ganze Reihe anderer denkt man nicht einmal. Es ist dann eine Frage des Urteils, ob man versucht, die vorhandene Menge zu vergrößern oder nicht. Und es ist selbstverständlich eine Frage des Urteils, welche dieser Lösungen weiterverfolgt und ausgeführt werden soll. Schach hat eine begrenzte Anzahl von Regeln, die für alle auftauchenden Situationen ausreichen. In der Mathematik ist die Werkzeugkiste der Operationen ebenfalls explizit; ebenso, wenn auch weniger streng, in der Chemie. Nicht so jedoch in der Welt der Sozialpolitik. Welche Strategien oder Vorgehensweisen zum Beispiel im Umgang mit Straßenkriminalität erlaubt sind, ist nirgends aufgezählt. « Alles ist erlaubt », zumindest jedoch kann jede neue Idee für eine Planungsmaßnahme zu einem ernsthaften Kandidaten für einen Lösungsversuch werden: Was sollten wir tun, um die Straßenkriminalität zu verringern? Sollten wir wie in England die Polizei entwaffnen, da Verbrecher weniger häufig auf Unbewaffnete schießen? Oder sollten wir die Gesetze, die Verbrechen definieren, abschaffen, wie jenes, welches den Gebrauch von Marihuana zur strafbaren Handlung erklärt, oder diejenigen, die Autodiebstahl zu einem kriminellen Akt machen? Verbrechen würden so durch Änderung ihrer Definition verringert. Sollte man es mit moralischer Aufrüstung versuchen und Polizei- und Gerichtskontrolle durch ethische Selbstkontrolle ersetzen? Oder alle Verbrecher erschießen und
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 031
damit die Zahl derer verringern, die Verbrechen begehen? Sollte man möglichen Dieben sozusagen freiwillig Beute überlassen und so den Anreiz zum Verbrechen verringern? Und so weiter. In solchen Bereichen schlecht definierter Probleme und daher schlecht defi nierbarer Lösungen hängt die Menge durchführbarer Aktionen von einem reali stischen Urteil ab, von der Fähigkeit, « exotische » Ideen einzuschätzen und von dem Maß an Vertrauen und Glaubwürdigkeit zwischen Planer und Klientel, w elche zu dem Schluß führen, « gut, versuchen wir diesen Weg. » 7. Jedes bösartige Problem ist wesentlich einzigartig Mit Sicherheit kann für zwei beliebige Probleme wenigstens eine Eigenschaft gefunden werden, in der sie sich unterscheiden (genauso wie man eine Anzahl von Eigenschaften finden kann, die sie gemeinsam haben), und deshalb ist jedes von ihnen in einem ganz banalen Sinn einzigartig. Aber mit « wesentlich einzigartig » meinen wir, daß trotz langer Listen von Ähnlichkeiten zwischen einem aktuellen und einem vorangegangenen Problem immer eine zusätzliche unterschiedliche Eigenschaft von überragender Wichtigkeit existieren kann. Zur Behandlung bösartiger Probleme gehört die Kunst, nicht zu früh zu wissen, welcher Art Lösungstyp anzuwenden ist. Es gibt keine Klassen bösartiger Probleme in dem Sinn, daß Lösungsprin zipien entwickelt werden können, die auf alle Mitglieder einer Klasse passen. In der Mathematik gibt es Regeln zur Klassifizierung von Familien von Problemen – z. B. für die Lösung einer Klasse von Gleichungen –, wenn immer eine bestimmte, ganz genau spezifizierte Menge von Charakteristika auf das Problem zutrifft. Für zahme Probleme existieren explizite Charakteristika, die Ähnlichkeiten zwischen ihnen definieren, in der Weise, daß die gleiche Menge von Lösungstechniken für wahrscheinlich jedes von ihnen wirksam ist. Trotz anscheinender Ähnlichkeiten zwischen bösartigen Problemen kann man nie sicher sein, daß die Besonderheiten eines Problems nicht doch die Gemeinsamkeiten mit anderen, schon behandelten Problemen überwiegen. Die Bedingungen in einer Stadt, die eine U-Bahn baut, können den Bedingungen, sagen wir in San Francisco ähnlich sein, aber die Planer wären schlecht beraten, wenn sie die Lösungen von San Francisco direkt übertragen würden. Unterschiede im Pendlerverhalten oder in den Wohngewohnheiten können weit gewichtiger sein, als die Ähnlichkeiten in der U-Bahnanlage, dem Grundriß der Innenstadt und dem Rest. In der viel komplexeren Welt sozialpolitischer Planung ist jede Situation wahrscheinlich einzig in ihrer Art. Wenn wir damit recht haben, kann die direkte Übertragung physikalisch-naturwissenschaftlicher und technischer Denkweisen auf die Sozialpolitik eher dysfunktional, d. h. mit Sicherheit schädlich sein. « Lösungen » würden für scheinbar vertraute Probleme angewendet, die gar nicht auf sie passen.
032 ZUR THEORIEB ILDUNG
8. Jedes bösartige Problem kann als Symptom eines anderen Problems betrachtet werden Probleme können beschrieben werden als Diskrepanzen zwischen dem Ist-Zustand und dem Soll-Zustand. Der Prozeß der Problemlösung beginnt mit der Suche nach einer kausalen Erklärung der Diskrepanz. Die Beseitigung dieser Ursache bringt ein anderes Problem zum Vorschein, dessen « Symptom » das ursprüngliche Problem ist. Jenes kann seinerseits wiederum als Symptom eines weiteren Problems « höherer Ebene » betrachtet werden. So kann « Straßenkriminalität » als Symptom allgemeinen Sittenverfalls gesehen werden oder von zu viel Großzügigkeit, von schlechten Zukunftsperspektiven, von Wohlstand, Armut oder was immer e inem als kausale Erklärung am besten gefällt. Die Ebene, auf der das Problem angesiedelt wird, hängt vom Selbstvertrauen des Analytikers ab und kann nicht nach logischen Gründen entschieden werden. Es gibt nicht so etwas wie eine natürliche Ebene eines bösartigen Problems. Je höher die Ebene der Problem-Formulierung ist, desto breiter und allgemeiner wird sie, und umso schwieriger wird es auch, etwas zur Lösung des Problems zu tun. Andererseits sollte man nicht versuchen, Symptome zu kurieren; und deshalb sollte man versuchen, Probleme auf einer möglichst hohen Ebene anzusiedeln. Hier liegt auch eine Schwierigkeit des Inkrementalismus. Diese Doktrin verkündet eine Politik der kleinen Schritte, in der Hoffnung, damit systematisch zu einer generellen Verbesserung beizutragen. Wenn das Problem jedoch auf einem zu niedrigen Niveau (einem Inkrement) in Angriff genommen wird, dann kann der Erfolg des Entschlusses darin bestehen, die Dinge noch schlimmer zu machen, weil es schwieriger wird, höher gelagerte Probleme zu behandeln. Marginale Verbesserung garantiert nicht eine generelle Verbesserung. Zum Beispiel kann die Computerisierung eines Verwaltungsprozesses geringere Kosten, leichtere Abwicklung etc. zur Folge haben. Gleichzeitig wird es schwieriger, strukturelle Änderungen im Unternehmen durchzuführen, da technische Perfektion o rganisatorische Muster verstärkt und normalerweise die Kosten für Änderungen erhöht. Die neu erworbene Macht derjenigen, die die Information kontrollieren, kann dann spätere Modifikationen ihrer Rolle verhindern. Unter diesen Umständen überrascht es nicht, daß die Angehörigen einer Organisation dazu neigen, die Probleme auf einem niedrigeren Niveau als ihrem eigenen zu sehen. Wenn Sie einen Polizeichef fragen, wo die Probleme der Polizei liegen, wird er wahrscheinlich eine bessere Ausrüstung verlangen. 9. Die Existenz einer Diskrepanz, wie sie ein bösartiges Pro blem repräsentiert, kann auf zahlreiche Arten erklärt werden. Die Wahl der Erklärung bestimmt die Art der Problemlösung. « Straßenkriminalität » kann erklärt werden durch zu wenig Polizei, zu viele Krimi nelle, inadäquate Gesetze, zu viel Polizei, kulturelle Unterdrückung, ungünstige
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 033
Umstände, zu viele Waffen, geistige Abnormität usw. Jede dieser Erklärungen bietet eine Richtung zur Bekämpfung der Straßenkriminalität. Welche davon ist richtig? Es gibt keine Regel oder Vorgehensweise, um die « richtige » Erklärung oder eine richtige Kombination von Erklärungen davon zu bestimmen. Der Grund dafür liegt darin, daß es bei der Behandlung bösartiger Probleme einige Möglichkeiten mehr gibt, Hypothesen abzulehnen, als in den Naturwissenschaften erlaubt sind. In den Naturwissenschaften wird üblicherweise auf folgende Weise mit widersprüchlicher Evidenz umgegangen: « Unter den Bedingungen C und in der Annahme, daß die Hypothese H gilt, muß der Effekt E eintreten. Nun tritt, gegeben C, aber E nicht ein. Folglich muß H zurückgewiesen werden. » Im Zusammenhang mit bösartigen Problemen jedoch sind weitere Arten zulässig: Man kann leugnen, daß der Effekt E nicht aufgetreten sei, oder man kann das Nicht-Auftreten von E mit intervenierenden Vorgängen erklären, ohne H aufgeben zu müssen. Hier ein Beispiel: Nehmen wir an, jemand erklärt Straßenkriminalität mit « zu wenig Polizei ». Das wird zur Grundlage eines Plans, und die Anzahl der Polizisten wird erhöht. Nehmen wir ferner an, daß es in den darauf folgenden Jahren eine größere Anzahl von Verhaftungen gibt, aber eine Zunahme der Delikte, die leicht unter der Zuwachsrate des Bruttosozialproduktes liegt. Ist nun der Effekt E eingetreten? Wurde die Straßenkriminalität durch die Verstärkung der Polizeikräfte verringert? Wenn die Antwort « nein » lautet, können verschiedene nichtwissenschaftliche Erklärungen versucht werden, um die Hypothese H zu retten (« die Verstärkung der Polizeikräfte verringert die Straßenkriminalität »): « Wenn wir die Anzahl der Beamten nicht vergrößert hätten, wäre der Anstieg der Verbrechensrate noch höher gewesen », « Dieser Fall ist eine Ausnahme von der Regel H, weil es einen ungewöhnlichen Zustrom von kriminellen Elementen gegeben hat », « Die Zeit ist zu kurz, um die Auswirkungen jetzt schon spüren zu können » usw. Aber auch die Antwort « Ja, E ist eingetreten » kann verteidigt werden. « Die Anzahl der Verhaftungen ist gestiegen » etc. Bei der Behandlung bösartiger Probleme sind die in der Argumentation benutzten Arten der Beweisführung wesentlich vielfältiger als die, die im wissenschaftlichen Diskurs zulässig sind. Aufgrund der wesentlichen Einzigartigkeit des Problems (siehe Behauptung 7) und der fehlenden Gelegenheit exakten Experimentierens (siehe Behauptung 5) kann H nicht einer kritischen Überprüfung ausgesetzt werden. Das heißt, die Wahl der Erklärung ist im logischen Sinn willkürlich. In Wirklichkeit steuern Kriterien der Einstellung die Wahl. Die Leute wählen jene Erklärungen, die ihnen am plausibelsten erscheinen. Etwas übertrieben (aber nicht sehr) kann man auch sagen, daß sich jeder die Erklärung einer Diskrepanz heraussucht, die am besten zu seinen Absichten paßt und die die Vorstellungen über diejenigen Handlungen bestätigt, die für ihn möglich sind. Die « Weltsicht » des Analytikers ist der stärkste determinierende Faktor bei der Erklärung einer Diskrepanz und daher auch bei der Lösung eines bösartigen Problems.
034 ZUR THEORIEB ILDUNG
10. Der Planer hat kein Recht, unrecht zu haben Wie Karl Popper in « The Logic of Scientific Discovery » 4 argumentiert, ist es ein Prinzip der Naturwissenschaften, daß Lösungen für Probleme immer nur Hypothesen sind, die zur Widerlegung angeboten werden. Dieser Brauch basiert auf der Einsicht, daß es keine Beweise für Hypothesen gibt, sondern nur potentielle Gegenbeweise. Je mehr eine Hypothese zahlreichen Versuchen zur Widerlegung widersteht, desto höher wird ihre « Erhärtung » eingeschätzt. Demzufolge tadelt die wissenschaftliche Gemeinschaft ihre Mitglieder nicht dafür, daß sie Hypothesen aufstellen, die später widerlegt werden, natürlich solange der Autor die Spielregeln einhält. In der Welt der Planung und der bösartigen Probleme wird keine solche Immunität geduldet. Hier ist das Ziel nicht, die Wahrheit zu finden, sondern einige Merkmale der Welt, in der die Leute leben, zu verbessern. Planer sind verantwortlich für die Konsequenzen, die sie verursachen; die Wirkungen können für die durch jene Handlungen betroffenen Menschen von erheblicher Bedeutung sein. Wir kommen so zum Schluß, daß die Probleme, mit denen sich Planer zu befassen haben, bösartig und wenig fügsam sind, da sie den Bemühungen trotzen, ihre Grenzen abzustecken und ihre Ursachen auszumachen und so ihre Natur zu offenbaren. Der Planer, der mit offenen Systemen arbeitet, ist in der Vieldeutigkeit ihres Kausal-Gewebes verfangen. Darüberhinaus werden seine möglichen Lösungen durch eine weitere Menge von Dilemmas in Frage gestellt, die durch den wachsenden Pluralismus in der heutigen Öffentlichkeit zustandekommen, die seine Vorschläge anhand einer Reihe unterschiedlicher und einander widersprechenden Maßstäbe bewertet. Wir wollen uns als nächstes diesen Dilemmas zuwenden.
IV. Der gesellschaftliche Kontext Während der Fünfzigerjahre gab es eine Zeit, in der die quasi-soziologische Literatur eine Massengesellschaft voraussagte – in der Form einer eher homogenen Kultur, in der die meisten Menschen die gleichen Werte und Glaubenssätze hätten, gemeinsame Ziele verfolgten, einem ähnlichen Lebensstil huldigten und sich daher auch ähnlich verhalten würden (Sie werden sich an die populäre Literatur über die Vororte von vor zehn Jahren [1962, Anmerkung des Übersetzers] erinnern). Es ist jetzt offensichtlich, daß diese Vorhersagen falsch waren. Stattdessen werden die hochentwickelten Gesellschaften der westlichen Welt zunehmend heterogener. Sie werden immer differenzierter, enthalten tausende von Minoritätengruppen, jede vertreten durch ein besonderes Interesse, gemeinsame Wertsysteme und gemeinsame stilistische Vorlieben, die sich von denen anderer Gruppen unterscheiden. Da die schiere Menge an Information und Wissen ständig wächst, da die technischen Entwicklungen weiterhin die Bandbreite mög-
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 035
licher Optionen vergrößern, und da die Erkenntnis von der Freiheit, abzuweichen und sich zu unterscheiden, sich ausbreitet, sind mehr Variationen möglich. Wachsender Überfluß oder, mehr noch, der wachsende Wunsch nach zumindest subkultureller Identität veranlaßt verschiedene Gruppen, diese Wahlmöglichkeiten auszuschöpfen und neue zu erfinden. Wir wagen zu sagen, daß irreguläre kulturelle Änderungen die Regel werden. Wir haben schließlich erkannt, daß der Schmelztiegel für eine große Zahl von Einwanderern nach Amerika5 nie funktioniert hat, und daß die einheitliche Konzeption « des American way of life » nun der Erkenntnis Platz macht, daß es zahlreiche Lebensarten gibt, die auch amerikanisch sind. Die prä-industrielle Gesellschaft war kulturell homogen. Im Industriezeit alter breitete sich weitgehend kulturelle Diversität aus. Die postindustrielle Gesellschaft wird wahrscheinlich wesentlich differenzierter sein als jede andere in der bisherigen Geschichte. Noch ist es zu früh, um sagen zu können, ob die derzeitige Politisierung von einigen Gruppen der Bevölkerung ein länger andauerndes Phänomen werden wird oder nicht. Man könnte plausible Szenarien für jede Möglichkeit schreiben. Aber eines ist klar: Eine große Bevölkerung bedeutet auch, daß kleine Minoritäten ihrerseits eine große Anzahl von Menschen enthalten können, und wie wir gesehen haben, können sogar kleine Minoritäten großen politischen Einfluß bewirken. Wie soll in einer Situation, in der eine Mehrheit in der Bevölkerung politisch sehr unterschiedliche Ziele verfolgt, die Öffentlichkeit mit ihren bösartigen Pro blemen in einer planvollen Weise umgehen? Wie sollen Ziele gesetzt werden, wenn die Wertgrundlagen so unterschiedlich sind? Mit Sicherheit ist die K onzeption eines einheitlichen « öffentlichen Wohls » anachronistisch. Wir haben nicht einmal eine Theorie, die uns sagen würde, wie wir herausfinden können, was als gesellschaftlich bester Zustand betrachtet werden soll. Wir haben keine Theorie, die uns sagt, welche Verteilung des Sozialprodukts die beste ist – ob das Ergebnis der Verteilung sich durch das Einkommen ausdrückt, durch den Zugang zu Information, durch kulturelle Möglichkeiten oder was auch immer. Wir haben inzwischen erkannt, daß das Konzept des Sozialprodukts nicht sehr bedeutungsvoll ist; möglicherweise gibt es kein Gesamtmaß für das Wohl einer hochgradig diversifizierten Gesellschaft, wenn dieses Maß objektiv und nicht parteiisch sein soll. Die Sozialwissenschaften waren einfach unfähig, eine Funktion des sozialen Wohls herauszufinden, die deutlich machen würde, welche Entscheidungen zu einem gesellschaftlichen Bestzustand beitragen könnten. Stattdessen müssen wir uns auf Axiome des Individualismus stützen, die der ökonomischen und politischen Theorie zugrunde liegen und tatsächlich folgern, daß sich das öffentliche Gesamtwohl aus der Summe der individuellen Wertentscheidungen ableitet. Und doch wissen wir, daß das nicht notwendigerweise so ist, wie unsere derzeitigen Erfahrungen mit der Luftverschmutzung dramatisch zeigen. Wir wissen auch, daß viele gesellschaftliche Prozesse den Charakter von Nullsummen-Spielen haben. Da die Bevölkerung immer pluralistischer wird, werden
036 ZUR THEORIEB ILDUNG
wahrscheinlich Differenzen zwischen Gruppen als Rivalitäten von der Nullsummensorte betrachtet. Wenn das so ist, werden die Aussichten für die Erfindung positiver Nicht-Nullsummen-Entwicklungsstrategien zunehmend schwieriger. Vielleicht können wir das veranschaulichen. Vor einigen Jahren gab es in Amerika eine nahezu vollständige Übereinstimmung darüber, daß Vollbeschäftigung, hohe Produktivität und die weitgestreute Verteilung dauerhafter Konsumgüter zu einer Entwicklungsstrategie paßten, bei der alle Gewinner waren. Dieser Konsens wird jetzt untergraben. Jetzt, wo finanzielle Unterstützungen an die Armen, an Studenten und Pensionäre genauso wie an die traditionellen Empfänger von Lohn ersatzzahlungen vergeben werden, müssen unsere Konzeptionen von « Beschäfti gung » und einer Vollbeschäftigungs-Wirtschaft revidiert werden. Jetzt, wo man erkennt, daß Rohmaterialien, die in den Wirtschaftsprozeß eingebracht werden, schließlich die Luft und Flüsse verschmutzen, werden viele der wachsenden Produktion gegenüber mißtrauischer. Und wenn manche der neuen Mittelklasse- Religionen weltliche Güter zugunsten weniger greifbarer gemeinschaftlicher « Güter » exorzieren, dann ist die konsumorientierte Gesellschaft in Frage gestellt, seltsam genug gerade von denen, die in ihrem Wohlstand großgezogen wurden. Was einst eine klare Gewinn-Strategie war und den Status einer Fast-Wahrheit hatte, wurde nun zur Quelle ständiger Streitigkeiten zwischen Untergruppen der Bevölkerung. Oder, wenn diese Illustrationen zu abstrakt erscheinen, stellen Sie sich die verschiedenen Arten von Konflikten zwischen Gruppen vor, die bei der Stadterneuerung, dem Straßenbau oder der Lehrplangestaltung in öffentlichen Schulen auftauchen können. Unsere Beobachtung bezieht sich nicht nur darauf, daß Werte sich ändern. Das ist wahr genug, und die Wahrscheinlichkeit parametrischer Veränderungen ist groß genug, um selbst den scharfsichtigsten Beobachter derzeitiger Normen zu verunsichern. Auf was wir eigentlich hinauswollen, ist, daß verschiedene Gruppen von Individuen unterschiedliche Werte haben – was den einen zufriedenstellt, ist für den anderen schrecklich, was für den einen eine Problemlösung bedeutet, erzeugt für den anderen gerade Probleme. Unter solchen Umständen und ohne eine umfassende Sozialtheorie oder eine umfassende Sozialethik gibt es keine Möglichkeit, vorherzusagen, welche Gruppe recht hat und welcher man zur Durchsetzung ihrer Ziele verhelfen sollte. Ein traditioneller Ansatz für den Ausgleich zwischen sozialen Werten und individueller Wahl ist es, die tatsächliche Entscheidung den klugen und wissenden Experten und Politikern anzuvertrauen. Aber ob man das ethisch vertretbar findet oder nicht – wir hoffen, klargemacht zu haben, daß auch eine derartige Taktik nur Fragen aufwirft, da es keine wertfreien, richtig-falsch-Antworten für all jene bösartigen Probleme gibt, mit denen Regierungen zu tun haben. Professionelles Expertenurteil anstelle von Urteilen widerstreitender politischer Gruppen zu setzen, mag die Begründungen und die Rückwirkungen klarer machen, aber es verbessert
DILEMMAS IN EINER ALLGEMEINEN THEORIE DER PLANUNG 037
nicht unbedingt die Ergebnisse. Die eine beste Antwort ist möglich, wenn es sich um zahme Probleme handelt, aber nicht bei bösartigen Problemen. Ein anderer traditioneller Ansatz für den Ausgleich zwischen sozialen Werten und individueller Wahl ist es, letzterem mehr Gewicht zu geben. Entsprechend würde man eine große Differenzierung von Gütern, Diensten, Situationen und Gelegenheiten fördern, so daß Individuen mehr ihren individuellen Vorlieben nachgehen können. Wo Probleme im Groß-System auftauchten, würde man versuchen, die schädlichsten Auswirkungen zu korrigieren. Wenn verborgene Möglichkeiten sichtbar würden, würde man versuchen, sie auszunützen, wo positive Nicht-Nullsummen-Strategien entwickelt werden könnten, würde man selbstverständlich intensiv daran arbeiten, sie einzuführen. Wie auch immer die Taktik ist, es sollte klar sein, daß auch der Experte Teilnehmer in einem politischen Spiel ist, der versucht, seine private Ansicht von Güte auf andere auszudehnen. Planung ist ein Bestandteil von Politik. Dieser Wahrheit kann niemand entkommen. Wir vermuten auch, daß keine dieser Taktiken die schwierigen Fragen beantworten kann, die mit jenen bösartigen Problemen verknüpft sind, mit denen sich Planer beschäftigen müssen. Wir haben weder eine Theorie, die gesellschaftliche Güte irgendwie lokalisieren könnte, noch eine, die Bösartigkeit vertreiben könnte, noch eine, die die Gleichheitsprobleme lösen könnte, die durch den wachsenden Pluralismus ausgelöst werden. Wir denken, daß diese theoretischen Dilemmas die bösartigsten Bedingungen darstellen, mit denen wir konfrontiert sind.
1 Carles J. Hitch, «On the Choice of Objectives in Systems Studies», Santa Monica, CA: The RAND Corporation, 1960; P-1955, S. 19. 2 Der Bericht wurde veröffentlicht von Spectrum Books, Prentice-Hall, 1960. 3 Zur selben Zeit freilich behaupteten Gegenstimmen – sehr zum Mißfallen von vielen –, daß die «Ausrichtung der Nation» überhaupt kein bedeutendes Beispiel darstellt, bedingt durch den weltweiten Charakter der Probleme und das Ausufern von Krisen über traditionelle Grenzen hinweg. 4 Science Editions, New York, NY, 1961. 5 Vergleiche ein frühes Anzeichen für dieses wachsende Bewußtsein in: Nathan and Daniel Patrick Moynihan, Beyond the Melting Pot, Cambridge, MA: Harvard and MIT Presses, 1963.
*
Originalfassung in: Policy Sciences 4 (1973), p. 155–169. Dieser Text ist die Modifikation eines Papiers, das auf einer Tagung über Politikwissenschaften der American Association for the Advancement of Science in Boston im Dezember 1969 präsentiert wurde. Übersetzt mit Genehmigung von Kluwer Academic Publishers.
038 ZUR THEORIEB ILDUNG
Zur Planungskrise: Systemanalyse der « ersten und zweiten Generation » (On the Planning Crisis: Systems Analysis of the « First and Second Generations »*)
Zu Beginn möchte ich Ihnen einige Hypothesen über verschiedene Systemansätze vorstellen, wie sie während der letzten zwei Jahrzehnte entwickelt wurden. Der Begriff « Systemanalyse » bedeutet, Planungsprobleme in rationaler, geradliniger, systematischer Weise in Angriff zu nehmen, charakterisiert durch eine Reihe von Haltungen, die ein Systemanalytiker und -planer haben sollte.
Charakteristika des Systemanalytikers und -planers Erstens sollte seine Einstellung zu dem vorliegenden Problem einigermaßen unvoreingenommen sein: Er sollte versuchen, rational, objektiv und wissenschaftlich an die Probleme heranzugehen. Zweitens zeichnet er sich dadurch aus, daß er versucht, das Gesamte des Systems zu begreifen, im Gegensatz zu jemandem, der stückweise Verbesserungen unternimmt. Und da das gesamte System viele Facetten hat und da Planungsprobleme nicht in der Verantwortlichkeit einer einzelnen Diszi plin liegen, muß der Ansatz des Systemanalytikers und -planers notwendigerweise interdisziplinär sein. Manche Systemplaner bezeichnen sich gern als Generalisten im Gegensatz zu den Spezialisten auf einem einzelnen Gebiet. Ein viertes Merkmal ist, daß er zu optimieren versucht, d. h. alle relevanten und wichtigen Aspekte des vorliegenden Planungsproblems in einem einzigen Maß vereint, das er zu maximieren versucht. Der Systemanalytiker hat in einem weiten Sinn mit Ökonomie zu tun, nicht in dem engen monetären oder budgetären Sinn: Er versucht Produktivität durch die Optimierung der Allokation von Ressourcen zu erhöhen. Natürlich wird von einem Systemforscher erwartet, daß er innovativ ist, d. h. daß er neuartige Lösungen aus der Formulierung des Problems oder, wie es auch genannt wird, der « Mission des Projekts » heraus entwickelt.
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 039
Bisherige Ergebnisse des Systemansatzes Auf diesen Ansatz wurde viel Hoffnung gesetzt, und es gibt spektakuläre Beispiele für die Anwendung dieses Systemansatzes. Zum Beispiel hätten ohne den System ansatz weder die NASA-Missionen stattgefunden, noch hätten die großen Verteidigungssysteme existieren können. Weitere Einsätze reichen vom Tarifsystem zur Straßenbenutzung bis zur Fertigungsplanung für eine Firma. Kürzlich wurde vorgeschlagen, diesen Ansatz auf anderen Gebieten, z. B. bei der Stadterneuerung, der Umweltverbesserung, bei der Bewältigung des Ernährungsproblems der Welt bevölkerung, im Gesundheitswesen und sogar in den Straf- und Rechtsvollzugs systemen einzusetzen. Besonders wichtig ist in diesem Zusammenhang die Verwen dung des Computers, von dem man glaubt, daß er alles das möglich macht, was von einem unbewaffneten menschlichen Gehirn nicht behandelt werden konnte. Lassen Sie uns diese Entwicklung aus der Retrospektive betrachten. Allgemein kann man sagen, daß die Ära der Hoffnung und Erwartung, die auf den Sy stemansatz gesetzt wurde, von einer Zeit der Enttäuschung abgelöst wurde. Es besteht, besonders in den Vereinigten Staaten, eine ernsthafte Ernüchterung über die Möglichkeiten und Brauchbarkeit dieser Art von Systemansätzen, wenn sie auf Probleme der oben genannten Art angewendet wurden. Allgemein kann man ohne Übertreibung sagen, daß der klassische Systemansatz nicht das hervorgebracht hat, was von ihm erwartet wurde, und daß er bei einigen großen Projekten nur als gescheitert angesehen werden kann. Außerdem gibt es Anzeichen dafür, daß das Vertrauen in eine breite und vielfältige Anwendungsmöglichkeit dieses Ansatzes schwindet; beispielsweise wurden in den USA die Mittel vieler großer Projekte, bei denen der Systemansatz angewendet wurde, gekürzt oder sogar gestrichen. Viele der Think-tanks und Gruppen, die mit diesem Ansatz zahlreiche staatliche und industrielle Unternehmen beraten haben, stehen sehr schlecht da und reduzieren ihre Größe. Zusätzlich gibt es unter den Leuten, die sich selbst « Systemforscher » nennen, eine beträchtliche Arbeitslosigkeit. Die mit dieser Art Arbeit in der Raumfahrtindustrie Beschäftigten haben zu Tausenden ihre Arbeit verloren. Letztlich wird jetzt sichtbar, daß sie gerade nicht die Generalisten sind, die mit ihrem Ansatz jedes Problem in Angriff nehmen können, sondern daß sie eher Spezialisten auf einem sehr kleinen Gebiet, z. B. für Raketenleitsysteme oder bestimmte Sy stemprobleme bei der Weltraumfahrt, geworden sind. Bevor wir die Folgen dieser Entwicklung betrachten, möchte ich die M erkmale des traditionellen Systemansatzes analysieren und zeigen, warum dieser Ansatz nicht erwartungsgemäß funktioniert hat. Zur Verdeutlichung nenne ich diesen Systemansatz den Systemansatz der ersten Generation, und ich möchte ihn dem Sy stemansatz der zweiten Generation gegenüberstellen.
040 ZUR THEORIEB ILDUNG
Planungsphasen im Systemansatz der ersten Generation Der Systemansatz der ersten Generation ist durch eine spezifische Vorgehensweise gekennzeichnet, eine ganz bestimmte Abfolge von Schritten oder Phasen bei der Inangriffnahme eines Planungsprojektes. 1. Der erste Schritt, der von verschiedenen Autoren v erschieden benannt wurde, ist, das Problem zu verstehen. 2. Der zweite Schritt ist, Information zu sammeln, besonders um den Kontext aus der Sicht der Problemstellung zu verstehen. Dann geschieht für manche Leute (obwohl andere das leugnen) etwas, das man den « kreativen Sprung » nennt, die große Idee. 3. Der dritte Schritt ist, die Information zu analysieren. 4. Der vierte Schritt ist, die Lösungen, oder wenigstens eine einzige, zu entwickeln. 5. Der fünfte Schritt ist, die Lösungen zu bewerten und sich für diejenige, die am besten abschneidet, zu entscheiden. 6. Der sechste Schritt ist, zu implementieren, dann 7. zu testen und 8. die Lösung wenn nötig zu modifizieren, und für das nächste Mal zu lernen. In verschiedenen Lehrbüchern findet man andere Namen für diese Schritte, aber im wesentlichen sind sie gleich, und es gibt kein Buch über Systemmethoden, das nicht ein erstes Kapitel mit der Beschreibung dieser Phasen enthält. Operations Research ist mit einem besonderen Typ von Systemansatz dieser ersten Generation eng verwandt, mit folgenden Schritten: 1. Definiere den « Lösungsraum »; dieser kann eine Vielfalt von Lösungen sein oder eine Menge von Variablen, deren Kombination die Menge der denkbaren Lösungen bildet. 2. Definiere die einschränkenden Bedingungen (Konstriktionen), d. h., beschreibe, welche dieser Lösungen ausgeschlossen werden müssen, da sie nicht realisierbar sind. 3. Definiere das Effektivitätsmaß. 4. Optimiere den Effektivitätsgrad, d. h., identifiziere oder suche diejenige Lösung im Lösungsraum, die innerhalb der Grenzen der Konstriktionen liegen, und für die das Effektivitätsmaß einen Maximalwert annimmt. Üblicherweise muß bewiesen werden, daß es in der Menge der machbaren Lösungen keine bessere gibt als die, von der « Optimalität » behauptet wird.
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 041
Diese Schritte des Operations Research können in den späteren Phasen des oben beschriebenen « Allgemeinen Systemansatzes » angewandt werden oder die dort beschriebenen Schritte ersetzen.
Schwächen des Ansatzes der ersten Generation: Die Paradoxien der Rationalität Ich möchte nun gerne untersuchen, warum diese Art von Systemansatz bei Planungsproblemen, die gerade nicht im Kontext einer streng autokratischen Entscheidungsstruktur, wie z. B. im Militärwesen, angesiedelt sind (und das sind die meisten Pro bleme der Unternehmens- und Kommunalplanung), nicht funktioniert. Der Systemansatz beruht auf einer gewissen naiven wissenschaftlichen Idee, daß der Wissenschaftler, zusätzlich zur traditionellen Rolle des Sammelns oder Erzeugens von Wissen und dessen Kommunikation, eine weitere Rolle, und zwar jene der Beschäftigung mit praktischen Problemen habe, und daß die Ideale und Prinzipien wissenschaftlicher Arbeit dabei in den Kontext des Planens eingebracht werden. Warum ist es nicht möglich, dies im Kontext praktischer Planungsprobleme, bei Unternehmen oder anderswo, erfolgreich zu tun? Die wichtigsten Gründe dafür sind tieferliegende Paradoxien, die mit dem Konzept der Rationalität zu tun haben. Rationalität hat viele Arten von Definitionen, ich werde eine besonders einfache Definition verwenden: Rationales Verhalten bedeutet den Versuch, die Konsequenzen beabsichtigter Handlungen vorauszusehen. Mit anderen Worten: Erst Denken, dann Handeln. Der Systemansatz der ersten Generation verpflichtet sich, rational zu sein, was bedeutet, daß man versuchen muß, das Problem als ganzes zu verstehen und die Konsequenzen zu beachten. Das ist eine ziemlich bescheidene Definition, der man kaum widersprechen kann, denn wenn jemand nicht in diesem Sinne rational zu handeln versuchte, wäre er unverantwortlich, indem er sich um die Konsequenzen seiner Handlungen nicht kümmerte. Nehmen wir an, jemand versucht ernsthaft in diesem Sinne rational zu sein. Er würde dann versuchen, die Folgen unterschiedlicher H andlungsmöglichkeiten vorauszusehen: « Ich kann dies oder jenes tun, aber bevor ich mich entscheide, muß ich herausfinden, welches die Konsequenzen sein werden. » Indem er das tut, wird er herausfinden, daß Konsequenzen vorauszusehen in sich schon Konsequenzen hat, weil es Zeit, Geld und Mühe kostet, Konsequenzen aufzuspüren, weil es Arbeit bedeutet. Deshalb sollte ich, bevor ich anfange, die Folgen meiner Handlungen herauszufinden, zunächst einmal die Konsequenzen der Suche nach den Konsequenzen meiner Handlung herausfinden. Das hat natürlich wiederum Konsequenzen, denn ich investiere Zeit und Geld, um die Konsequenzen des Aufspürens der Konsequenzen herauszufinden; deshalb müßte ich vor dem Aufspüren der Konsequenzen der Suche nach den Konsequenzen erst einmal die Konsequenzen
042 ZUR THEORIEB ILDUNG
des Aufspürens der Konsequenzen des Aufspürens der Konsequenzen heraus finden. Und jeder weitere Schritt ist nicht unbedingt leichter oder einfacher als der vorhergehende, denn die zu beantwortenden Fragen werden immer grundsätz licher. Deshalb kann man nicht anfangen, rational zu sein: Man müßte immer einen Schritt früher anfangen. Die zweite Paradoxie der Rationalität kann wie folgt veranschaulicht werden: Nehmen wir an, jemand schafft es irgendwie, rational zu sein. Dann ist er mittendrin im Aufspüren von Konsequenzen, das bedeutet, er kommt zu der Erkenntnis, daß jede Konsequenz Konsequenzen hat, was wiederum bedeutet, daß es für ihn keinerlei Grund gibt, zu irgendeinem Zeitpunkt aufzuhören, Konsequenzen aufzuspüren, da man von jeder Konsequenz weitere Konsequenzen erwarten kann. Deshalb kann er, wenn er einmal geschafft hat, anzufangen rational zu sein, nie wieder damit aufhören, denn er hört nur aus Gründen, die außerhalb der Logik oder der Rationalität liegen, damit auf, d. h., er hat entweder kein Geld, keine Zeit oder keine Geduld mehr. Von der Natur der Logik des Problems her jedoch gibt es keinen Grund, das Aufspüren von Konsequenzen zu beenden. Wenn man also einmal damit angefangen hat, rational zu sein, kann man es nicht mehr abstellen. Die dritte Paradoxie der Rationalität besteht darin, daß man, je erfolgreicher man damit ist, rational zu sein (und ich nehme an, daß es möglich ist), umso handlungsunfähiger wird. Und zwar deshalb, weil, je weiter man Kausalketten von Konsequenzen in die Zukunft hinein entwickelt, desto mehr Ungewißheit eintritt und je weiter in die Zukunft eine Kette von Kausalwirkungen entwickelt wird, man desto weniger sagen kann, welches dieser Endszenarios eventuell als Konsequenz einer bestimmten Handlungsmöglichkeit der Fall sein wird. Das bedeutet, je erfolgreicher man damit ist, rational zu sein, umso weniger kann man aus seinen Überlegungen ableiten, was man jetzt tun sollte. Auf lange Sicht sind wir alle tot; unabhängig davon, was wir jetzt tun. Daraus folgt: Auch wenn es uns gelänge, rational zu sein, hilft es uns nicht. Eine vierte Paradoxie der Rationalität ist das des « sich-selbst-Enthaltens ». Um Konsequenzen erwogener Handlungen studieren zu können, braucht man ein Modell (eine kausale Beschreibung der Phänomene, die durch die erwogenen Handlungen beeinflußt werden oder die die Handlungen beeinflussen). Nun sollte dieses Modell, da man sich um alle Konsequenzen bemüht, alle wichtigen Fak toren oder Phänomene enthalten und beschreiben. Aber was ist wichtiger als das kausale Modell selbst, das bestimmt, was als Konsequenz verfolgt werden kann? Deshalb sollte das Modell Teil des Modells sein, da es beeinflußt, was als Konsequenz herausgefunden werden kann. Mit anderen Worten, ein Modell sollte sich selbst enthalten – und das ist unmöglich.
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 043
« Bösartige » Probleme und « zahme » Probleme Das sind die ernsthaftesten Bedenken gegen den Systemansatz der ersten Generation. Über Paradoxien nachzudenken ist keine philosophische Spielerei, sondern von extremer praktischer Bedeutung. Betrachten wir den Ansatz nun von einer anderen Seite, indem wir die Natur von Planungsproblemen studieren und sie den Problemen von Wissenschaftlern, Ingenieuren oder Schachspielern gegenüberstellen. Ich möchte zwei Typen von Problemen beschreiben und gegenüberstellen: Die einen nenne ich « zahme » Probleme, die anderen « bösartige » Probleme. Die meiste Forschung über Kreativität und Problemlösungsverhalten befaßt sich mit « zahmen » Problemen, weil sie so einfach zu behandeln und zu kontrollieren sind. Bedauerlicherweise weiß man nur wenig über die Behandlung von « bösartigen » Problemen oder über die Personen, die sich eigentlich damit befassen, denn « bösartige » Probleme können nicht in einer Versuchsanordnung simuliert werden. Alle wesentlichen Planungsprobleme sind jedoch bösartig, und der systemtheoretische Ansatz der ersten Generation ist nur für mehr oder weniger zahme Probleme geeignet (z. B. für eine quadratische Gleichung oder ein Schachproblem, eine chemische Analyse oder ein Optimierungsproblem beim Operations Research).
Eigenschaften von bösartigen Problemen und zahmen Problemen im Vergleich 1. Die erste Eigenschaft ist, daß ein zahmes Problem erschöpfend formuliert werden kann, so daß man es auf einen Zettel schreiben und einer geeigneten Person geben kann, die es eventuell ohne jede zusätzliche Information lösen wird. Nicht so bei bösartigen Problemen. Wenn ich jemandem sage, das Problem bestehe darin, daß wir in unserem Unternehmen ein Managementinformationssystem brauchen oder ob wir ein neues Produkt in unsere Produktpalette aufnehmen sollen, kann ich es aufschreiben, ihm das Papier geben und ihn einschließen. Aber nach kurzer Zeit wird er herauskommen und mehr Informationen wollen: Von was für einem neuen Produkt ist die Rede?, Wie wird es die bestehenden Herstellungsabläufe beeinflussen?, Welche Märkte erwarten Sie sich für Ihr Produkt? etc. Man könnte sagen, daß man diese Informationen bereits im voraus aufgelistet haben könnte, weil damit zu rechnen ist, daß die Person sie brauchen wird. Aber das Störende daran ist, daß die nächste Frage nach mehr Information von einmaliger Art ist, da sie vom bis dahin erreichten Lösungsstand abhängt. Zum Beispiel ist die Lösung für die Einführung eines neuen Produktes an dem Punkt angelangt, daß Sie sagen: « Gut, ich möchte fünf Maschinen vom Typ A, die gekauft werden müssen. » Dann hängt die nächste Frage von dieser Entscheidung ab, denn
044 ZUR THEORIEB ILDUNG
es muß beispielsweise ermittelt werden, ob die Decken im dritten Stock diese Maschinen tragen. Diese Frage hätte sich nicht gestellt, wenn Sie sich nicht für diese Maschinen und ihre dortige Aufstellung entschieden hätten. Die Frage hängt von dem aktuellen Stand des Produktionsprozesses ab, und die nächste Frage kann von dem, der das Problem formuliert, nicht bereits am Anfang vorausgesehen werden. Um für ein bösartiges Problem im voraus erschöpfende Information zu liefern, muß man erst alle potentiellen Lösungen voraussehen, um sich alle auftauchenden Fragen auszudenken, was bedeutet, daß man ein Problem nicht mehr zu delegieren braucht, weil man es selber lösen kann. Die erste Eigenschaft von bösartigen Problemen ist, daß es keine definitive Formulierung für sie gibt. Das ist ein ernsthafter Einwand gegen den Systemansatz der ersten Generation, dessen erster Schritt in der « Güterzug »-Phasenabfolge « das Problem verstehen » ist, bevor man weitermacht und es löst. Die obige Überlegung zeigt aber, daß man das Problem nicht verstehen kann, ohne es zu lösen, und das Problem zu lösen, bedeutet gleichzeitig, es zu verstehen. Aber wie kann man das Problem verstehen, wenn man nicht ausreichend Information haben kann, ohne das Problem zu lösen? 2. Die zweite Eigenschaft im Gegensatz zu zahmen P roblemen ist die, daß jede Formulierung von bösartigen Problemen mit einer Aussage über die Lösung korrespondiert und umgekehrt. Wenn ich sage, das Problem ist, eine Maschine zu bekommen, die eine Million Operationen ausführt, dann ist diese Maschine eine Lösung; wenn ich sage, diese Maschine sollte nicht schwerer als 500 kg sein, dann ist genau dies die Lösung. Das bedeutet, daß das Verstehen des Problems mit dem Lösen identisch ist. Welche Aussage man auch immer über das Problem macht, es ist eine Aussage über die Lösung. Das ist ganz anders als bei zahmen Problemen, wo eines das Problem ist und das andere die Lösung, und sehr verschieden von dem Begriff eines Problems, wie ihn die Befürworter des Ansatzes der ersten Generation im Sinn hatten. 3. Die dritte Eigenschaft ist die, daß es für bösartige Pro bleme keine « Stopp-Regel » gibt. Wenn man bei einem Schachproblem über drei Züge einmal die Kombination der Züge herausgefunden hat, weiß man, daß man es geschafft hat und das Problem gelöst hat; wenn man eine Gleichung hat und auf etwas wie x = y kommt, weiß man, daß man es geschafft hat. Aber bei einem bös artigen Problem ist das nicht so: Man kann immer versuchen, es besser zu machen, und es gibt nichts in der Natur des Problems, was dem ein Ende setzen könnte. Bei Planungsproblemen hört man auf, weil man keine Zeit, kein Geld oder keine Geduld mehr hat; aber das hat mit der Logik des Problems nichts zu tun; man kann immer versuchen, es besser zu machen.
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 045
4. Die vierte Eigenschaft: Wenn für ein zahmes Problem eine Lösung gefunden ist, kann man sie überprüfen, ihnen eines der Attribute « richtig » oder « falsch » zuweisen und Fehler und Irrtümer genau bestimmen. Bei bösartigen Problemen ist das nicht so: Die Kategorien richtig oder falsch treffen nicht zu: Wir können nicht sagen, dieser Grundriss für einen Betrieb oder der Plan für eine Stadt sei richtig oder falsch. Wir können nur sagen, er sei « gut » oder « schlecht », und das noch in unterschiedlichem Ausmaß und eventuell auf verschiedene Weise für verschiedene Menschen; denn normalerweise ist, was für A gut ist, keinesfalls auch gut für B. Das ist das Schicksal aller Lösungen bösartiger Probleme: Es gibt weder ein System von Kriterien noch Regeln, die einem sagen würden, was richtig oder falsch ist. Man kann nur sagen: « Ich glaube, das ist ganz gut, auch wenn du findest, es sei nicht so. » Das heißt also, für bösartige Probleme ist richtig/falsch nicht anwendbar. 5. Für zahme Probleme gibt es eine erschöpfende Liste erlaubter Operationen. Nehmen wir als Beispiel ein Schachproblem: Zu Beginn eines Schachspiels hat man die Wahl zwischen 20 Zügen, und beim Schach ist es nicht sehr sinnvoll, während des Spiels neue Züge zu erfinden; oder bei einer chemischen Analyse gibt es die Wahl zwischen einigen hundert erlaubten Möglichkeiten des Vorgehens, jedoch ist es nicht gestattet, Veränderungen an den Instrumenten vorzunehmen oder die Festsetzung des Meters zu ändern. Aber auch das ist bei bös artigen Problemen anders. Es gibt keine erschöpfende, aufzählbare Liste erlaubter Operationen; alles ist möglich, alles eine Sache der Grundsätze und der Phantasie. 6. Ein Problem kann als Diskrepanz ausgedrückt werden, als Vergleich zwischen Ist und Soll. Die nächste Überlegung bei der Lösung von Problemen dieser Art ist die Frage: Warum ist es nicht so, wie es sein sollte? Und nach Gründen für die Existenz dieser Diskrepanz, nach Ursache und Erklärung zu suchen. Der Haken ist, daß es bei bösartigen Problemen viele Erklärungen für dieselbe Diskrepanz gibt, und, daß es sich auch nicht überprüfen läßt, welche dieser Erklärungen die beste ist. Wenn Sie beispielsweise sagen, Ihre Produktion sei nicht effizient genug, dann könnten Sie meinen, der Grund liege in zu alten Maschinen oder in einem inadäquaten Zeitplan, und Sie können versuchen, dafür Beweise zu finden. Aber Sie können auch sagen, es liegt daran, daß der Produktionsleiter nicht der richtige Mann ist. Abhängig davon, welche Erklärung Sie für die Diskrepanz wählen, wird die Lösung in eine andere Richtung gehen. Wenn Sie glauben, die Persönlichkeit des Produktionsleiters hätte Schuld, werden Sie ihn entlassen; wenn Sie aber meinen, die Ausstattung sei nicht adäquat, werden Sie eine neue Ausstattung kaufen oder Möglichkeiten zum Ersatz dieser Ausstattung suchen. Die Richtung, in die die Lösung geht, hängt von dem allerersten Schritt der Erklärung ab (warum gibt es da ein Problem?), der der entscheidende Schritt beim Umgang mit bösartigen Problemen ist.
046 ZUR THEORIEB ILDUNG
7. Jedes zahme Problem hat eine bestimmte natürliche Form, und es gibt keinen Grund, z. B. über die Problemebene zu diskutieren. Aber jedes bösartige Problem kann als Symptom eines anderen Problems betrachtet werden, und man ist nie sicher, daß man das Problem auf dem richtigen Niveau angeht, weil natürlich niemand versuchen sollte, Symptome zu kurieren, da Kurieren von Symptomen die eigentliche Krankheit verschlimmern kann. Deshalb sollte man niemals zu sicher sein, daß man das Problem wirklich so wie vorgesehen angehen sollte. Wenn jemand sagt: « Wir haben Schwierigkeiten mit unserem Lagerverzeichnis und dadurch oft Verzögerungen », kann man das immer als ein Symptom, z. B. der generellen Personalpolitik oder der Organisation der Einkaufsabteilung verstehen. Wir sollten nicht zu früh darauf schließen, daß das Lagerverzeichnis neu organisiert werden muß, denn vielleicht sollten wir vielmehr das umfassendere System angehen. 8. Wie schon gesagt, kann die Lösung eines Schachproblems überprüft werden. Für ein bösartiges Problem gibt es weder eine sofortige noch eine endgültige Überprüfungsmöglichkeit, weil jede Maßnahme, die zur Lösung des Pro blems durchgeführt wurde, im Laufe der Zeit Konsequenzen haben kann – nächstes Jahr gibt es vielleicht eine andere Konsequenz, die sehr viel dazu beiträgt, wie Sie Ihren Plan beurteilen. Es gibt kein zeitliches Ende für die möglichen Konsequenzen der Lösung eines Problems, und deshalb gibt es keine endgültige Überprüfung, weil es immer weitere Konsequenzen, die katastrophal sein können, geben kann, als Folge eines Plans, der sich dadurch als sehr schlecht erweist. 9. Ein Schachproblem kann immer wieder von neuem durchgespielt werden; wenn man eine Gleichung nicht beim ersten Versuch lösen kann, versucht man es noch einmal; man braucht nur etwas Papier, einen Stift und Zeit. Wenn man eine quadratische Gleichung gelöst hat, hat man sie alle gelöst, weil der Lösungsweg für die eine der Lösungsweg für die ganze Klasse der Gleichungen zweiten Grades ist. Es gibt prototypische Lösungen für alle Klassen von zahmen Problemen. Man kann jedoch nur bis zu einem gewissen Grad mögliche Konsequenzen voraussehen oder simulieren, um eine Vorstellung davon zu bekommen, ob etwas eine geeignete Maßnahme für ein bösartiges Problem ist oder nicht, da die Lösung eines bösartigen Problems nie wiederholt werden kann. Jede Lösung eines bösartigen Problems ist eine « one-shot-operation ». Man kann nicht ungeschehen machen, was man beim ersten Versuch gemacht hat; jeder Versuch zählt und ist sehr konsequenziell: Man kann nicht eine Fabrik bauen, schauen, wie sie funktioniert, sie wieder abreißen und immer wieder neu aufbauen, bis sie funktioniert. Es gibt keinen Versuch und Irrtum. Es gibt kein Experimentieren beim Umgang mit bösartigen Problemen.
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 047
10. Jedes bösartige Problem ist wesentlich einzigartig. Das ist insofern störend, als man nicht für das nächste Mal lernen kann; man kann nicht erfolgreiche Strategien einfach aus der Vergangenheit in die Zukunft übertragen, da man niemals weiß, ob das nächste Problem nicht eine Charakteristik, eine Eigenschaft, hat, die es von den vorhergehenden Problemen hinlänglich unter scheidet, so daß die alte Lösung nicht mehr funktioniert. Anscheinend ähnliche Probleme legen nahe, die Lösung aus einem Kontext auf den anderen zu übertragen, und nur eine nähere Analyse zeigt, daß es weitere, sehr wichtige Faktoren gibt, die in diesen beiden Situationen verschieden sind, so daß eine solche Übertragung nicht ratsam ist. Bei der Behandlung von bösartigen Problemen sollte man nie vorschnell über die Art der Lösung entscheiden und ob eine alte Lösung in einem neuen Kontext wieder verwendet werden kann. 11. Im Gegensatz zum « Zahme-Probleme-Löser », der, ohne dafür zur Rechenschaft gezogen zu werden, ein Schachspiel verlieren oder gewinnen oder eine falsche Hypothese aufstellen darf, die von irgend jemand widerlegt wird, hat der « Bösartige-Probleme-Löser » kein Recht auf Irrtum. Er ist verantwortlich für das, was er tut.
Die Konsequenzen dieser Eigenschaften von bösartigen Problemen für den Systemansatz Wenn Sie sich an das eingangs dargestellte Güterzug-Modell von Schritten oder Phasen erinnern und es mit den elf Eigenschaften bösartiger Probleme vergleichen, werden Sie zahlreiche Widersprüche bemerken, die verantwortlich für die Nutz losigkeit des Ansatzes der ersten Generation für bösartige Probleme sind – und alle unsere Probleme sind bösartig. Der erste Schritt war, « das Problem verstehen ». Aber entsprechend der Eigenschaften 1 und 2 unserer Liste kann man das Problem nicht verstehen und formulieren, ohne es gelöst zu haben. Wenn wir ein Problem nicht verstehen können, kann Schritt 1 nicht ausgeführt werden, ohne bis zu Schritt 6 der alten Liste durchgegangen zu sein. So kann man keine Information bekommen, ohne eine Idee von der Lösung zu haben, da die Fragen, die sich stellen, von der Art der Lösung abhängen, die man im Auge hat. Dann ist die Erzeugung von Lösungsvielfalt kein abtrennbarer Schritt: Sie geschieht immerzu. Mit dem ersten Schritt der Erklärung des Problems bestimmt man bereits die Art der Lösung. Die erste Aussage über ein Problem ist bereits eine Aussage über seine Lösung. Man kann die Erzeugung von Lösungen nicht vom Verstehen des Problems trennen etc. Sie können das mit allen acht Schritten des Ansatzes der ersten Generation durchspielen, und ich behaupte, daß es genügend
048 ZUR THEORIEB ILDUNG
Evidenz gibt, den Systemansatz der ersten Generation zur Behandlung bösartiger Probleme abzulehnen. Schauen wir uns jetzt Operations Research an, das mit diesem Ansatz verwandt ist und bei dem ebenfalls verschiedene Schritte vorkommen: Lösungsraum bestimmen, Effektivitätsmaß bestimmen, System der Konstriktionen bestimmen etc. Wenn das alles einmal getan ist, beginnt Operations Research: Man beginnt zu optimieren, mit linearer Programmierung etc. Das bedeutet, daß das Sammeln von Information durchgeführt sein muß, bevor Operations Research beginnen kann. Aber ist nicht die Erzeugung dieser Information (welche Lösung ist als Alternative in Betracht zu ziehen, was kann als gut oder bestens angesehen werden, und welches sind die Konstriktionen bei meinem Problem?) gerade die Schwierigkeit? Wenn man diese Fragen einmal beantwortet hat, sind die meisten Probleme bereits gelöst, und was übrig bleibt, ist ein Suchprozeß nach einem wohldefinierten Optimum. Aber Operations Research beginnt erst, wenn das Problem seine Bösartigkeit verloren hat, wenn man definiert hat, was eine hinreichend akzeptable, machbare Lösung ist. Man kann sich auf den Standpunkt stellen, Konstriktionen seien « natürliche Gegebenheiten ». Aber das ist nicht so. Jede Konstriktion stellt eine Entscheidung dar, vorwiegend eine Entscheidung der Resignation. Ein Beispiel: Ein Unternehmen, das Fertigteile für Gebäude herstellt, möchte diese auf LKWs transportieren. Die LKWs müssen ein bestimmtes Gebiet beliefern. Die Höhe der niedrigsten Unterführung in diesem Gebiet bestimmt die größtmögliche Höhe eines LKWs plus Bauteil. Das ist eine Konstriktion: LKW-Ladefläche plus Höhe des Bauteils sollten die Höhe der Unterführung nicht überschreiten. Aber damit hat man schon implizit mitentschieden, nicht die kritische Unterführung zu beseitigen: Man könnte sie etwas erhöhen, wenn es wichtig genug ist, die Bauteile etwas größer oder höher zu machen. Es könnte sich auszahlen, das Bauteil per Hubschrauber über die Unterführung hinüber zu schaffen oder die Unterführung etwas anzuheben. Es ist keinesfalls eine natürliche Konstriktion; es bedeutet nur, daß man sich mit der unabänderlichen Existenz eines kritischen Umstandes abgefunden hat. Die Konstriktion ist keineswegs eine technische und objektiv gesetzte logische Gegebenheit; jede Konstriktion oder Einschränkung, die ich meinem Handlungsspielraum auferlege, ist eine Entscheidung oder zumindest ein implizites Zeichen von Resignation.
Einige Prinzipien des Systemansatzes der zweiten Generation 1. Das Wissen, das man für ein Planungsproblem, ein bös artiges Problem, benötigt, ist nicht in irgendeinem einzigen Kopf konzentriert; für bösartige Probleme gibt es keine Spezialisten. Die nötige Expertise, die man zum Umgang mit einem bösartigen Problem braucht, ist in der Regel auf viele Leute verteilt. Die besten Experten mit dem besten Wissen sind in der Regel diejenigen, die von
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 049
einer Lösung möglicherweise betroffen sind. Deshalb sollte man die Betroffenen und nicht die Experten fragen. In der Schule lernt man nicht, mit bösartigen Problemen umzugehen; man lernt etwas über Inventarisierungssysteme, über Operations Research oder über Produktionstechnologien, aber nicht geeignete Eingriffe in einer bestimmten Situation einer Organisation. (Ich übertreibe bewußt.) Wissen und Nichtwissen ist bei einem bösartigen Problem auf alle Beteiligten verteilt. Es gibt eine Symmetrie der Ignoranz unter den Beteiligten, da niemand aufgrund seiner Titel oder seines Status etwas besser weiß. Es gibt keine Experten (was für Experten irritierend ist), und wenn es Experten gibt, sind sie nur Experten dafür, den Prozeß der Behandlung eines bösartigen Problems zu leiten, aber nicht für die spezielle Fragestellung des Problems. 2. Das zweite Prinzip des Ansatzes der zweiten Generation beruht auf der Erkenntnis, daß niemand « verplant » werden will. Die dramatisch sten Beispiele dafür sind die amerikanischen Stadterneuerungsprojekte, wo die Bevölkerung dagegen revoltiert, verplant zu werden. Die errichteten Häuser können noch so hübsch und bewohnbar sein, die Tatsache, daß sie von oben aufgezwungen wurden, macht sie unbrauchbar. Die Konsequenz daraus ist, daß Planungs methoden der zweiten Generation versuchen, diejenigen, die betroffen sind, zu Beteiligten des Planungsprozesses zu machen. Sie werden nicht nur gefragt, sondern aktiv in den Planungsprozeß einbezogen. Das bedeutet eine Art maximierter Einbeziehung. Sogar bei Unternehmen scheint es der Fall zu sein, daß Planung von oben immer unpopulärer wird. 3. Das nächste Prinzip ist, daß bei der Entwicklung einer ösung für ein bösartiges Problem bei jedem einzelnen Schritt ein Urteil gefällt L wird, das nicht auf wissenschaftlicher Erkenntnis beruht. Immer ist damit eine « Soll »-Aussage verbunden. Bei jedem Schritt gibt es immer eine Schlußfolgerung, die mit « tu dies oder das » endet. Das ist eine sogenannte « deontische Prämisse », d. h. eine persönliche Prämisse der « Soll »-Art, die nicht durch professionelle Expertise gerechtfertigt ist, sondern ein Zeichen politischer, allgemein moralischer oder ethischer Haltung ist. Allein aus dem Ergebnis des Planungsprozesses kann man folglich nicht rekonstruieren, welche deontischen Aussagen in die Argumen tation Eingang fanden, die zur Lösung führte. Folglich kann man auch denjenigen, der ein bösartiges Problem löst, aufgrund jener mehr oder weniger impliziten deontischen Annahmen, während des Lösungsprozesses nicht mehr kontrollieren. Wenn das so ist, dann gibt es einerseits einen Grund mehr, andere zu beteiligen, um diese Prämissen aufzudecken, andererseits ist es notwendig, Methoden zu suchen, die den Planungsprozeß transparenter machen. Diese Methoden sollten dazu führen, daß jeder Schritt des Planungsprozesses verständlich und mitteilbar oder « transparent » ist.
050 ZUR THEORIEB ILDUNG
4. Wie schon erwähnt, ist es ein wesentliches Merkmal bös artiger Probleme, daß es nicht Richtig oder Falsch gibt, sondern nur Gut oder Schlecht. Aber wer sagt, ob ein Plan und die Lösung eines Problems gut oder schlecht ist? Tatsächlich hat jeder die Berechtigung zu sagen, ob er von dem Plan positiv oder negativ betroffen ist. Es gibt keine Möglichkeit zu behaupten, A’s Urteil über den Plan sei höher zu bewerten als das Urteil von B. Es gibt keine Berechtigung dafür, weil es keine Experten mehr gibt (im Unterschied z. B. zur Situation eines Arztes, denn er ist ein Experte). Wenn A sagt, der Plan sei großartig und B findet ihn miserabel, wer hat recht? Daher sollten wir zu dem Schluß kommen, zu sagen « jedermann ist berechtigt, sein Urteil über den Plan abzugeben ». Wir brauchen Verfahrensweisen, die uns ermöglichen, uns gegenseitig zu erklären, warum der eine den Plan für großartig hält und der andere ihn für schlecht. Viele Methoden beschäftigen sich mit dem Problem, wie man jenen Prozeß unterstützen kann, in dem die Grundlagen von jemandes Urteil explizit gemacht und anderen mitgeteilt werden. Wir nennen diesen Prozeß « Objektifizierung ». Das ist etwas anderes, als etwas zu objektivieren, denn etwas zu objektivieren im wissenschaftlichen Sinn bedeutet, ein Verfahren zu erfinden, bei dem das Ergebnis unabhängig von der ausführenden Person ist. Zum Beispiel sagt man in der Meßtechnik, man habe etwas erfolgreich objektiviert, wenn es keine Rolle spielt, wer die Messung durchführt. Wir sprechen von einer objektiven Situation oder einem Verfahren, das zu objektiven Aussagen führt: Je weniger es eine Rolle spielt, wer es ausführt, desto objektiver würde das Ergebnis sein. Aber wie wir gesehen haben, spielt es hier eine Rolle, wer urteilt, wer die Aussage macht oder wer den Planungsprozeß durchführt. In der Planung können wir nie objektiv im wissenschaftlichen Sinn sein und daher gibt es auch nicht so etwas wie wissenschaftliche Planung. Das ist sehr verschieden von wissenschaftlicher Vorgehensweise, weil es eine Rolle spielt, wer den Prozeß durchführt und wer beteiligt ist: Mit « Objektifizierung » meinen wir, daß wir über die Grundlagen unseres Urteils erfolgreich Information austauschen müssen. Wenn Sie mir sagen können, warum Sie Plan A großartig finden, und ich Ihr Urteil verstehe, dann haben Sie mir Ihr Urteil erfolgreich objektifiziert. Und auch wenn ich vielleicht Ihr Urteil nicht teile und nicht davon überzeugt bin, verstehe ich Sie jetzt. Der Systemforscher der zweiten Generation hofft, daß besseres gegenseitiges Verständnis der Grundlagen der Urteile anderer, es wenigstens nicht weniger wahrscheinlich macht, zu einer Übereinstimmung zu kommen. Mehr Überlegung führt nicht zu Übereinstimmung, es kann jedoch zu Verständnis führen; man kann Übereinstimmung nicht erzwingen, aber die Wahrscheinlichkeit zu einer Übereinstimmung und der beidseitige Lerneffekt sind größer.
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 051
Die Hoffnung in diesem Prozeß der Objektifizierung ist folgende: • weniger zu vergessen: Wenn Sie mir Ihre Version oder Geschichte darlegen, vergesse ich vielleicht weniger als andernfalls; • Zweifel anzuregen: Wenn Sie Ihre Geschichte erzählen müssen, wird sie wahrscheinlich Zweifel anregen und das ist gut so, denn nur der Zweifel ist ein Test für Pläne; • die richtigen Issues aufzuwerfen: Objektifizierung wird Ihnen helfen, die Fragen zu identifizieren, die die Mühe lohnen, die das größte Gewicht haben und über die die meiste Uneinigkeit besteht. Wenn wir einig sind, brauchen wir weder etwas zu diskutieren noch zu analysieren. Wenn wir erheblich uneinig sind, und es wichtig ist, müssen wir es diskutieren und analysieren; • die Delegation der Urteilsbildung zu kontrollieren: Wenn ich Sie für mich planen lasse, sollten Sie mir schon objektifizie ren, wie Sie vorgehen, denn ich möchte über die delegierte Urteilsbildung eine gewisse Kontrolle haben; • die Überzeugung, daß Klarheit hilfreich ist, was nicht für alle Lebensbereiche gilt. Es gibt einige Situationen, wo man besser nicht allzu deutlich ist. 5. Ein weiteres Prinzip des systemtheoretischen Ansatzes der zweiten Generation ist, daß es keine wissenschaftliche Planung gibt. Nach diesen Überlegungen leuchtet das von selbst ein, aber oft wird über die « Verwissenschaftlichung » der Planung geredet (Behandlung praktischer Probleme mit wissenschaftlichen Methoden). Der Umgang mit bösartigen Problemen ist immer politisch. In der Planung gibt es kein losgelöstes, wissenschaftliches, objektives Verhalten; Planung ist immer politisch aufgrund jener deontischen Prämissen. 6. Der Planer der zweiten Generation ist kein Experte; er sieht seine Rolle als jemand, der eher hilft, Probleme ans Licht zu bringen, als Lösungen für Probleme anzubieten. Er ist eher eine Art Hebamme für Probleme, als jemand, der Therapien anbietet. Er ist eher Lehrer als Arzt. Natürlich ist das eine bescheidene und nicht sehr heroische Rolle, die ein solcher Planer spielen kann. 7. Ein anderes Merkmal dieses Planers ist es, daß er aus einer vorsichtigen, gemäßigten Respektlosigkeit, d. h. aus gezieltem Zweifel an etwas, eine Tugend macht.
052 ZUR THEORIEB ILDUNG
8. Moderater Optimismus, ein weiteres Prinzip: Obwohl der Planer sein Dilemma der Rationalität und die Natur bösartiger Probleme kennt, muß er wenigstens gemäßigt optimistisch sein. Moderater Aktivismus und Optimismus ist Teil seines Verhaltens. Er ist verpflichtet, rational zu sein, obwohl es unmöglich ist – eine schwierige Situation. Entweder muß er die Behandlung bösartiger Probleme aufgeben und damit überhaupt das Planen, oder er muß zu dem Schluß kommen, daß er auf jeden Fall etwas versuchen sollte. 9. Das Modell, das man anstatt des Expertenmodells der e rsten Generation benutzen könnte, kann als ein konspiratives Planungsmodell bezeichnet werden. Das bedeutet: Da wir nicht alle Konsequenzen unseres Plans voraussehen können, ist jeder Plan, jede Behandlung eines bösartigen Problems ein Wagnis, wenn nicht gar ein Abenteuer. Deshalb sollten wir das Risiko verteilen, versuchen, Komplizen zu finden, die bereit sind, sich mit uns auf das Problem einzulassen. Für einen allein ist es zu riskant, aber wenn wir unsere Kräfte vereinen, können wir das Risiko vielleicht eingehen und mit der Unsicherheit leben und das Wagnis unternehmen. Das scheint mir ein haltbarer Standpunkt zu sein, um den Mut zur Planung überhaupt zu rechtfertigen. 10. Während der Planungsprozeß der ersten Generation auch in Einzelhaft durchgeführt werden kann, mit langen Abfolgen von Einzelschritten, nach denen man gemäß den Regeln der Kunst vorgehen kann, muß der Planungsprozeß der Lösung bösartiger Probleme als argumentativer Prozeß verstanden werden: Ein Prozeß, in dem Fragen und Themen aufgeworfen werden, zu denen man unterschiedliche Standpunkte (Positionen) einnehmen kann, zu denen Beweise eingeholt und Argumente für und gegen die verschiedenen Standpunkte formuliert werden. Die verschiedenen Positionen werden diskutiert, und nachdem eine Entscheidung getroffen wurde, fährt man fort, bis die nächste Frage in diesem Prozeß auftaucht. Zum Beispiel könnte das Thema der Standort einer Fabrik sein. Man kann natürlich der Ansicht sein, das sei die falsche Frage, da man zunächst einmal diskutieren müßte, ob man überhaupt eine Fabrik bauen sollte. Nehmen wir jedoch einmal an, wir hätten entschieden, « ja, wir wollen eine Fa brik bauen ». Es gäbe drei mögliche Standorte. Wir können dann die verschiedenen Positionen für und gegen diese drei Standorte einnehmen, um dann zu einer Meinung zu kommen, welcher von diesen der beste ist. Wenn wir einmal unsere Meinung gebildet haben, welchen wir für den besten halten, gehen wir weiter. Soll es ein ein- oder zweistöckiges Gebäude werden? – Und damit fängt die ganze Prozedur wieder von vorne an. Jede Frage nach einer Entscheidung kann mit einem Argument gestützt werden, und in Wirklichkeit tun wir das auch dauernd: Wir schlüsseln unser Urteil auf (deliberieren es) – und was ist Deliberieren denn anderes, als Pros und Contras zu identifizieren und abzuwägen, Debatten und Argumente im Kopf zu simulieren? Systematische Methoden der zweiten Generation
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 053
versuchen, diese Deliberation explizit zu machen, sie zu unterstützen und Mittel zu finden, um diesen Prozeß überzeugender zu gestalten und ihn besser kontrollieren zu können. Planung ist ein argumentativer Prozeß. Dies sind die wesentlichen Prinzipien des Planungsprozesses der zweiten Generation, spezielle Varianten davon werden an anderer Stelle beschrieben.
Intuition versus Systematik in der Planung Ich hoffe, ich habe deutlich gemacht, daß man beim Planen nicht rational sein kann: Je mehr man es versucht, desto weniger hilfreich ist es. Andererseits bedeutet das nicht, daß man tun sollte, was einem aus der Intuition heraus gerade einfällt. Diesen Schluß sollte man daraus sicher nicht ziehen. In Wirklichkeit gibt es keinen Gegensatz zwischen einem, wie man ihn nennen könnte, intuitiven Ansatz, ein Problem zu lösen, und auf der anderen Seite einem kontrollierten, v ernünftigen oder rationalen Ansatz. Je mehr Kontrolle Sie ausüben möchten, und je fundierter Sie Ihr Urteil machen wollen, desto intuitiver werden Sie sein müssen. Lassen Sie mich das darstellen. Wir können den Planungsprozeß als eine Folge von Ereignissen betrachten. Beispielsweise, wann immer Sie eine Tätigkeit ausführen, in der Sie sehr viel Erfahrung haben, können Sie sozusagen mit Routine oder rein mechanisch vorgehen – wann immer Sie meinen, jemand habe einen Stil, heißt das, daß er eine gut entwickelte Routine hat.1 Schauen wir uns jetzt einen anderen Typ von Problemlöser an. Dieser Mensch gerät an ein Problem und sieht keinen sofortigen Ausweg. Er durchforscht also sein Hirn nach einem Ausweg und hat eine erstbeste Idee (und üblicherweise probieren wir die erste Idee aus, in der Annahme, sie sei die beste). Dann macht er weiter und gerät an das nächste Problem. Vielleicht muß er diesmal lange suchen, bis er die nächstbeste Idee hat, usw. Nun kann es passieren, daß er, soviel er auch sucht, nichts findet. Er ist in eine Sackgasse geraten. Was macht er in einem solchen Fall? Entweder er sucht weiter und versucht doch noch, einen möglichen Ausweg zu finden, oder er vermeidet dieses Problem und geht zurück zum vorhergehenden Problem und entscheidet, daß die Lösung letzten Endes doch nicht so gut war, weil sie ihn in eine Sackgasse geführt hat. Daher sollte er nach einer zweiten Möglichkeit suchen und diese verfolgen, um die Sackgasse zu vermeiden. Und ich würde sagen, daß unser tatsächliches Problemlösungsverhalten zum größten Teil diesem Typ entspricht. Beim dritten Ansatz gerät der Mensch an ein Problem und sucht einen Ausweg. Aber bevor er seine erste Idee verfolgt, entwickelt er eine ganze Menge von alternativen Ideen und sucht nach Gründen, um alle bis auf eine auszuschließen. Er tut dies durch den Aufbau von Filtern von Kriterien, durch die er alle diese Alterna
054 ZUR THEORIEB ILDUNG
tiven schickt, d. h., er benutzt alle die Aspekte, um die Vorteile der verschiedenen Alternativen einzuschätzen, in der Hoffnung, daß eine übrigbleibt. Dann macht er weiter, bis er an das nächste Problem gerät. Bei diesem Stil haben wir sicher weniger Umkehr-Schleifen als im vorhergehenden, da wir mehr Dinge überprüfen, ehe wir weitermachen. Im Idealfall bleibt nur eine Alternative übrig. Im anderen Extrem bleiben viele übrig, und dann wählt man entweder nach dem Zufallsprinzip aus, z. B. indem man eine Münze wirft, da alle Gründe für die Wahl der einen oder anderen Alternative bereits in diesen Kriterien enthalten sind, und es daher keinen triftigen Grund mehr gibt, diese oder jene Alternative zu bevorzugen; oder man findet zusätzliche Kriterien, bis nur noch eine Lösung übrigbleibt. Der dritte und häufigste Fall ist, daß überhaupt keine Alternative übrigbleibt: Die Kriterien sind widersprüchlich oder es kommt vor, daß keine Lösung gut genug ist. Dann hört man entweder auf und sagt, es gibt keine Lösung für dieses Problem, oder man erfindet weitere Lösungen. Man kann auch die Kriterien lockern, indem man sagt, daß man nicht zu viel verlangen kann. Es gibt einen vierten möglichen Ansatz: Man beginnt, alternative Handlungsmöglichkeiten zu entwickeln, aber bevor man « einen Zug macht » oder eine Auswahl trifft, ermittelt man die jeweiligen Folgehandlungen, wie ein Schachspieler, der versucht, mehrere Züge vorauszudenken. Nun erst setzt man die ganzen Bewertungsfilter ein und dann werden hoffentlich einige Alternativen, die besten, übrigbleiben, und dann fährt man, wie oben erläutert, fort. Wenn man das über die gesamte Problembearbeitung machen könnte, gäbe es gar keine Schleifen mehr. Die Schwierigkeit dabei ist, daß dieser Prozeß zu einer ungeheuren Anzahl potentieller Handlungsmöglichkeiten anwächst und nicht mehr zu handhaben ist. Der « Rationale » versucht, einen Stil zu entwickeln, der eher dem vierten Typ entspricht als dem zweiten, und man kann erkennen, daß dieser Prozeß aus zwei alternierenden Basisaktivitäten besteht. Die eine kann man als Erzeugung von Varietät bezeichnen, d. h. Ideen zu haben für die Entwicklung von Handlungsmöglichkeiten und Lösungsansätzen. Die andere ist die Einschränkung von Varietät, d. h. die Konstruktion von Bewertungsfiltern. Die Hypothese der zweiten Generation der Systemanalyse heißt: Varietät zu erzeugen, Ideen zu haben, ist die leichteste Sache der Welt; sogar ein Computer wäre in der Lage, dabei zu helfen. Jedoch kann er im zweiten Teil, bei der Reduktion von Varietät, überhaupt nichts beitragen, da dies im wesentlichen ein Bewertungsvorgang ist. Um die Komplementarität zwischen dem Intuitiven und dem Systematiker zu zeigen, müssen wir einen kurzen Blick auf die Struktur des Urteilens werfen. Es gibt verschiedene Arten von Urteilen. Wenn jemand Sie fragt, ob Ihnen die Suppe schmeckt, können Sie sofort sagen, ob sie gut oder schlecht ist. Das sind sogenannte « spontane » oder « intuitive » Urteile. Andererseits könnten Sie sagen, « Moment, ich muß erst darüber nachdenken », und sich die Pros und Kontras überlegen, ehe sie sich entscheiden, ob A gut oder schlecht ist oder ob A besser als B ist. Das sind « überlegte » oder deliberierte Urteile. Die deliberierten Urteile ersetzen Spon-
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 055
tanurteile. Ein deliberiertes Urteil machen Sie, weil Sie Ihrem Spontanurteil nicht trauen. Sie würden spontan sagen « Ich glaube, es ist in Ordnung, aber ich möchte es noch einmal überprüfen ». Ein weiterer und ebenfalls wichtiger Anlaß zur Deliberierung ist, daß Sie jemand anderem Ihr Urteil erklären sollen. Sie sagen: « Ich finde das großartig », der andere fragt: « Warum? », und Sie müssen Ihr Urteil überlegen, um jemand anderem zu erklären, wie Sie zu diesem Urteil gekommen sind. Eine andere Unterscheidung trennt zwischen Gesamt-(End-)Urteilen und Partialurteilen. Jede Lösung hat gewisse Vorteile und gewisse Nachteile, verglichen mit den anderen Lösungen. Aber Sie müssen am Ende zu einem Gesamturteil gelangen. Sie müssen eine Entscheidung treffen: X und Y sind gut, oder Plan A ist der beste oder ist ausreichend. Wenn Sie kein Spontanurteil abgeben können, müssen Sie überlegen, ehe Sie sagen können, z. B. ob Plan A gut genug ist, d. h., Sie müssen nach Gründen suchen, die die Qualität oder die Güte von A beeinflussen, und diese Gründe sind X 1 (Kapitalkosten), X 2 (Unterhaltungskosten), X 3 (Sicherheit) etc. Sie müssen das Objekt unter all diesen Aspekten unabhängig voneinander beurteilen und Sie müssen irgendwie all diese Partialurteile zu einem Urteil, dem Gesamturteil, bringen. Aber vielleicht möchten sie sogar noch weiter deliberieren. Beispielsweise scheuen Sie sich vielleicht, ein Spontanurteil über die Kapitalkosten abzugeben und differenzieren stattdessen zwischen Rohbaukosten (X 11), Grundstückskosten (X 12), Ausbaukosten (X 13) usw. und fällen darüber Partialurteile. Und dann müssen Sie diese Partialurteile zweiten Grades wieder in ein deliberiertes Partialurteil über Kapitalkosten zusammenbringen, das seinerseits wiederum zum deliberierten Gesamturteil beiträgt, ob Plan A gut genug ist oder nicht. Was ich hier deutlich machen will, ist eigentlich nur, daß Sie, je mehr Sie versuchen zu deliberieren, umso weniger Ihrem Spontanurteil trauen. Wenn Sie Ihr Urteil begründen wollen, indem Sie alle Pros und Kontras sorgfältig abwägen, erhalten Sie, je mehr Sie dies tun, einen immer größeren « Baum ». Je systematischer Sie sein wollen, desto weniger intuitiv oder spontan wollen Sie vorgehen. Aber die Endpunkte sind immer Spontanurteile. Das bedeutet, je systematischer Sie vor gehen wollen und je weniger Sie Ihren Spontanurteilen trauen, desto mehr Spontan urteile müssen Sie fällen. Das wollte ich im Hinblick auf den Zusammenhang der beiden Typen von Urteilen deutlich machen. Lassen Sie mich zusammenfassen. Zunächst wollte ich zeigen, daß der System ansatz der ersten Generation, den Sie alle kennen, zur Behandlung von Planungs problemen, mit denen Sie zu tun haben, ungeeignet ist. Zweitens wollte ich die Gründe für das Scheitern dieser Vorgehensweisen aufzeigen: Einerseits die Dilemmas der Rationalität, andererseits die bösartige Natur von Planungsproblemen. Der letzte Teil zeigte die Prinzipien der Ansätze der zweiten Generation s owie die Annahmen und Grundlagen des Systemansatzes der zweiten Generation.
056 ZUR THEORIEB ILDUNG
1
Stil und Routine sind dasselbe. Stil ist nicht mehr nötig, um Probleme zu lösen, er ist üblicherweise ein Zeichen von Alter.
* Originalfassung in: Bedriftsøkonomen, No. 8, October 1972, pp. 390–396. Der Text basiert auf einem Vortrag, gehalten auf dem « Systems Analysis Seminar » in Karlsruhe im Juni 1971, organisiert von der European Association of National Productivity Centres in Zusammenarbeit mit der Studiengruppe für Systemforschung in Heidelberg. Der Aufsatz wurde vollständig übernommen, obgleich er auf einigen Seiten eine kurze Charakterisierung bösartiger Probleme enthält, die im vorangegangenen Text « Dilemmas in einer allgemeinen Theorie der Planung » ausführlich behandelt sind. Doch ist dieser Aufsatz in der amerikanischen Fachwelt so bekannt und vielzitiert, daß eine Kürzung in der deutschen Erstveröffentlichung seiner Bedeutung unangemessen wäre.
SYSTEMANALYSE DER « E RSTEN UND ZWEITEN GENERATION » 057
Was ist « das System »? (What is « the System »?*) Es ist eine frustrierende, wenn nicht überhaupt müßige Diskussion, ob ein System im platonischen Sinn objektive Realität « besitzt » (« das Objekt ist ein System ») oder ob es jemandes konzeptuelles Konstrukt « ist », mit dessen Begriffen er eine Gruppe von Erscheinungen zu verstehen versucht (« das System ist im Auge – oder Gehirn – des Betrachters »). Im ersten Fall erhascht man gelegentliche flüchtige Anblicke von dem System und versucht, einen Sinn darin zu finden, wie Platons Sklaven im Keller. Im zweiten Fall versteht jemand « etwas » (« dort draußen »?) als ein System. Im ersten Fall können Leute mit verschiedenen Interpretationen von dem System darüber streiten, wer das wahre (oder « wahrere ») Bild hat; im zweiten Fall könnte man zugeben, daß die Systeme zweier verschiedener Leute – sogar « denselben Gegenstand » betreffend – voneinander verschieden sein können, abhängig vom Gesichtspunkt und dem jeweiligen Ziel. So wird sich wahrscheinlich die Ansicht (das System) eines Herausgebers über den Fortschritt der Literatur und ihren Zustand von jener, sagen wir, eines Bibliothekars unterscheiden. Welches Konzept eines « Systems » man wählt, hängt von jemandes Weltbild ab, von seiner ontologischen Überzeugung. Hier wird das zweite Konzept (das « Berkeleysche ») übernommen: Ein System reflektiert jemandes Verständnis von etwas. Zusätzlich zu einer philosophischen Vorliebe gibt es einen plausiblen rationalen Grund zur Befürwortung und Annahme dieses Standpunktes im Zusammenhang mit diesen und ähnlichen Projekten: Politische Fragen entstehen aus Konflikten zwischen dem jeweils anderen Verständnis « desselben Gegenstandes » verschiedener Leute, d. h. aus Konflikten zwischen konkurrierenden Weltbildern, von denen keines den berechtigten Anspruch haben kann, das reale, richtige, objektive « System » darzustellen (nicht einmal, etwas bescheidener, die « beste Annäherung » daran). Die Behandlung dieser Konflikte wird von der dauernden Umbildung der Ansicht jedes Beteiligten über das in Frage stehende System, das Objekt-System (O-System), begleitet.
Das argumentative Planungsmodell STIEC [siehe Titelanmerkung; der Hrsg.] basiert auf einem Planungs- und Politikmodell, das – als Leitprinzip – die Tatsache in Betracht zieht, daß diese Aktivitäten normalerweise in einem Bereich divergierender Interessen, widersprüchlicher Situationsverständnisse und verschiedener Vorschläge für passende Handlungs-
058 ZUR THEORIEB ILDUNG
weisen stattfinden. Das argumentative Planungsmodell beschreibt Entscheidungsfindung als den Prozeß, angesichts dieses normalerweise eher sehr unterschied lichen Spektrums von Meinungen, Überzeugungen, Mutmaßungen, Forderungen, Anregungen, Vorschlägen, Hoffnungen und Plänen, die von zahlreichen Parteien, Gruppierungen und Einzelpersonen vertreten werden, um zu einem Urteil zu kommen. Unter diesen Umständen wird der Vorgang des Zustandekommens einer Entscheidung (eines Urteils, einer Politik, eines Plans) als argumentativer Prozeß verstanden: Issues kommen auf, Gegenpositionen werden eingenommen: Argumente für und gegen diese Position werden gefunden, Argumente werden hervorgebracht und gegen andere Argumente entwickelt. In diesem Prozeß – so ist wenigstens zu hoffen – beeinflussen die Teilnehmer die jeweiligen Positionen, indem jeder vom anderen lernt. STIEC soll die Bildung von Urteilen unter diesen Umständen unterstützen. Gedacht als Werkzeug für Planer und Politiker, versucht STIEC ein Bild des « Pro blemstamms » anzubieten, d. h. des sich entwickelnden Netzes von Issues und dem Grad ihrer Bearbeitung, das so differenziert wie adäquat ist. Es versucht nicht, genau die Expertenantworten anzubieten, oder genau die vorherrschende Mehrheits meinung, sondern eher, die Bandbreite der Ansichten zu erhalten und zu zeigen. Es soll Diskrepanzen und Kontroversen aufdecken, Diskussionen unter den Vertre tern verschiedener Standpunkte anregen, auftauchende Issues ausmachen, deren Behandlung vorschlagen. STIEC soll diese Prozesse anregen, leiten und verwalten. Sein Kern besteht aus einem « Issue-Based Information System » (IBIS).
* Originalfassung in: Report Nr. 3 der Studiengruppe für Systemforschung e. V., Heidelberg; Projekt STI-EC: Systems Analysis of the Generation and Dissemination of Scientific and Technological Information in the European Community. Heidelberg, November 1976. Dieser kurze Textausschnitt wurde übernommen, da er eine Schlüsselposition für Rittels Theorie der Urteilsbildung darstellt und ein Modell argumentativer Planung enthält.
Was ist « das System »? 059
Prozeß und Methodik
Systematik des Planens* Wenn man Architekten nach einer Beschreibung ihres Berufes fragt, dann darf man einer Vielzahl von Antworten sicher sein. Die dabei beobachteten Grundrichtungen lassen sich, etwas übertrieben gezeichnet, wie folgt beschreiben: Der Praktiker, der Baumeister, hat ein fast handwerkliches Verhältnis zu seinem Beruf. Er weiß, wie man Grundrisse auslegt, Decken dicht bekommt und mit Polieren umgeht. Der Künstler dagegen betrachtet Bauten vorwiegend als Mittel zum drei dimensionalen Ausdruck, gewissermaßen als Skulpturen. Er spricht vom Raumge fühl und von der Aussage, die ein Gebäude macht. Eine weitere Kategorie ist die des Umweltingenieurs, dem die Kontrolle derjenigen physischen Umstände im menschlichen Dasein obliegt, welche sich einer technischen Manipulation unter werfen lassen. Er weiß, was Physiologie und Psychologie des Menschen erfordern, und er entwirft die Wohnmaschinen, welche diese Erfordernisse gewährleisten sollen. Dann gibt es den Sozial-Ingenieur. Als Umweltdeterminist ist er davon überzeugt, daß die physische Umgebung einen direkten, wenn nicht entscheidenden Einfluß auf menschliches Verhalten und Wohlbefinden hat und somit Tapetenmuster, Vorgärten, Kamine und Eingangshallen die Gesundheit des Familien lebens oder die Arbeitsleistung bestimmen. Der Pragmatiker oder Realist betrachtet Häuser lediglich als Konsumprodukte auf einem Markt. Es gilt, sie verkäuflich und vermietbar zu machen. Dann gibt es den Koordinator oder Generalisten. Er sieht sich als Mann mit Überblick, der die widerstreitenden Meinungen und Resultate verschiedener Spezialisten in einer Lösung zu integrieren vermag. Er konzipiert Lösungen für Projekte und ihre Durchführung. Schließlich ist noch der Visionär zu erwähnen, der Schrittmacher neuer Möglichkeiten. Seine Entwürfe sind exemplarisch für die ästhetische oder bautechnische Welt von morgen gemeint. Die Städtebauer, hierzulande meistens aus dem Architektenstand hervorgegangen, jedoch darauf bedacht, sich von jenen abzuheben, zeigen ein ähnlich buntes berufliches Spektrum. Es reicht vom Hüter des sogenannten städtebaulichen Gesamteindruckes, der sich um eine einheitliche Dachform und die Geometrie der Pläne sorgt, bis zum Regionalökonomen. Wie kommt es zu dieser bemerkenswerten Vielfalt, und was sind ihre Folgen? Sicherlich ist dies vor allem jener Zwitterstellung zwischen Kunst und Inge nieurwesen zu verdanken, in welche die Architektur seit dem 18. Jahrhundert geraten ist, als nämlich die Kunst zur Domäne eigenen Rechts erklärt wurde. Sie ist sicher nicht das Resultat der Spezialisierung, wie es in anderen Berufen zu beobachten ist. Die Architektur ist ausgezeichnet durch Nichtproliferierung. Wenn immer sich einer ihrer Aspekte zu einem substantiellen Gebiet zu entwickeln versprach, wurde er samt den dazugehörigen Aufgaben einer anderen Disziplin überlassen, oder es wurde eine neue gegründet. Eine Ausnahme ist der Städtebau, der in Deutschland ein echtes Spaltprodukt der Architektur ist, belastet mit
062 ���������������������
dem Erbe dieser Herkunft. Deshalb gibt es Bauingenieure und Verkehrsplaner; deshalb sind nur wenige Architekten an der Entwicklung der Bautechnik aktiv beteiligt und wenige Städtebauer an der Regionalplanung. Die Theorien des menschlichen Wohnens und Siedelns werden von Soziologen und Ökonomen erdacht, und die meiste Literatur über das Bauen selbst wird von anderen verfaßt. Es besteht eine allgemeine Unsicherheit über die Aufgaben, die Architekten und Städte bauer für sich beanspruchen können; denn natürlich hängt es von der Orientierung in jedem Spektrum ab, was man als seine Aufgabe sieht und wie man sie in Angriff nimmt. Das ist besonders folgenreich für die Ausbildung zu diesen Berufen, denn um einen Studienplan zu entwerfen, muß man wissen, welche Kenntnisse vermittelt werden sollten. Trotz einiger hoffnungsvoller Ansätze ist keine Klärung in Sicht, und die professionelle Sprachverwirrung hat babylonische Ausmaße angenommen. In den USA werden weniger als zehn Prozent des gesamten Bauvolumens von Architekten geplant und entworfen; die Industrie besorgt die übrigen 90 Prozent. Die großen Projekte der Stadtplanung und der Regionalorganisation gehen in steigendem Maße an die Aero-Space-Industrie. Dort wird Verkehrsplanung betrieben, werden Entwässerungssysteme entworfen und dergleichen. Dies ist die eine Seite. Auf der anderen Seite zählt man unsere Städte und Häuser zu den S tiefkindern des technischen Fortschritts. Sicherlich gibt es viele Beispiele weitsichtigen Städtebaus und musterhafte Bauten. Es steht eine unübersehbare Fülle neuer Materialien und Verfahren der Bautechnik zur Verfügung, und auch an kühnen Ideen,Visionen von künftigen Siedlungsformen und an ästhetischen Prinzipien fehlt es nicht. Trotzdem sind die Probleme menschlicher Siedlungen ungelöst, und alle Zeichen sprechen dafür, daß sie trotz ernsthafter und intensiver Bemühungen ständig akuter werden. Auf der ganzen Welt hat sich erwiesen, daß menschliche Siedlungen sich nicht von selbst veränderten Bedingungen anpassen, daß sie weder genügend wachsen können noch sich automatisch verjüngen. Aber wir sind weit davon entfernt, diese Schwierigkeiten zu meistern. Die Fähigkeit zum Planen ist unterentwickelt. Man kann sich damit abfinden und sagen: Die Welt ist ein P rodukt vieler Faktoren, und nur einige wenige von ihnen sind planendem Einfluß zugänglich. Und der andere Standpunkt ist, daß die vorhandenen Planungsmöglichkeiten bei weitem nicht ausgeschöpft sind oder daß unsere Planungssysteme nicht richtig ausgelegt sind. Welchen dieser beiden Standpunkte man einnehmen will, ist eine Frage der philosophischen Grundeinstellung. Ich natürlich werde hier den zweiten Standpunkt vertreten. Kommen wir zur Frage des Vorgehens beim Planen. Man kann allgemein sagen, daß viele Mißstände eher das Produkt unüberlegten Handelns sind als der Bösartigkeit. Allerdings ist die Kontroverse über die richtige Art und Weise des Planens sehr heftig. Ich möchte über rationales Planen sprechen und definieren, was ich darunter verstehe: Rational handelt, wer die verschiedenen Möglich keiten zum Handeln ermittelt und versucht, ihre Konsequenzen abzuschätzen, um
SYSTEMATIK DES PLANENS 063
arauf seine Entscheidungen zu begründen. Diese Definition verlegt den Begriff d der Rationalität in die Nachbarschaft der Verantwortlichkeit. Ein rationaler Plan ist ein Gefüge koordinierter Maßnahmen, welche einem bestimmten Zweck dienen. Ein Plan ist umso besser, desto sicherer er das herbeiführt, was gewollt ist. Es kommt aber nicht nur darauf an, die gesetzten Ziele zu erfüllen, sondern auch die vom Planer gefürchteten Nach- und Seiteneffekte zu vermeiden. Ob ein Plan gut war, ist eigentlich immer erst nachträglich festzustellen. Die Schwierigkeit liegt natürlich darin, Pläne vor ihrer Ausführung zu bewerten. Alles Planen setzt die Transferierbarkeit von Werten über die Zeit voraus. Planen ist immer mit einem Konsumverzicht verbunden. Heute verfügbare Aktiva werden investiert in die Erwartung und zur Verwirklichung zukünftiger Realitäten. Wir müssen aber vorsichtig mit den Dingen umgehen, mit den Aktiva, über die wir verfügen. Planen ist ausgezeichnet durch einen beträchtlichen Zeitverzug zwischen dem Planungs vorgang, der Ausführung und der Rückmeldung über die Wirkung. Der Planer ist also ganz auf die Vorwegnahme angewiesen, auf seine Vorstellungskraft, seine prognostischen Fähigkeiten. Er hat keine Möglichkeit, sich schrittweise probierend und notfalls korrigierend an sein Ziel heranzuarbeiten. Der Planer muß alle Maßnahmen vorher spezifizieren und kann keine sozusagen im Spaß vorher ausprobieren. Ausgeführte Pläne sind wesentlich irreversibel, und dies sollte das beste Prinzip jeder Planungstheorie sein, daß prinzipiell nichts reversibel ist. Es ist anders als beim Wissenschaftler, der in seine Theorie die grundsätzliche Reversibilität und Wiederholbarkeit einbaut, zum Beispiel in seinen Experimenten. Der Planer sollte das Umgekehrte tun, nämlich die Irreversibilität zum Prinzip erheben. Zum Beispiel: Eine nach Plan hochgezogene Wand muß eingerissen werden, weil der Planer es gern anders hätte. Dies mag nur einige hundert Mark kosten, aber es ist irreversibel. Das « Grundmodell » des Planungsvorganges ist einfach und fast trivial. Diese Trivialität oder Banalität ist leider nicht zu vermeiden, denn häufig muß man Selbstverständlichkeiten aussprechen, um zu merken, daß sie keine sind. Stellen wir uns also vor, wir wollten ein Planungssystem entwerfen, etwa ein Konstruktionsbüro einrichten oder ein Bauamt etablieren. Das ist die Planung eines Planungssystems, die Etablierung eines Systems, wo man Planungsaufgaben hinein gibt und wo Pläne herauskommen. Ein Planungssystem ist immer ein Subsystem umfassenderer Systeme, z. B. ein Firmenhaushalt oder der Haushalt einer Stadt. Alle diese größeren Systeme können Planungssysteme als Untereinheiten enthalten, deren Zweck darin besteht, Pläne für die Veränderung des Systems zu erzeugen. Bei der Frage, welche Komponenten ein solches Planungssystem haben muß, stellt man fest: 1. Woher kommen die Aufgaben? Es muß ein Problemerzeugungs- und -bewertungssystem geben, welches die Agenda für das Planungssystem erzeugt. Dieses Problemerzeugungssystem kann Teil des Planungssystems und kann Teil von anderen Systemen sein. 2. Wie werden die Pläne erzeugt, wie wird das Problem der Lösung zugeführt, was sind die Grundlagen des Planers, und wie
064 ���������������������
ist seine Vorgehensweise? 3. Wie werden die verschiedenen Lösungsmöglichkeiten beurteilt, die das Planungssystem entwickelt? Wie wird eine Entscheidung über die Annahme oder Ablehnung eines Planes erzielt? Bevor wir diese Fragen und ihre Schwierigkeiten näher betrachten, lassen Sie mich den Elementarprozeß des Planers beschreiben. Nehmen wir an, wir hätten einen Akteur A, eine Person, eine Institution oder eine Behörde. Wie kommt A zum Planen? Es beginnt mit dem einem Unbehagen. Wenn A dem nachgeht, dann versucht er dieses Unbehagen zu erklären und stellt fest, daß etwas nicht in Ordnung ist. Dann sucht A den Grund, warum die Sache nicht so ist, wie sie sein sollte. Und dann hat er sein Problem. Nicht alle Probleme sind es nun wert, behandelt zu werden. Wir leben mit vielen Problemen, die nie gelöst werden; denn unsere ProblemLösungskapazität ist sehr begrenzt. Außerdem haben wir nur beschränkte Mittel zur Verfügung, Probleme zu Projekten zu machen. Man sollte sich daher sorgfältig überlegen, welche Probleme man auf die Agenda der Projekte setzen möchte. Nur wenn das Problem auf die Agenda gerät, dann ist die Entscheidung gefallen, und es kommt dann vielleicht sogar zu einer Lösung, die eventuell ausgeführt wird. Das Problem kann auf jeder dieser Stufen steckenbleiben. Die Entscheidung über die Agenda ist abhängig von drei Faktoren: Erstens vom Gewißheitsgrad oder von der Wahrscheinlichkeit, daß man zu einer erfolgreichen Lösung kommen kann, zweitens vom Lösungsaufwand, d. h., was kostet es, dieses Problem in Angriff zu nehmen, und drittens abhängig davon, was man sich von der Lösung des Problems verspricht. Alle drei Probleme müssen bei einer rationalen Entscheidung mitwirken, ob ein Problem auf die Agenda gesetzt werden soll oder nicht. Dazu braucht man eine grobe Vorstellung von der Natur der Lösung, eine Art Lösungsidee, ohne die man diese Werte nicht abschätzen kann. Eine Art von Kosten ist besonders wichtig. Es sind Kosten durch die Nichtinangriffnahme von Problemen, die sogenannten opportunity costs. Sie sind schwierig zu kontrollieren, weil sie nicht in der Buchführung erscheinen. Es besteht zum Beispiel eine Neigung politischer Entscheidungsträger zu kurzfristigen Planungen mit möglichst sichtbarem Erfolg, und zwar unter Hintenanstellung langfristiger Planungen zu Lasten späterer Genera tionen. Beispiele dafür sind die Bildungskatastrophe, ein typischer Fall von oppor tunity costs durch unterlassene Planung und die fehlende Regionalforschung. Nehmen wir aber jetzt an, ein Projekt sei identifiziert und etabliert. Wie können wird uns nun den Vorgang zur Lösung vorstellen? Viele Probleme haben viele Lösungen. Andere Probleme haben gar keine Lösung, und fast kein Problem hat genau eine Lösung. Gibt es gar keine Lösung, dann sind immer noch drei Möglichkeiten vorhanden. Entweder man gibt auf, oder man ändert die Bedingungen, schraubt also seine Ziele zurück, oder man sucht weiter. Wie wird nun eine Lösung gefunden? Die Diskrepanz, die zum Pro blem Anlaß g egeben hat, ist eine solche zwischen zwei Situationen, der s ogenannten Ist-Situation und der Soll-Situation der Welt oder eines ihrer Teile. Die Lösung besteht darin, eine Folge von Operationen und Manipulationen zu finden, die den
SYSTEMATIK DES PLANENS 065
Ist-Zustand in einen anderen Zustand überführen, der mit dem Soll-Zustand wenigstens vereinbar, verträglich ist. Der Soll-Zustand wird nie genau eintreten, weil man bei jeder Situationsbeschreibung sich notwendig auf einige wenige Merkmale beschränken muß. Der Problemlöser verfügt über viele Maßnahmen, die jeweils unter bestimmten Bedingungen anwendbar sind. Sie transformieren die Ausgangssituation in einer bestimmten Weise, was man auch Technologie nennen kann. Der Planer sucht jetzt eine Kette solcher Maßnahmen, die den Ist-Zustand in jeden Zustand überführen, der mit dem Soll-Zustand kompatibel ist. Das ist ein sehr einfaches Modell. Manchmal kann diese Transformation in einem Schritt vollzogen werden, meistens aber nicht. Die Suche und Konstruktion einer solchen Maßnahmenkette kann beträchtliche Arbeit kosten. Dieser Suchprozeß ist als das Wechselspiel von zwei grundsätzlich verschiedenen Aktivitäten zu beschreiben. Einerseits sucht der Planer nach Handlungsmöglichkeiten, die in Betracht gezogen werden sollen, andererseits versucht er, diese Alternativen wiederum solange zu betrachten und zu analysieren, bis eine von ihnen übrigbleibt. Er forscht nach zureichenden Gründen, die beste zu identifizieren. Man kann den ganzen Planungs- und Entwurfsprozeß als ein Wechselspiel zwischen der Erzeugung von Alternativen und ihrer nachfolgenden Reduktion erklären. Um das tun zu können, macht der Planer sich ein Bild und konstruiert ein sogenanntes Modell. Modelle gibt es aus Pappe, es gibt Pläne und dynamische Modelle und Computer-Modelle. Manche Planer haben auch viele Modelle im Kopf, Vorstellungsbilder, welche vermitteln, wie die betrachteten Maßnahmen und die gegebenen Umstände des Objektes miteinander zusammenhängen und die sogenannten Zielgrößen der Soll-Situation beeinflussen. Der Planer hat es im wesentlichen mit drei Arten von Größen zu tun: 1. Planungsvariable, die seine Maßnahmen beschreiben, 2. Objektvariable, die die Gegenstände beschreiben, die er plant, und deren Zusammenhänge, und 3. Zielvariable, auf die es ankommt, um deren Zustände willen er diese ganze Prozedur überhaupt nur ausführt. Der Planer versucht jetzt, Kausalbeziehungen zu konstruieren, die ihm sagen, wie eine bestimmte Konstellation der Planungsvariablen unter bestimmten Annahmen über den Zustand des Objektes zu bestimmten oder auch nur wahrscheinlichen Werten der Zielvariablen führen wird. Der Planer optimiert selten. Meist ist er nicht darauf bedacht, die Einstellung mit seiner Planungsvariablen so zu finden, daß die Zielvariable wirklich die allerbesten Werte annimmt; er ist froh, wenn er akzeptable Werte bekommt. In den frühen Stadien der Planung werden diese Alternativen sehr qualitativer Art sein. Es wird zum Beispiel festgestellt, daß eine Straße eine zu hohe Verkehrsdichte hat. Dieser Sachverhalt ist auf verschiedene Weise zu erklären: Die Zahl der Kraftwagen ist zu hoch, die Straße ist zu schmal, oder die Kraftwagen befahren eine ungeeignete Straße; man sollte sie woanders fahren lassen. Jede dieser drei Erklärungsmöglichkeiten des gleichen Sachverhalts führt zu völlig v erschiedenen Lösungsmöglichkeiten. Diese frühen Entscheidungen über das Lösungsprinzip verdienen besonders gründlich durchdacht zu werden, weil wir leicht dazu neigen,
066 ���������������������
uns an der erstbesten Problemlösung festzuhalten. Dabei können andere und bessere Lösungen sehr leicht versäumt werden, weil diese ersten Stadien der Planung nicht besonders aufwendig sind. In den späteren Phasen der Planung steht immer mehr fest, welche Art der Lösung man haben wird. Die Parameter oder Varia blen, die die Lösung beschreiben, werden immer besser fixiert. Je mehr man in diese Richtung geht, um so mehr kann man an das Optimieren denken. Das ist im Grunde genommen das ganze Modell des Planungsvorganges, und es ist die Grundlage alles dessen, was man als Systemforschung bezeichnet. Das Prinzip kann in einem Satz charakterisiert werden: Bestimme die Komponenten eines zu entwerfenden Systems, dann verknüpfe ihre Zusammenhänge und lege die Komponenten so aus, daß sie der Mission des Systems gerecht werden. So einfach aber unser Bild vom Planungsvorgang ist, so schwierig sind die grundsätzlichen praktischen Fragen im Zusammenhang mit ihrer Anwendung. Woher kommen überhaupt die Probleme? Wer darf Probleme formulieren, und wer entscheidet über ihre Diskussion und ihre Aufnahme in die Agenda? Das ist schnell beantwortet: Der Problembildungsprozeß ist völlig außer Kontrolle und teilweise sogar monopolisiert. Ich denke etwa an die Presse, die einen unverhältnis mäßig großen Einfluß darauf hat. Viele Probleme bleiben in Studierstuben hängen und finden nicht den rechten Weg nach draußen. Zum Beispiel dies: Die Schulbaukosten sind in Deutschland pro Schüler doppelt so groß wie in England und viermal so hoch wie in Amerika. Eine weitere Schwierigkeit des Planens ist, womit man sich die Diskrepanzen erklärt, die durch den Planungsprozeß gelöst sein wollen. Die Weichen werden bereits in sehr frühen Stadien gestellt, und wenn man sagt « hohe Verkehrsdichte », dann kann das durch hohe Siedlungsdichte begründet oder durch unzweckmäßige Verkehrsführung erklärt werden oder durch zu teure oder schlechte Nahverkehrsmittel usw. Je nachdem, wie die Diskrepanz liegt, bekommt man andere Probleme, und es gibt keine objektive Instanz, die unter diesen verschiedenen Möglichkeiten die richtigen Probleme zu ermitteln erlaubt. Es hängt allein davon ab, wie wir etwas erklären, wie wir ein Problem sehen, wie wir uns vorstellen, wie die Welt liefe. Das sind die sogenannten Images, die wir im Kopf herumtragen; unsere Bilder von der Welt, wie sie ist, wie sie sein sollte, wie sie sein wird, wie sie nicht sein sollte usw. Eine weitere Frage ist die Behandlung des Niveaus eines Problems. Wird irgendeine Diskrepanz festgestellt, dann kann man immer sagen, sie sei ja nur das Symptom eines höheren Problems. Dieses kann wiederum als Symptom aufgefaßt werden, und man kann weiter nach Ursachen suchen, von denen das Symptom produziert wird. Auf je niedrigerer Stufe ein Problem steht, desto leichter ist es zu lösen. Je höher wir es hinauftreiben, desto unwahrscheinlicher ist eine Lösung. Es besteht immer die Tendenz, Probleme nach unten zu drücken, auf einem möglichst niedrigen Niveau und möglichst unmittelbar zu lösen. Man sollte aber mit dieser Methode vorsichtig sein, denn die Lösung eines Problems auf einem unmittelbaren, sozusagen technischen Niveau erschwert oft diejenigen höheren Standes.
SYSTEMATIK DES PLANENS 067
In einem Planungssystem sollte immer mindestens eine Partei sein, die versucht, das Problem so hoch wie möglich zu drücken. Die Praxis wird dann schon dafür sorgen, daß es wieder heruntergeschraubt wird. Im übrigen müssen Probleme immer als Symptome anderer Probleme gesehen werden. Weiter gilt es zu entscheiden, wer denn nun eigentlich plant. Es kann sehr leicht geschehen, daß innerhalb desselben Akteursystems zwei Subsysteme gegeneinander planen. Hier ein Beispiel. Die Bundesbahn hat die Strecke vom Rhein nach Stuttgart ausgebaut und elektrifiziert, in dem Bestreben, ihr Defizit abzudecken. Sie hat einen Park von Öltransport-Waggons angeschafft, um das Ölgeschäft zu machen. Zur gleichen Zeit hat das Bundesverkehrsministerium den Neckar kanalisiert, um den Schiffern die Möglichkeit zu geben, in das Ölgeschäft einzusteigen. Da der Kanal aber nur 90 Tage im Jahr Wasser führt und daher nicht kostendeckend arbeiten kann, stehen die Bausummen beim Bundesverkehrsministerium unter « einmalige Ausgaben ». Die Kanalgebühren können deshalb entsprechend niedrig sein. Daraufhin senkt die Bahn ihre Preise. Nun fährt das Öl mit der Eisenbahn, aber es sind jetzt der Kanal und die Schiffe da. Dies ist ein gutes Beispiel für Suboptimierung. Die Bundesrepublik Deutschland ist ein Akteursystem, dessen zwei Subsysteme Wasser und Schiene sich gegenseitig Konkurrenz machen. Deshalb muß die Frage, wer eigentlich plant, rechtzeitig gestellt werden. Hinzu kommt das Problem der Objektausgrenzung. Es gibt keine selbstevi denten Planungsobjekte, und es kann ein sehr schwieriges Problem sein herauszu bekommen, was ein geeignetes Planungsobjekt ist. Ich will die notwendigen Bedin gungen der Separierbarkeit von Objekten ausklammern, obwohl das eine wichtige Voraussetzung ist; das Objekt, für das man plant, sollte nicht zu früh bekannt gegeben werden. Wer Verkehrsplanung durchführt, macht Standortplanung nolens v olens; wer an Standortplanung arbeitet, macht Schulplanung nolens volens. Wenn die beiden Planungen unabhängig voneinander gemacht werden, kann dies schreckliche Folgen haben. In diesem Zusammenhang soll auf einige Schwierigkeiten aufmerksam gemacht werden. Zunächst zu den sogenannten Invarianten: Was sind die Invarianten bei der Planung, was soll als unveränderlich angenommen werden? Alles ändert sich, aber man ist trotzdem darauf angewiesen, daß gewisse Dinge auch konstant bleiben, zum Beispiel darauf, daß der amerikanische Präsident alle vier Jahre gewählt wird und seine Amtszeit auf insgesamt 12 Jahre begrenzt bleibt. Dies ist eine Gegebenheit, auf die man sich verlassen kann; denn man ist ja darauf angewiesen, Wirkungszusammenhänge h erzustellen und funktionelle Varianten oder Verhaltensvarianten zu besitzen. Im Grunde genommen kann man jede Invariante, jedes Verhaltensmuster, außer ein paar Naturgesetzen vielleicht, zum Objekt der Veränderung machen. Was man aber als Gegebenheit ansieht und behandelt, und was als variabel, das wird letztlich davon abhängen, welche Vorstellungen man von der Welt hat. Häufig sind extrem unterschiedliche Standpunkte möglich. So sagen viele Zeitgenossen, die Stadt sei die Wiege der Kultur und nur dort gebe es Kultur, andere
068 ���������������������
wiederum bezeichnen die Stadt als einen Platz des Lasters und des Verbrechens. Einer glaubt noch an eine hohe städtische Dichte, der andere an eine niedrige. Man kann mit Kriminalstatistiken, Krankheitsstatistiken und Statistiken über die Bevölkerungsentwicklung aufwarten, immer werden je nach dem vorgefaßten Standpunkt die verschiedensten Schlüsse gezogen. Die städtische Planung gründet sich nicht auf Daten und Statistiken, sondern resultiert aus individuellen Vorstellungen und kann daher zu völlig verschiedenen Folgerungen führen. Es ist keineswegs so, daß mit wissenschaftlicher Notwendigkeit aus den sogenannten Fakten die Pläne folgen. Daten haben nur auf dem Hintergrund von Erfahrungen einen Sinn. Keine der genannten Schwierigkeiten sind durch wissenschaftlich-objektives Vorgehen aus der Welt zu schaffen. Trotzdem werden laufend Entscheidungen gefällt. Die erwähnten Entscheidungsmodelle machen das Ganze noch viel komplizierter, als es vorher war. Bei einem derartigen Modell müssen Hunderte von Schätzungen gemacht, Wahrscheinlichkeiten abgewogen und Differenzen ausgedrückt werden. Der Urteilsaufwand vervielfacht sich mit der Präzision des Vorhabens. Und das ist deprimierend! Der Konflikt wird immer offensichtlicher; je mehr man sich in das Modell vertieft, desto unsicherer wird man. Warum werden derartige Modelle überhaupt gemacht? Dafür gibt es zwei Gründe: Modelle fordern vom Planer, daß er sich zur Strukturierung der Probleme zwingt und keine Entscheidungen fällt, die auf ungenauen Aussagen beruhen. Die Faktoren müssen isoliert und identifiziert werden. Zweitens ist das Modell ein Mittel zur Mitteilung, zur Kommunikation. Dafür und als Mittel, um explizierte Meinungen und Darstellungen von Problemstrukturierungen anderen nahe zu bringen und die Diskussion zur Aushandlung von Konflikten in Gang zu setzen, sind Modelle von unerschöpflichem Wert. Allerdings fehlt es uns noch an sogenannten sozialen Technologien, um solche Auseinandersetzungen durchzuführen. Immer noch scheint es so, als mache der Techniker oder der Künstler die Pläne, und diese würden aus irgendeiner höheren Erkenntnisquelle zu ihren Konzeptionen geführt und hätten deshalb eine fachmännische Notwendigkeit. Dieser Ansicht ist auch heute noch fast jeder Planer. Das aber ist gar nicht der Fall. Um dem abzuhelfen, sollte man die Entwürfe analysieren und publizieren. In Amerika untersuchen wir zur Zeit, ob man nicht jedem Plan bei seiner Veröffentlichung einen Gegenplan beigeben sollte. So könnte systematisch eine Debatte zustande gebracht werden, die das Für und Wider beider Standpunkte offenlegt und die Konsequenzen dieser Konzeptionen darstellt. Es kommt nicht immer nur darauf an, Konflikte zu lösen, sondern auch, sie zu erzeugen. Um die Frage der richtigen Objektausgrenzung lösen zu können, sollte man versuchen, von bestehenden Institutionen loszukommen. Wenn jetzt zum Beispiel Schulamt und Straßenbauamt gemeinsam etwas planen sollten, dann würde sich das als unrealisierbar im Hinblick auf das oben Gesagte herausstellen. Hier besteht eine Lösungsmöglichkeit darin, daß man zu dem Prinzip der sogenannten Projekt organisation übergeht, wie man sie ja gelegentlich in der Regionalplanung schon
SYSTEMATIK DES PLANENS 069
durchführt. Im genannten Fall ist es empfehlenswert, daß für ein bestimmtes Projekt eine Organisation eingerichtet wird, die dann sofort wieder auseinanderfällt, sobald das Projekt steht. Damit sind natürlich viele Konsequenzen für die Ausbildung von Planern verbunden. Wer das übernehmen könnte, weiß ich nicht. Die Professoren von heute sollten ein gewisses Mißtrauen gegen ihre eigenen Vorstellungen entwickeln, anstatt sie für unumstößlich zu halten. Sie sollten auch Experimente machen. Was heute als experimentelles Bauen bezeichnet wird, ist ja gar kein wirklicher Versuch. Manche vergessen die Hypothese beizufügen, die durch das Experiment bestätigt oder widerlegt werden soll. Abschließend möchte ich sagen, daß eine in die Zukunft gerichtete Planung nur sinnvoll ist, wenn man eine bestimmte Vorstellung von dem einzuschlagenden Weg hat. Das ist aber meist nicht der Fall. Vom jetzigen Stand unseres Planungsvermögens ausgehend kann man auf lange Sicht nur sehr pessimistisch sein, trotz einer unübersehbaren Fülle von Alternativen. Der Spruch « form follows function » sollte besser durch « form follows fiction » ersetzt werden. Es ist unwahrscheinlich, daß kurzsichtige Politik, kleinbürgerliche Ideale und vordergründige Ästhetizismen großartige Planungen hervorbringen werden. Planen ist ein politischer Prozeß, und die Systematik des Vorgehens kann höchstens dazu verhelfen, bessere Fragen zu stellen, bessere Vorstellungen über die Welt zu haben und vielleicht besser durchdachte Handlungsmöglichkeiten zu entwickeln. Und das ist nicht wenig.
*
Quelle: Constructa II, Januar 1967, S. 17–20
070 ���������������������
Der PlanungsprozeSS als iterativer Vorgang von Varietätserzeugung und Varietätseinschränkung* 1. Bei jeder Planung steht der Planer vor der Frage, welche ariablen er in sein Planungsmodell aufnehmen will, welche Beziehungen zwischen V diesen bestehen und welcher Bewertungsfilter, d. h. welches Beurteilungsmaß angelegt werden soll. Diese Überlegungen führen zu der Frage nach der Strukturierung des Planungsprozesses. In der Literatur findet man häufig Unterteilungen des Planungsprozesses in Phasen wie: 1. « Verstehe das Problem » 2. Sammle Information 3. Analysiere die Information 4. Kreativer Akt 5. Synthese 6. Ausführung und Kommunikation der Ergebnisse Verschiedene Autoren mögen verschiedene Bezeichnungen für die einzelnen Phasen benutzen oder sie gröber oder feiner unterteilen – alle nehmen jedoch an, daß Problemverständnis, Information und Problemlösung voneinander trennbare Prozesse sind. Diese Annahme ist typisch für die « Systemforschung der ersten Generation », wie sie für militärische und Weltraumprojekte entwickelt wurde. Wer jedoch versucht, dieses ordentliche Modell auf Planungsaufgaben anzuwenden, bei denen die « Mission » (wie z. B. « Zwei Mann zum Mond und zurück ») nicht einfach gegeben ist, macht die Erfahrung, daß sich der Planungsprozeß nicht in wohldefinierte Phasen zerlegen läßt. Eine Planungsaufgabe, etwa Stadtsanierung, hat keine einfach definierbare Mission: Die Feststellung dessen, was durch das Projekt erreicht werden soll, ist gerade der langwierigste und schwierigste Aspekt der Planung, und er ist nicht vom Problemlösungsprozeß zu trennen. Jede Aussage über das, was gesollt werden soll, korrespondiert mit einer Aussage darüber, wie das bewerkstelligt werden soll. Problemformulierung geht Hand in Hand mit der Entwicklung eines Lösungs vorschlages; Informationen kann man nur dann sinnvoll sammeln, wenn man an einem Lösungsprinzip orientiert ist, und ein Lösungsprinzip kann man nur in dem Maße entwickeln, wie man über das Problem informiert ist usw. Unter diesen Umständen gibt es keine Trennung in Projektphasen wie die oben aufgeführten.
������������������������������������������� 071
2. Eine gewisse Strukturierung des Planungsprozesses läßt sich im Hinblick auf die Typen der die Planung beeinflussenden Variablen machen, die während des Prozesses in Betracht gezogen werden. Man unterscheidet vier Haupttypen von Maßskalen: 1. Auf einer Nominal-Skala wird einfach numeriert oder klassifiziert. Die verschiedenen Werte sind diskrete Alternativen, die keine natürliche Ordnung haben; z. B. ist es bei der Wahl eines Grundstückes gleichgültig, in welcher Reihenfolge man die alternativen Grundstücke durch A, B, C oder D bezeichnet. Ebenso ist es mit der Variablen « Hochbau » oder « Flachbau » oder bei der Entscheidung, ob man bauen soll oder nicht. Bei diskreten Alternativen gibt es kein « Mehr-Oder-Weniger », sondern nur ein « Entweder-Oder ». Es sind Alternativen, die sich gegenseitig ausschließen, und die alle Lösungsmöglichkeiten erfassen. 2. Auf einer Ordinal-Skala wird bereits eine Rangordnung zwischen verschiedenen diskreten alternativen Werten hergestellt (A > B > C). Zensuren, Härtegrade von Materialien etc. werden auf Ordinalskalen gemessen. Durch Ordinal-Skalen zugeordnete Rangzahlen sind noch keine arithmetischen Größen, d. h., es lassen sich mit diesen Werten keine arithmetischen Operationen durchführen. Zum Beispiel kann man nicht sagen, daß ein Metall mit dem Härtegrad 6 doppelt so hart ist wie ein Mineral mit dem Härtegrad 3, da mit der Bezeichnung Härtegrad 6 nur ausgesagt wird, daß die Härte höher liegt als bei Härtegrad 5 und erst recht als bei Härtegrad 3, aber nicht um wieviel höher. 3. Auf einer Differenzen-Skala (auch Intervall-Skala genannt) erhalten die Alternativen reelle Zahlen zugeordnet. Die Skala ist durch die willkürliche Festsetzung einer Maßeinheit, sowie eines willkürlichen Nullpunktes, bestimmt. Das beste Beispiel hierfür ist die Temperaturskala nach Celsius. Das gefrierende und das kochende Wasser bilden die beiden Fixpunkte einer von 0°–100° linear unterteilten Skala. Aufgrund dieser Linearität kann man sagen, daß der Unterschied zwischen 50° und 70° ebenso groß ist wie zwischen 20° und 40°. Es ist aber nicht sinnvoll zu sagen, daß 40° warmes Wasser doppelt so warm ist wie 20° warmes, da die Wahl des Nullpunktes willkürlich angenommen wurde. Die Aussage ist maßsystem abhängig und trifft bei einer Übertragung auf die Fahrenheitsche Temperaturskala nicht mehr zu, da 20° C ≈ 68° F und
072 ���������������������
40° C ≈ 104° F, was auf der Fahrenheitskala keiner Verdoppelung entspricht. Auf Differenzen-Skalen werden auch subjektive Werte gemessen, z. B. Kosten und Nutzen bei der Cost-Benefit-Analyse. Dadurch aber, daß kein natürlicher Nullpunkt vorhanden ist, kann man mit den auf der Differenzen-Skala angegebenen Werten nicht multiplizieren und dividieren. Man kann nur Differenzen miteinander vergleichen. 4. Auf einer Verhältnis-Skala lassen sich alle arithmetischen Operationen durchführen, da sie durch einen natürlichen Nullpunkt und eine Normierungskonstante bestimmt ist, wie z. B. bei der Temperaturskala nach Kelvin, bei Längenmaßen usw. Am Anfang eines Planungsprozesses treten vorwiegend Variable auf, die auf Nominalskalen gemessen werden und auf « Entweder-Oder-Entscheidungen » hinauslaufen, wogegen am Ende des Planungsprozesses vor allem Entscheidungen gefällt werden, die sich auf Variablen der Verhältnis-Skala beziehen, wie z. B. bei der Frage nach der Dimensionierung eines Raumes. Man darf sich jedoch nicht dem Irrtum hingeben, daß eine Strukturierung in wohldefinierte Phasen aufgrund der während des Planungsprozesses auftretenden Variablen und ihrer Einordnung in bestimmte Skalen möglich sei. Es werden weder in jeder Phase Entscheidungen über Variablen einer bestimmten Skalenklasse gefällt noch die vier Skalenklassen während eines Planungsprozesses schrittweise nacheinander durchlaufen. 3. Strategien zur Varietätserzeugung und Varietätseinschränkung Sucht man nach einer Mikrostruktur des Planungsprozesses, kann man ihn als alternierende Folge zweier Elementarprozesse verstehen, unterbrochen von Perioden der Routine, d. h. unproblematischer Tätigkeit. Die Elementartätigkeiten sind: • die Erzeugung von Varietät • die Reduktion von Varietät Wann immer eine problematische Situation auftritt, d. h. eine, aus der man spontan keinen Ausweg weiß, muß man zunächst mindestens eine Idee als Kandidaten für die Lösung finden, also « Varietät erzeugen ». Hat man mehr als einen Kandi daten für die Lösung, muß man nach Gründen suchen, um alle bis auf einen auszuschließen, also « Varietät reduzieren ».
������������������������������������������� 073
Man kann verschiedene Stile oder Strategien unterscheiden, nach denen dieser Prozeß abläuft: • Der Routinier, der « große Meister », verrichtet seine Aufgaben aufgrund seiner Erfahrung und mit Hilfe individueller Heuri stiken nach dem Motto: « Stil ist Redundanz ». Er kennt keine Probleme.
• Scanning Process Man versucht, ein Problem mit der erstbesten Lösung, die einem einfällt, zu lösen. Stellt sich heraus, daß diese Lösung nicht zu dem gewünschten Ergebnis führt oder daß sie die Lösung anderer Probleme verhindert, kehrt man zum Ausgangspunkt zurück und versucht es wieder mit einer anderen Lösungsmöglichkeit. Diesen Prozeß des Abtastens nennt man « Scanning Process ». Diese Strategie ist nur bei « Vertrautheit » mit den Problemen möglich. Sie beruht darauf, daß der Problemlöser bewährte Lösungen zuerst assoziiert.
a.
b.
074 ���������������������
• Alternativenbildung Nachdem ein Problem erkannt worden ist, werden zunächst mehrere alternative Lösungsmöglichkeiten entwickelt (Erzeugung von Varietät). Mit Hilfe eines Bewertungsfilters, der alle relevanten Aspekte einschließt, die für die Problemlösung von Bedeutung sind, wird die Varietät der Lösungsmöglichkeiten so weit reduziert, bis (hoffentlich) eine und nur eine Lösung, d. h. die « beste » Lösung, ermittelt ist. Bei der Erzeugung und Bewertung von Alternativen können die folgenden Fälle auftreten: • Es fallen einem keine Alternativen ein. Das bedeutet, daß man zum Ausgangspunkt zurückkehrt und versucht, das Problem zu vermeiden. • Mehr als eine Alternative passiert den Bewertungsfilter. Da hinsichtlich des Filters alle ermittelten Alternativen die gleiche Güte besitzen, kann es dem Zufall überlassen werden, welche Alternative bevorzugt werden soll (Münze werfen), oder man macht den Bewertungsfilter durch Einbeziehung weiterer Aspekte so lange strenger, bis nur noch eine Alternative den Filter passiert. • Keine Alternative passiert den Bewertungsfilter. Man kann zum Ausgangspunkt zurückgehen und das Problem vermeiden oder weitere Varietät erzeugen oder aber den Filter so weit abschwächen bzw. einen neuen erstellen, bis eine Alternative als « beste » Lösung passiert.
������������������������������������������� 075
• Mehrstufige Alternativenentwicklung Diese Strategie zeichnet sich durch eine besonders hohe Varietätserzeugung aus. Für jede Alternative werden die möglichen Folgealternativen ermittelt und so fort über mehrere Stufen. Durch eine « Batterie » von Bewertungsfiltern wird die Reduktion der gesamten Varietät gleichzeitig vorgenommen. Vorbild ist der gute Schachspieler, der mehrere Züge im voraus zu durchdenken sucht. Gewöhnlich ist die Strategie für die Gesamtplanung aufgrund der ungeheuren Vielzahl von Lösungsmöglichkeiten nicht praktikabel, sondern nur in einzelnen Planungsphasen zur Lösung von Teilproblemen sinnvoll. Auch hier können entweder keine, eine oder mehrere Lösungen die Filter passieren, und die obengenannten Möglichkeiten für das weitere Vorgehen gelten entsprechend.
Wenn eine Alternative einen Filter passiert hat, ist damit noch nicht ausgeschlossen, daß ihre weitere Entwicklung zu einer Sackgasse der angegebenen Typen führt. Wenn man es dann nicht vorzieht, das ganze Problem überhaupt aufzugeben, muß man eine « Schleife » zurück zu einem früheren Problempunkt machen, um eine andere Alternative aufzugreifen und weiterzuverfolgen in der Hoffnung, so die Sackgasse zu vermeiden. Es ist klar, daß die Wahrscheinlichkeit solcher, sicherlich kostspieliger, Schleifen um so geringer wird, je umfassender man nach der letztgenannten Strategie vorgeht. Der Preis ist indessen eine (ungefähr exponentielle) Zunahme der zu « siebenden » Varietät.
076 ���������������������
Optimierungsmodelle des Operations Research können so verstanden werden, daß ein Problem gemäß der vierten Strategie bereits strukturiert vorliegt, wobei die Bewertungsfilter bestimmte Stetigkeitsbedingungen erfüllen müssen und das Verfahren darin besteht, aus großen Varietäten die relativ beste Möglichkeit herauszusuchen (relativ zum Filter und zur Varietät). Die häufigste Form des alltäglichen Problemlösungverhaltens folgt den e rsten beiden Strategien. Je ungewöhnlicher ein Problem, je weniger man sich auf Routine und Assoziation verlassen kann, um so angebrachter werden die dritte und die vierte Strategie. 4. Bei der Erzeugung und Reduktion von Varietät stellt sich die Frage, ob es prototypische « Umwelten » gibt. Wann ist es sinnvoll, einmal festgelegte Lösungstypen in ein Problem zu übernehmen? Gibt es Klassen einander zureichend ähnlicher Planungs- und Entwurfsprobleme, so daß die Übertragung von Lösungsprinzipien in neue Probleme der gleichen Klasse sinnvoll wird? Sammlungen von Lösungstypen und Richtmaßsysteme, wie z. B. die Bauordnungslehre und Bauentwurfslehre von Neufert, bergen indessen die Gefahr in sich, zu « Phantasiemördern » zu werden, da ihre allgemein geübte Anwendung dazu verführt zu glauben, die angegebenen Maße müßten so sein. Obwohl sie nur exemplarisch gemeint sein sollten, wird ihnen normative Gültigkeit unterstellt. Statt dessen sollte betont werden, daß es keine objektiv besten Lösungstypen, geschweige denn absolut optimale Maße für Planungs- und Entwurfsaufgaben gibt. Es sollte ermutigt werden, übliche Lösungsmuster immer wieder systematisch in Frage zu stellen. Zumindest sollten die Maßangaben und dergleichen in Sammlungen von prototypischen Lösungen als variable und nicht als präskriptive Konstanten verstanden werden. 5. Man kann den Planungsvorgang als Prozeß der Bildung eines « Images » über das Problem und seine Lösung verstehen. Er stellt ein schrittweises Herantasten an das Problem dar, und mit zunehmender Kenntnis und Konkretisierung des Problems zeichnet sich auch die Richtung der Problemlösung ab. Dieser iterative Vorgang läßt sich anhand eines Modells darstellen, welches die Variablen, die im Planungsprozeß auftreten, in ihren Verknüpfungen beinhaltet. Die im Kontext-Modell (C) berücksichtigten Kontext-Variablen (ci) wirken als Input auf das Objekt-Modell (Ω), das ebenfalls durch die Design-(Entwurfs)Variablen (dj) beeinflußt wird. Output-Variablen des Objekt-Modells und Input des Performance-Modells (P) sind die Performance-(Güte)-Variablen (pk). Sie sind Funktionen der Kontext- und Design-Variablen (pk = fk(ci, dj)). P bestimmt das Gesamturteil x als Funktion der pk (und damit der dj und der ci). In diesem Modell stellt sich das Planungs- und Entwurfsproblem dar, als die Suche nach einer Werte konfiguration der Design-Variablen dj, welche unter der Annahme eines Kontextes, nach Maßgabe des C-Modells, zu einem möglichst günstigen Endurteil x führt.
������������������������������������������� 077
Die Gesamtheit der Wertekombinationen der dj repräsentiert die Varietät poten tiell in Betracht zu ziehender Lösungen. Das C-Modell beschreibt die Umstände, unter denen der Plan oder Entwurf wirksam werden soll. Die « P-Box » beschreibt, welche Merkmale des Objektverhaltens mit welchem Gewicht als Für und Wider im Endurteil zu Buche schlagen sollen. Das Objektmodell beruht auf einem « Lösungsprinzip » oder einer « Morpho logie », d. h. auf einem Konzept der in Betracht gezogenen Lösungsfamilie, welche durch die Menge der dj und die Beziehungen zwischen ihnen bestimmt ist. Jedes Ω ist die Repräsentation eines « Archetyps » einer Lösung.
C = Kontext-Modell ci
=
Kontext-Variable (i = 1, 2, …, k)
Ω = Objekt-Modell dj
=
Design-Variable (Entwurfs-Variable) (j = 1, 2, …, m)
P
=
Performance-Modell (Berwertungssystem)
pk =
Performance-Variable (Bewertungs-Variable) (k = 1, 2, …, n)
x
Endurteil (x = f (pk))
=
Außer der Suche nach Lösungen mit hohem x als Funktion der dj und ci werden während des Planungs- und Entwurfsprozesses die Listen der dj, ci und pk modifiziert, als Ergebnis des Lernprozesses, welcher das Problemverständnis fortgesetzt verändert. 6. Im folgenden sollen vor allem die Prozesse der Varietätserzeugung erörtert werden.1 Im Kontext-Modell (C-Box) wird beschrieben, welche Randbedingungen eines Planungsobjektes (z. B. Gesetze, Bevölkerungswachstum, Bedarfsprognose, bestehende Verkehrserschließung usw.) als unveränderbar, d. h. nicht im Einflußbereich des Planers stehend, angenommen werden. Die Kontext-Variablen setzen den Rahmen für die Planungsentscheidungen. Ihre Vorwegnahme und somit ihr Einfluß auf die nächsten Planungsschritte bedeutet keinesfalls, daß es sich dabei um « objektive » Tatbestände handelt; ihre Ermittlung ist das
078 ���������������������
Resultat subjektiven Urteils. Die Kontext-Variablen sind individuelle Entscheidungen und damit bereits Planungsentscheidungen. Ihre Bestimmung ist Teil des Lösungsvorgangs, d. h. Teil des Planungsproblems. Man kann das System der Kontext-Variablen als « die Geschichte, die jemand über ein Problem erzählt », bezeichnen. Nicht jeder sieht das Problem in gleicher Weise, erzählt dieselbe « Geschichte », beschreibt die Situation mit den gleichen Kontext-Variablen. Wenn es sich als zu schwierig herausstellt, für einen ausgewählten Satz von Kontext-Variablen und Constraints eine Lösung zu entwickeln, so könnte eine Lösungsstrategie auch darin bestehen, die Kontext-Variablen anders zu konstruieren, d. h. eine andere « Geschichte » zu erzählen. Nimmt man das Beispiel einer Stadtsanierung, so bilden beispielsweise Prognosen bzw. Trendanalysen über das Verkehrsaufkommen solch einen ausgewählten Kontext. Da jedoch Prognosedaten nur über einen begrenzten Zeitraum aufgestellt werden können und nur Vermutungen sind über das, « was passieren würde, wenn nichts passiert », d. h. immer auf der Annahme von Invarianten beruhen, garantieren die der Planung zugrunde gelegten Prognosen bzw. Trendanalysen kein « rationales » Handeln in dem Sinne, daß die Folgerungen objektiv, also unabhängig von der Person des Analysators, richtig sind. Man kann die Formulierung des Kontextes sehen als die individuell festgelegte Schnittführung zur Abgrenzung des Objektes von der Umwelt, d. h., die Defini tion des zu planenden Objektes entsteht aus der individuellen Vorstellung (Image), die der Planer sich vom Objekt macht. C enthält alle Einflußgrößen, die der Planer berücksichtigen will, aber als unbeeinflußbar ansieht. C, Ω und P werden im Verlaufe des Planungsprozesses immer wieder modifiziert oder optimiert, entsprechend dem wechselnden Problemverständnis. 7. Wie läßt sich die in Ω repräsentierte Varietät erzeugen und strukturieren? Besonders für die Frühphasen eines Projektes, wo es, wie oben angedeutet, um die Bestimmung eines Lösungskonzeptes geht, welches vorwiegend durch Variable über Nominalskalen beschrieben wird, hat sich die von Z wicky wiederentdeckte « morphologische Methode » bewährt. Ihr Prinzip ist einfach: Man bestimme die wichtigsten Design-Variablen und die Werte, welche sie annehmen können, und arrangiere sie in einem « morphologischen Kasten ». Dann ist jede Kombination von je einem Wert jeder der Variablen die Beschreibung eines Kandidaten für das Lösungsprinzip. Ein einfaches Beispiel mag dies erläutern. Das Problem besteht darin, für eine Universitätserweiterung Lösungen unter bestimmten Aspekten zu erzeugen. Exemplarisch könnten dann folgende Design-Variablen mit ihren jeweiligen alternativen Werten angenommen werden (siehe nachfolgende Tabelle). Die Design-Variablen (Einkaufszentrum, Studentenwohnheim, Verkehrserschließung, Ver- und Entsorgung, Sporteinrichtungen, kulturelle Einrichtungen), die jeweils die Zusammenfassung wohldefinierter voneinander unabhängiger Teil
������������������������������������������� 079
lösungen (Handlungsmöglichkeiten) sind, beschreiben hierbei verschiedene Möglichkeiten der Änderung eines Objektzustandes. Sie können anfangs sehr umfassend formuliert sein und werden mit zunehmender Lösungseinengung immer konkreter und spezifischer. Mit Hilfe eines solchen « morphologischen Kastens » lassen sich sehr viele Maßnahmen zur Erstellung des Planungsobjektes bzw. zur Änderung des Objektzu standes beschreiben. Durch Aufstellung aller denkbaren Kombinationen von Design- Variablen kann man « alle » alternativen Lösungsmöglichkeiten aufzeigen (« alle » meint relativ zum Problemverständnis, wie es sich im morphologischen Kasten widerspiegelt). Jede Kombination beschreibt eine Alternative, wobei die A lternativen sich gegenseitig ausschließen, wenn die Werte der Variablen sich gegenseitig ausschließen. Bei – wie im Beispiel angegeben – 6 Design-Variablen und den innerhalb dieser Design-Variablen möglichen Alternativen (Handlungsmöglichkeiten) ergeben sich als Anzahl aller möglichen Kombinationen 4 × 5 × 9 × 4 × 4 × 6 = 17 280 reine Alternativen. Da die einzelnen Teillösungen bei der Bildung der möglichen Kombinationen nicht auf ihre Verträglichkeit untersucht wurden, ist es evtl. nicht sinnvoll, alle 17 280 Alternativen als Lösungsalternativen in die Bewertung aufzunehmen. Um möglichst viele unsinnige Alternativen auszuschließen, ist es notwendig, von vornherein die Lösungsmannigfaltigkeit durch logische Constraints (Zwänge) einzuschränken. Diese Constraints stellen keine Sachzwänge oder « objektive » Tatbestände dar, sondern sie sind die Produkte subjektiver Entscheidungen. Der Planer legt seine individuelle Sollvorstellung fest, indem er sich entscheidet, welche Kombinationen von Werten er für sinnvoll hält, d. h., welche Unverträglichkeit seiner Meinung nach zwischen den alternativen Werten verschiedener Variablen besteht. Die logischen Constraints können mit Hilfe der Aussagenlogik übersichtlich dargestellt werden. Beispielsweise kann die Kombination (2.2): « Studentenwohnheim auf dem Gelände » mit (3.1): « Keine zusätzliche Verkehrserschließung » als nicht sinnvoll angesehen werden. Man kann diese Einschränkung folgendermaßen darstellen: « 2.2 ≥ 3.1 », d. h. « Wenn 2.2, dann nicht 3.1 ». Hierdurch wird die Varietät um 1/32 oder um 540 Möglichkeiten reduziert. Man kann Constraints definieren als individuelle Sollsetzungen, welche die Design- Variablen im Hinblick auf den Kontext einschränken. Sie sind Einschätzungen von Umweltzuständen und -einflüssen, welche die Unverträglichkeit bestimmter Wertekombinationen der Variablen in der Zwicky-Box postulieren und somit die Varietät reduzieren.
080 ���������������������
Designvariablen
d1
1.1 Nein 1.2 Ja
Einkaufszentren
Studentenwohnheim
4
1.21
1.22
1.23
Lage Nord
Lage Süd
Mitte/Zentrum
2.1 Nein d2
Anzahl Alter nativen
Alternative Werte (Handlungsanweisungen)
2.2 Ja
2.11
2.12
2.13
2.21
2.22
Nichtstun
Anreiz zu privatem Wohnungsbau
nicht in Vaihingen
auf dem Universitäts gelände
außerhalb des Universitäts geländes
5
3.1 Nein 3.2 Ja d3 Verkehrs erschließung
keine zusätzl. Verkehrs erschließung
3.21 S-Bahn
3.22 Tram
3.23 Bus
3.211 3.212 3.221 3.222 3.231 3.232 3.241 3.242 Lage Lage Lage Lage Lage Lage tander der der der der der giert Bahn A Bahn B Linie A Linie B Linie A Linie B Gebiet
4.2 unabhängig von Vaihingen zusamVersorgung men mit 4.21 4.22 Entsorgung Vaihingen Lösung A Lösung B d4
Sport einrich tungen
9
durchquert Gebiet
4.1
5.1 Nein d5
3.24 Pkw
4
4.23 Lösung C
5.2 Ja 5.21
5.22
5.23
mit Vaihingen zusammen
Ausbau der vor handenen Anlagen in Vaihingen
Einrichtung neuer nlagen nur auf dem A Universitätsgelände
4
6.1 Nein 6.2 Ja d6 kulturelle Einrich tungen
6.21
6.22
6.23
6.24
6.25
Ausbau der in Stuttgart vorhandenen Einrichtungen
Errichtung eines Kultur zentrums in Vaihingen
Errichtung eines Kultur zentrums auf dem Universitätsgelände
Errichtung eines gemeinsamen Kulturzen trums für Vaihingen + Universität
Errichtung einer Freilichtbühne auf der Alb
6
Beispiel eines morphologischen Kastens
������������������������������������������� 081
8. Es gibt verschiedene Arten von Constraints: • logische Constraints schließen Denkunmögliches aus (« A und nicht-A können nicht gleichzeitig der Fall sein. »); • physische Constraints eliminieren Verstöße gegen als gültig und unabänderlich erachtete Naturgesetze (« Edelgase gehen keine chemischen Verbindungen ein. »); • technische Constraints beziehen sich auf die Realisierbarkeit mit den Mitteln der vorhandenen Technologien (« Es gibt kein Material dieser Druckfertigkeit und Wärmestandfestigkeit. »); • ökonomische Constraints setzen die Grenzen des zu betreibenden Aufwands (« (1.2) und (3.2) und (4.22) sind zusammen zu teuer. »); • kulturelle Constraints beschreiben die Grenzen dessen, was den Benutzern, Bewohnern usw. zugemutet werden kann (« Stu dentenwohnheime ohne Fenster sind nicht akzeptabel. »); • politische Constraints beschreiben die Erwartungen über die Durchsetzbarkeit von Lösungsmöglichkeiten (« (1.23) ist in Kombination mit (3.1) auszuschließen, da hierfür nicht die Zustimmung des Stadtrats gefunden werden dürfte. »). Ob ein Constraint in das System aufgenommen wird oder nicht, hängt von der uversicht des Planers ab: Im Grunde ist jeder Constraint ein Indikator für Resi Z gnation, denn er ist das Produkt einer Entscheidung, nicht zu versuchen, etwas Gewohntes oder Faktisches zu verändern. 9. Eine weitere Verdeutlichung der Auswirkung von Constraints bietet eine andere Darstellungsform für den Fall von Design-Variablen, die auf Verhältnis-Skalen gemessen werden. Zum Beispiel ist eine Tür zu entwerfen, wobei der Einfachheit halber angenommen sei, daß alle Entscheidungen gefallen seien bis auf die Bestimmung der Höhe d1 und der Breite d2 der Tür. Dann stellt sich die verbleibende Varietät dar als die von diesen Design-Variablen aufgespannte Viertelebene. Constraint C1 fordere eine Mindesthöhe (« d1 ≥ 200 cm »), C2 eine Maximalhöhe, etwa die Deckenhöhe (« d2 ≤ 350 cm »); C3 schließe alle Lösungen aus, welche die Tragfähigkeit der Türangeln überschreiten. C1, C2, C3 schließen je ein Gebiet des Lösungsprogrammes aus, wobei es mannigfache Überlappungen gibt. Constraints dieser Art, die die Form von Ungleichungen haben, werden regional genannt.
082 ���������������������
d1
C3
400 C2
350 300
C4
250 C1
200 150 100 50
d2 0
20
40
60
80
100
120
140
160 cm
Daneben gibt es funktionale Constraints. So sei C4 die Forderung, daß die Propor tionen der Tür dem Goldenen Schnitt gehorchen sollen: d1/d2 ≈ 1,6. Dieser Con straint reduziert den Lösungsraum auf eine Gerade durch den Nullpunkt. Funktio nale Constraints haben die Form von Gleichungen, wodurch die Dimensionalität des Lösungsraumes reduziert wird (im Beispiel: Wenn über die Höhe entschieden worden ist, bestimmt C4 die Breite der Tür). Für die Mannigfaltigkeit der zulässigen Lösungen, welche einem Constraintsystem gehorchen, gibt es drei Möglichkeiten: • es gibt keine zulässige Lösung, da alle Lösungen durch Constraints ausgeschaltet werden; dann kann man entweder das Problem aufgeben oder die Constraints mildern; • es gibt genau eine Lösung, da alle Constraints genau einen Punkt übriglassen; • es verbleiben viele Lösungsmöglichkeiten. Die Entscheidung, welche Lösung genommen werden soll, kann durch den Zufall (etwa durch Würfeln) oder durch eine Bewertung der verbleibenden Lösungen erfolgen.
������������������������������������������� 083
Die zweite Möglichkeit, daß Constraints « die » Lösung definieren, ist äußerst selten, obwohl sie das Ideal des Funktionalisten repräsentiert. 10. Eine weitere Möglichkeit, Lösungsmannigfaltigkeit zu erzeugen, stellt das « Prinzip des systematischen Zweifels » dar. Man kann es in seiner einfachsten Form im wesentlichen in 3 Arbeitsschritten darstellen: • Beschreibung des Problems in kurzen Sätzen, « Atomsätzen » (Beschreibung des Situationsbildes). • Die Beschreibung des Problems wird negiert, d. h., die Atomsätze werden durch « Zweifel » umgekehrt. Das Problem ist gelöst, wenn das ursprüngliche Situationsbild falsifiziert ist. • Die verneinten Atomsätze werden als Lösungstypen interpretiert. Beispiel: Lösung des Problems der Abfallbeseitigung, das durch Dauerparker verursacht wird Beschreibung des Situationsbildes
Verneinung (Zweifel)
abgeleitete Lösungstypen
1
Es gibt Abfall in den Straßen.
Es gibt keinen Abfall in den Straßen.
pädagogische Lösung
2
Es gibt Dauerparker.
Es gibt keine Dauerparker.
Polizeilösung
3
Abfall sammelt sich unter den Dauerparkern.
Es sammelt sich kein A bfall unter den Dauerparkern.
Ingenieurlösung
4
Straßenreinigung kann AbStraßenreinigung kann fall unter den Dauerparkern Abfall unter den Dauer parkern nicht beseitigen. beseitigen.
Ingenieurlösung
5
Wind treibt Abfall unter die Dauerparker.
Wind treibt keinen Abfall unter die Dauerparker.
6
Es soll kein Abfall in den Straßen sein.
Es soll Abfall in denStraßen « value-engineering approach » sein. (Werteumstellung)
7
Abfall ist häßlich.
Abfall ist nicht häßlich.
Industrial-Design-Lösung
8
Abfall ist gesundheitsschädlich.
Abfall ist nicht gesundheitsschädlich.
Hygienelösung
9
usw.
usw.
usw.
084 ���������������������
Landschaftsarchitektur lösung
Das Problem könnte beispielsweise durch folgende Lösungsmöglichkeiten gelöst werden: • zu Lösungstyp 3 « Ingenieurlösung »: • Gitterrost unter Dauerparkern, Abfall fällt nach unten. • Entwicklung eines Gerätes, welches ermöglicht, Abfall unter den Dauerparkern hervorzuholen. • zu Lösungstyp 5 « Landschaftsarchitektenlösung »: • Mauern und Hecken wirken als Windschutz. • zu Lösungstyp 6 « value-engineering approach »: • die ästhetischen Wertvorstellungen der Bevölkerung werden so manipuliert, daß Abfall in den Straßen als schön empfunden wird. Kombinationen der Lösungstypen sind möglich. Man kann das « Prinzip des systematischen Zweifels » mit Hilfe der Aussagenlogik beschreiben. Situationsbild: S0 = (1) (2) (3) (4) (5) … Das Problem kann als gelöst gelten, wenn das Situationsbild S0 nicht mehr stimmt. Dies ist der Fall, wenn mindestens ein « Atomsatz » nicht mehr stimmt. Verneinung (logische Negation): S1 = (1) (2) (3) (4) (5) …, wobei ( = und; = oder; (1) = nicht(1)) Das Prinzip des systematischen Zweifels soll vermeiden helfen, daß « man zu früh weiß, was die Lösung ist ». 11. Zusammenfassend kann man sagen, daß der Planungsprozeß nicht als Abfolge diskreter Planungsschritte zu verstehen ist, sondern sich in einem iterativen Prozeß aus den beiden Elementartätigkeiten der Erzeugung und Reduktion von Varietät zusammensetzt. Nicht nur die Reduktion von Varietät (die Auswahl der besten Alternative aus der Lösungsmannigfaltigkeit) stellt einen Bewertungsvorgang dar, sondern bereits die Erzeugung von Varietät (Erstellung der Lösungsmannigfaltigkeit) wird durch subjektive Wertung bestimmt. Die Entscheidung, welcher Kontext, welche Design-Variablen und welche Constraints in die Planung einfließen sollen, muß jeder Planer selbst und bei jedem Planungsobjekt von neuem fällen. Nicht « Sachzwänge » oder « objektive » Tatbestände sind für die Planung bestimmend, sondern allein individuelle Entscheidungen. Die Aufgabe des Planers ist es, diese ständig auftretenden Entscheidungen explizit und
������������������������������������������� 085
intersubjektiv mitteilbar zu machen, damit eine Kommunikation mit allen an der Planung beteiligten Gruppen möglich wird.
1 Auf die Reduktion von Varietät bzw. Bewertung von Alternativen wird in Musso, A.; Rittel, H.; «Über das Messen der Güte von Gebäuden»** näher eingegangen.
Literatur Zwicky, F.; Entdecken, Erfinden, Forschen im morphologischen Weltbild, München, 1966. Zwicky, F.; Wilson A.G. (Hrsg.): New Methods of Thought and Procedure, Contributions to the Symposium of Methodologies, New York, NY, 1967.
* Quelle: Arbeitsberichte zur Planungsmethodik 4, Entwurfsmethoden in der Bauplanung; herausgegeben vom Institut für Grundlagen der modernen Architektur, Prof. Dr.-Ing. Jürgen Joedicke, Universität Stuttgart. Karl Krämer Verlag, Stuttgart 1970, S. 17–31. ** Diese Beiträge sind in dem vorliegenden Buch abgedruckt.
086 ���������������������
Über das Messen der Güte von Gebäuden* mit Arne Musso
I. Güte Mit den Worten, die jemand benutzt, um etwas über die Güte auszusagen, beschreibt er die Eignung eines Gegenstandes für einen bestimmten Zweck. Synonyme für Güte sind Qualität, Wert, Performance und Nutzen. Diese Begriffe schließen alle für die Beurteilung relevanten Aspekte ein. Es wird angenommen, daß keine « höheren » Aspekte grundsätzlich von einer Bewertung ausgeschlossen sind. Die Schönheit z. B. kann einen Teil oder den ganzen Nutzen eines Gegenstandes ausmachen. Die Güte kann eingeschätzt und bestimmt, aber nicht « objektiv » ermittelt werden, weil sie nicht « an sich » existiert. Eine Aussage über die Güte eines Objektes ist ein Urteil; das Bewertungs system von jemandem ist eine Darstellung seiner Art und Weise, zu einem Urteil oder einer Bewertung zu kommen. Unsere Theorie enthält einige Annahmen über solche Bewertungssysteme, die zum Teil durch tägliche Beobachtungen bestätigt werden und darum vielleicht trivial sind. Da sie aber nicht von jedermann geteilt werden, mag es gut sein, sie zu diskutieren. Jede Bewertung eines Objektes wird von einem Bewerter zu einer bestimmten Zeit vorgenommen, der damit einen bestimmten Zweck verfolgt. • Derselbe Bewerter kann zum selben Zweck verschiedene Objekte verschieden bewerten. • Zwei verschiedene Bewerter können zum selben Zweck über dasselbe Objekt zu verschiedenen Urteilen kommen. • Über dasselbe Objekt, aber zu verschiedenen Zwecken kann derselbe Bewerter zu verschiedenen Urteilen kommen. • Zu verschiedenen Zeiten kann derselbe Bewerter für dasselbe Objekt zum selben Zweck zu verschiedenen Urteilen kommen. Dies bedeutet, daß es nicht sinnvoll ist, von Güte in absoluter Form zu sprechen, ohne anzugeben, von wem, zu welchem Zweck, über welches Objekt und wann das Urteil gefällt worden ist. Sicherlich gibt es gleichlautende Urteile, aber die Übereinstimmung ist keineswegs garantiert. Ein Hörsaal z. B. wird von einem Studenten, einem Professor, einer Putzfrau oder dem Feuerwehrhauptmann mit verschiedenen « Augen » betrachtet. Niemand hat das absolute Bewertungssystem für alle Zwecke und Objekte, und es ist auch nicht zu jeder Zeit dasselbe. Dies schließt die
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 087
sogenannten technischen Aspekte ein. Eine durchaus standfeste Konstruktion kann für den einen Ingenieur gut und für den anderen miserabel sein, und beide können gute Gründe für ihr Urteil haben. Alles, was sich von jemandem identifizieren läßt, kann Objekt einer Beurteilung werden, in der die Eignung für einen bestimmten Zweck, die Güte, bestimmt wird. Objekte können z. B. Häuser, Pläne, Methoden, Personen, Handlungen oder Prinzipien sein. Objekte können andere Objekte enthalten und selbst Teil eines Objektes sein. Vom Zweck der Bewertung hängt es ab, welche Objekte für den Vergleich in Frage kommen. Vergleicht jemand z. B. Objekte, um sein Geld anzu legen, kann er Gegenstände wie Schiffe, Gebäude oder Pfandbriefe betrachten. Für den Zweck, einen Architekturpreis zu verteilen, sind nur Gebäude vergleichbar, und für den Zweck, eine geeignete Wohnung zu finden, kommen nur Wohnhäuser in Frage. Diese Zwecke können durch die Entscheidungsprobleme beschrieben werden, die zur Bewertung Anlaß geben. Es gibt keinen Vergleich um seiner selbst willen. Den Zweck zu identifizieren, kann sehr schwierig sein, denn jeder Zweck kann als Mittel für einen höheren Zweck angesehen werden. Wir haben aber angenommen, daß jeder Bewerter den Zweck, den er mit seiner Beurteilung verfolgt, beschreiben kann. Die nächste Annahme ist aus logischen Gründen nötig, nämlich daß sich ein Bewerter auch für das Objekt entscheidet, das bei der Bewertung am besten abschneidet. Eine Aussage wie: « Ich mag die Lösung A am meisten, aber ich entscheide mich für B, weil A zu teuer ist », ist nicht zulässig und zeigt, daß der Preis im Bewertungssystem gefehlt hat. Ebenso zeigt eine Äußerung wie: « Ich kann mich nicht für die beste Lösung entscheiden, weil der Kultusminister sie nicht genehmigen würde », daß sich « beste Lösung » auf ein Bewertungssystem bezieht, das die Meinung des Ministers nicht enthält. Wenn das möglich ist, dann ist die Güte eines Objektes für einen Bewerter nicht nur eine Funktion der physischen Eigenschaften, sondern auch eine von den Meinungen anderer Leute, wie sie von ihm eingeschätzt oder ihm mitgeteilt werden.
II. Messen Was wir in unserem Falle unter Messen verstehen, wird durch die Beschreibung der Meßprozedur weiter unten erläutert. Darüber, was Messen ganz allgemein bedeutet, wird noch gestritten. Eine Definition lautet: « Zuordnen von Werten einer Skala zu Objekten oder Ereignissen gemäß einer vorbestimmten Prozedur ». Einigkeit scheint jedoch darüber zu bestehen, daß Messen in verschiedenen Formen vorkommt und daß die dabei benutzten Skalen in verschiedene Klassen eingeteilt werden können.
088 ���������������������
Auf den Nominal-Skalen wird einfach numeriert oder klassifiziert, z. B. das Numerieren von Autos und das Sortieren von Gebäuden in verschiedene « Töpfe » mit Bezeichnungen wie « Schulen », « Theater » usw. Auf den Ordinal-Skalen stehen die Töpfe in einer bestimmten Reihenfolge, z. B. mit Aufschriften wie « gut », « mittelmäßig » und « schlecht » oder « erster », « zweiter » usw. Werden in die Töpfe mehrere Dinge getan, so ist die Skala weich, kommt in jeden nur ein Objekt, dann sind die Gegenstände in eine Rangordnung gebracht, und die Skala ist hart.1 Auf der Intervall-Skala, die konstante Maßeinheiten hat, wird im « landläufigen » Sinne gemessen. Der Nullpunkt ist dabei willkürlich festgelegt, wie z. B. bei den Temperaturskalen nach Reaumur und Celsius. Schließlich gibt es noch die VerhältnisSkalen mit einer Normierungskonstanten wie Kelvins Temperaturskala oder die reellen Zahlen.2 Wir haben zum Messen der Güte eine Intervallskala gewählt, die von + M bis − M reicht. Dabei bedeutet + M « sehr gut, besser ist nicht vorstellbar », − M « sehr schlecht » und 0 « weder gut noch schlecht ». Bei der empirischen Untersuchung war M = 5.
III. Gütefunktionen Ein Bewerter kann sein Urteil über die Güte eines Objektes für einen bestimmten Zweck mehr oder weniger überlegt abgeben. Er kann ein spontanes Urteil « so über den Daumen peilen »: « Dieses Gebäude ist besser als jenes », « Diese Schule ist gut », oder « +2 » auf einer Skala. Solche Gesamturteile können durch Konditionierung eingeübt werden, und die Bewerter können es zu großer Fertigkeit bringen, beispielsweise beim Bewerten von Turmspringern oder von Entwürfen für Gebäude. Andererseits mag der Bewerter nicht fähig sein, ein spontanes Urteil abzugeben, er mag seinem Urteil mißtrauen, oder er möchte sein Urteil rechtfertigen oder einem anderen verständlich machen. Dann wird er ein überlegtes Urteil abgeben, indem er das Objekt unter verschiedenen Gesichtspunkten oder Aspekten, die für ihn relevant sind, bewertet und diese Teilurteile zu einem Gesamturteil zusammenfaßt. Die Teilurteile können wiederum spontan oder überlegt sein. Die Aufteilung kann über mehrere Stufen gehen. Spontane Urteile werden dabei nicht beseitigt, sondern es werden mehr davon erzeugt. Der Bewerter rechnet jedoch damit, daß seine Urteile zuverlässiger und für andere verständlicher sind. Der Bewerter kann aber auch angeben, wie wichtig die Teilurteile für das Gesamturteil sind, wie stark sie das Gesamturteil beeinflussen. Er bildet dazu eine Gütefunktion, die angibt, wie das Gesamturteil von den Teilurteilen abhängt, indem er jedem Aspekt ein Gewicht relativ zu den anderen Aspekten zuordnet. Dies kann auf verschiedene Weise geschehen, wodurch verschiedene Typen von Güte-
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 089
funktionen entstehen. Der lineare Typ, aus der Schule und dem Sport, z. B. beim Zehnkampf, bekannt, kann so geschrieben werden: y(A, T, O, t) = g1 y1 + g2 y2 + … + gi yi + … + gn yn Dabei ist y das Gesamturteil von A zum Zweck T über das Objekt O zur Zeit t; yi sind die Teilurteile und gi die Gewichte zu den Aspekten. Wenn alle yi gleich sind, wird auch y = yi, d. h. y, der Wert für die Güte, kann nur − M (sehr schlecht) werden, wenn alle yi = − M sind und wenn das Objekt unter allen Aspekten versagt. Diese Sym metrie mag in gewissen Fällen nicht sehr realistisch sein, z. B. wenn ein Gebäude zwar sehr schön und billig, aber nicht stand- und feuerfest ist. Es kann vorkommen, daß eine sehr schlechte « Güte » unter einem Gesichtspunkt das Gesamturteil sehr schlecht werden läßt, d. h., wenn irgendein yi = − M, dann y = − M, z. B.: y(A, T, O, t) = (y1 + M)g1 (y2 + M)g2 … (yi + M)gi … (yn + M)gn – M Diese Funktion nimmt immer den Wert y = − M an, wenn irgendein Teilurteil yi = − M wird. Der Einfluß eines Teilurteils wird um so größer, je schlechter das Teilurteil ausfällt und je größer das ihm beigemessene Gewicht gi ist. Aber das Gesamturteil y kann nur + M (sehr gut) werden, wenn alle Teilurteile yi = + M werden. Neben diesen beiden Funktionen sind viele andere denkbar, z. B. eine Kombination, bei der Aspekte, die « aufgewogen » werden können, in einem ersten Teil und solche, die eine « veto power » haben, in einem zweiten Teil enthalten sind.3 Welche Gütefunktion gewählt werden soll, ist ein Entscheidungsproblem für den Bewerter. Wenn ein Bewerter zuerst ein spontanes Gesamturteil fällt und dann ein überlegtes Gesamturteil entsprechend seiner Gütefunktion, dann können die Urteile übereinstimmen oder nicht. Stimmen sie in vielen Fällen überein, kann er sagen, daß seine spontanen Gesamturteile verläßlich sind. Wenn sie aber nicht, wenig oder nur selten übereinstimmen, hat er mehrere Möglichkeiten, das zu erklären. • Mein spontanes Urteil war voreingenommen. Vielleicht hat eine besonders hervorstechende Eigenschaft des Objektes mein Urteil dominiert. Die Beurteilung Aspekt für Aspekt hat jedoch ein ausgewogenes, verläßliches Urteil erbracht. • Zwischen dem ersten und dem zweiten Urteil habe ich meine Meinung geändert. • Ich bin überzeugt, daß mein spontanes Urteil verläßlich ist. Meine Gütefunktion für das « überlegte » Urteil muß falsch gewesen sein. Vielleicht habe ich nicht alle relevanten Aspekte berücksichtigt, sie falsch gewichtet oder falsche Teilurteile gefällt.
090 ���������������������
• Meine beiden Urteile sind nicht zuverlässig, kein Wunder, daß sie voneinander abweichen. Welche dieser Erklärungen er wählt, liegt ganz bei ihm. Es gibt keine Regel, die ihm vorschreibt, welche er für richtig zu halten hat.
IV. Transformationsfunktionen Wenn ein Bewerter A die Beurteilung von Objekten zu einem bestimmten Zweck an einen anderen Bewerter B delegiert, dann können dessen Urteile mehr oder weniger von denen abweichen, zu denen A kommen würde. Die Abweichung kann A kleinhalten, indem er einen B auswählt, dessen Bewertungssystem dem seinen ähnlich ist, oder indem er den B durch intensives Training anlernt. Oder er kann B genauere Anweisungen geben, wie er zum Urteil kommen soll, indem er ihm sein Bewertungssystem verständlich macht. Dazu kann er ihm eine Liste mit den für den bestimmten Zweck relevanten Aspekten mit deren Gewichten und die dazugehörige Gütefunktion geben. Für die Aspekte, von denen A annehmen kann, daß B für sie keine hinreichend genauen spontanen oder überlegten Teilurteile fällen wird, muß er angeben, wie sie von Eigenschaften des Objektes abhängen, die auf einer Skala abgebildet werden können, und A muß die Abhängigkeit der Werte seiner Güteskala von den Werten dieser Skala durch eine Transformationsfunktion4 festsetzen. Dazu wird er manche Aspekte so weit in Unteraspekte dekomponieren müssen, bis diese Operation gelingt. A muß für jedes Teilurteil yi bestimmen, wie es von einer genau erklärten Variablen xi abhängt: yi = f (xi). + M yi 0 − M
xi BILD 1
2 − M + M
0
3
+ M
0 a 4
− M
b 5
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 091
xi kann absolute Größen wie DM oder db repräsentieren oder abgeleitete wie qm/Student oder % Abweichung von einer Norm. Die Funktion kann verschiedene Formen haben, z. B. fallend, wie in Bild 1, bei Kosten oder Lärm; steigend beim Mietertrag (Bild 2), glockenförmig bei der Stuhlhöhe (Bild 3). Sie kann unstetig sein oder nur bestimmte Werte annehmen, wenn x nur ganze Zahlen enthalten kann (Anzahl der Garagen pro Wohnung) oder auf einer Nominalskala gemessen wird (Farbskala, Liste von Materialien oder Konstruktionsarten) (Bild 4). Die Funktion kann aber auch die Abhängigkeit von der Güteskala eines anderen Bewerters ausdrücken: yi(A1) = f (y(A2)). Diese Funktion kann « altruistisch » sein, d. h., das Urteil von A1 wird besser, wenn das von A2 besser wird (Bild 5a), oder sie kann « antagonistisch » sein, z. B. yi (A1) = − y(A2) (Bild 5b). In allen diesen Fällen verbindet der Bewerter die Welt der Fakten mit seinem « deontischen » System, d. h. mit seiner Vorstellung davon, wie ein bestimmter Teil der Welt sein soll. Aber auch hier muß A annehmen, daß B beim Messen von x zu einem Wert kommen wird, der hinreichend genau ist. Die Verständigung dabei ist oft nicht einfach: z. B. sind « qm Nutzfläche » oder « DM Baukosten » Begriffe, die mit recht unterschiedlicher Bedeutung in Gebrauch sind. Aspekte, die A dem B mit Transformationsfunktionen verständlich gemacht hat, hat er ihm gegenüber « objektiviert » oder explizit gemacht. Als Maß für die Explizität (E) eines Bewertungssystems können wir die Summe der Gewichte der Aspekte nehmen, die objektiviert oder explizit sind, z. B. E = 0,5 oder E = 50 %. Die Explizität besteht aber nicht allgemein, sondern nur relativ zu einer bestimmten Bezugsgruppe, z. B. A gegenüber B. Es kann nämlich sein, daß A einem weiteren Bewerter C gegenüber eine andere Menge von Aspekten seines Bewertungssystems explizieren muß, damit er zu genügend ähnlichen Ergebnissen kommt. Wenn A erreichen möchte, daß es keine Rolle spielt, wer die Beurteilung für ihn ausführt, kann es sein, daß er entweder eine hohe Explizität anstreben oder auf Genauigkeit verzichten muß.
V. Gruppenentscheidungsfunktionen Bewertungen werden von Einzelpersonen oder Gruppen vorgenommen. Zum Beispiel sind ein Institutsdirektor, ein Nachbar oder ein Architekt Einzelbewerter; ein Aufsichtsrat, ein Preisgericht oder eine Senatsbaukommission sind Gruppen, deren Aufgabe es ist, gemeinsam Urteile zu fällen. Sie haben ihre Arbeit getan, wenn sie zu einem Gruppenurteil gekommen sind. Die Schwierigkeit dabei ist, daß alle denselben Zweck im Auge haben und nicht andere oder Nebenziele verfolgen, die nicht offiziell zur Debatte stehen. Ein Vorteil des hier behandelten Verfahrens ist es gerade, daß diese Nebenziele entweder explizit gemacht werden oder aber weniger leicht mitspielen können.
092 ���������������������
Das Gruppenurteil yG hängt von den individuellen Urteilen der Gruppenmitglieder yAi und der Regel ab, diese zusammenzufassen. Diese Regel oder Gruppenentscheidungsfunktion kann verschiedene Formen haben, z. B.: r
1
1. yG = –r ∑ yAi 2. yG = min yAi 3. yG = yAj i = 1
r
4. yG = ∑ wi yAi mit wi ≥ 0 und i = 1
∑ wi = 1
Bei 1. ist das Gruppenurteil der Durchschnitt der individuellen Gesamturteile der r Gruppenmitglieder. Bei 2. richtet sich die Gruppe nach demjenigen, der das schlechteste Urteil abgibt. Bei 3. ist die Stimme eines bestimmten Mitgliedes ausschlag gebend, und bei 4. werden die Bewertungen der einzelnen Mitglieder gewichtet, z. B. nach Geld, Sachverstand oder Status. Es sind aber auch Funktionen denkbar, die außer den Urteilen der Gruppenmitglieder noch andere gewichtete Aspekte enthalten, z. B. einen « Bonus » für den Grad der Übereinstimmung der Einzelurteile. Gruppenurteile sind nicht nur von der Regel, nach der die Einzelurteile zusammengefaßt werden, abhängig, sondern auch davon, was der « Abstimmung » vorausgeht. Einmal können die individuellen Urteile, die unabhängig gefällt wurden, gesammelt und das Gruppenurteil ausgerechnet werden, wie z. B. die Punkte der Schiedsrichter beim Turmspringen. Zum anderen kann eine ausgiebige Kommunikation zwischen den Gruppenmitgliedern stattfinden. Jeder gibt sein vorläufiges Urteil bekannt und begründet es. Die Bewertungssysteme verändern sich dabei ständig bis zum Schluß der Debatte und der endgültigen Bewertung. Dies ist besonders wichtig, wenn zu Zwecken geurteilt werden soll, für welche die Explizität der Bewertungssysteme besonders gering oder gar 0 ist. Für die, welche an dem Gruppenurteil interessiert oder von ihm betroffen sind, ist es wichtig, an der Prozedur teilnehmen oder wenigstens zuhören zu können. Häufig gibt es gar keine formale Gruppenentscheidungsfunktion. Eine « Meinung » baut sich so auf, daß es gar nichts abzustimmen gibt. Unser Nachdruck liegt auf diesen Urteilsbildungsvorgängen und weniger auf den formalen Regeln. Ein Gruppenurteil ist für Außenstehende objektiviert und explizit, wenn 1. die Gruppenentscheidungsfunktion bekannt ist, 2. die individuellen Gütefunktionen jedem verständlich sind, 3. alle Aspekte (Teilurteile) auf Transformationsfunktionen zurückgeführt sind.5
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 093
VI. Hypothesen und Beobachtungen Um Aussagen über die Gültigkeit der verschiedenen Annahmen zu gewinnen, wurden die Manager einer Universität gebeten, ihre Bewertungssysteme der Theorie entsprechend zu entwickeln und danach Baupläne und Gebäude zu bewerten. Als Beispiel wurde eine Universität gewählt, weil es für ihre Bauten keinen Markt gibt und die Güte sich nicht in einem Marktpreis oder Gewinn widerspiegeln kann. In dieser « pilot study » wurden Manager und nicht irgendwelche Sachverständige oder Benutzer der Gebäude wie Professoren oder Studenten befragt, weil deren Urteile nur insoweit relevant sind, als sie in den Bewertungssystemen der « decision makers » enthalten sind. Teilnehmer waren die Mitglieder des Bauausschusses, der die Bauentscheidungen der Universität fällt. Kurator A6 Provost Verwaltungsdirektor A4 Vice President for Administration Finanzdirektor A5 Vice President for Finance Universitätsarchitekt A1 Campus Planner A2 Dean, School of Architecture Dekan der Architekturabteilung Einkaufsdirektor A3 Procurement Officer A7 Chief, Building and Maintenance Leiter der Bauunterhaltungs abteilung Alle Zwecke, zu denen Bauobjekte im Entscheidungsablauf vom Bauausschuß bewertet werden, wurden identifiziert. T1 T 2 T 3 T 4 T 5
Bauen (oder nicht) Auswählen eines Baugeländes Auswählen eines Architekten Annahme (oder nicht) eines Bauplanes Bewertung existierender Gebäude
Güte von Bauvorschlägen Güte von Bauplätzen Güte von Architekten Güte von Bauplänen Güte von Gebäuden
Die Bewerter wurden einzeln gebeten, ihr Bewertungssystem generell zu entwik keln, d. h., sie wurden aufgefordert zu spezifizieren, welches Bewertungssystem sie anwenden, wenn sie es mit einem der genannten Bewertungsprobleme zu tun haben. Dazu wurden folgende Schritte unternommen: 1. Zu jedem Zweck T1, T2, …, T5 wurde jeder A1, A2, …, A7 gefragt, welche Gesichtspunkte P1, P2, …, Pn für die Entscheidung für ihn relevant sind und welches relative Gewicht g1, g2, …, gn er ihnen beimißt. 2. Nach zwei bis drei Wochen wurde jeder Bewerter noch einmal nach den Gewichtsvektoren gefragt.
094 ���������������������
3. Die Aspektlisten der Bewerter wurden zu einer Gruppenaspektliste zusammengefaßt. Dabei gab es redaktionelle Probleme. Zum Beispiel hatte A1 zu T2 den Aspekt « availability of Services » genannt und verstand unter « services » Wasser, Gas und Abwasser. A2 hatte denselben Aspekt angeführt, verstand aber unter « services » außer Wasser, Gas und Abwasser auch Parkplätze. Der Aspekt des A2 wurde unter den des A1 subsumiert in der Hoffnung, daß seine Parkplatzfrage unter dem für ihn neuen Aspekt « Entfernung zum Parkplatz » der Gruppen aspektliste von ihm mitbeurteilt wird. Im übrigen wurden alle Bewerter aufgefordert zu sagen, ob sie mit der Gruppenliste zufrieden waren und ob alle ihre Gesichtspunkte enthalten waren. 4. Die Bewerter wurden gefragt, welches Gewicht g1, g2, …, gm sie den Aspekten P1, P2, …, Pm der Gruppenaspektliste zu den verschiedenen Zwecken beimessen. Dabei war logischerweise zugelassen, daß Aspekte das Gewicht gi = 0 bekamen. 5. Wiederholung der Gewichtsvektoren g1, g2, …, gm nach zwei bis drei Wochen. 6. Bewerten auf der Güteskala Aspekt für Aspekt, von drei Objekten von einem Bewerter für T3, von zwei Objekten von sechs Bewertern für T4 und von drei Objekten von sechs Bewertern für T5. 7. Spontanes Urteil zu den Zwecken T4 und T5 auf der Güteskala von vier Bewertern für die fünf Objekte (zwei Baupläne und drei existierende Gebäude). 8. Transformationsfunktionen für die Beurteilung von exi stierenden Gebäuden T5 wurden, weil die Zeit nicht ausreichte, für die Aspekte der Gruppenliste von nur einem Bewerter, einem Studenten, der nicht zur Baukommission gehörte, gezeichnet. Alle Bewertungsangaben wurden in Einzelinterviews eingeholt. Die Untersuchung konnte nicht im Kontext « wirklicher » Entscheidungen gemacht werden. Sie ist ledig lich als Voruntersuchung gedacht. Über das Ergebnis der Untersuchung haben wir in Form von Hypothesen berichtet und angeführt, was sie bestätigt und was gegen sie spricht. Davon die folgende Auswahl: H 1: Die Leute sind gewillt und fähig, die Prozedur zum Messen der Güte auszuführen.
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 095
Sechs von den sieben Mitgliedern der Gruppe machten die Untersuchung mit. Einer meinte: « I can’t adjust my mind to the procedure. » Transformationsfunktionen scheinen weniger gern aufgestellt zu werden. Allerdings hatten wir dafür nur ein Beispiel. H 2: Verschiedene Leute produzieren nicht unbedingt dieselbe Menge (nicht Anzahl) von Aspekten für denselben Zweck. Zum Beispiel nannte A3 für T1 keinen Aspekt, der auch von A2, A4 und A6 genannt worden war. H 3: Wenn das Wichten der Aspekte nach einiger Zeit (zwei bis drei Wochen) wiederholt wird, korrelieren die beiden Gewichtsvektoren positiv, d. h., die Gewichte sind mehr oder weniger stabil, sie sind keine zufälligen Produkte. Diese Hypothese wurde « getestet », indem die Gewichtsvektoren in Rangfolgen umgewandelt und « Spearmann’s Rank Order Correlation Coefficient R » errechnet wurde. Seine Werte liegen zwischen + 1 und − 1. Für alle sechs Bewerter und fünf Zwecke, also dreißig Paare von Rangfolgen, war R = + 0,657 (im Durchschnitt), für die einzelnen Bewerter: A4 A5 A6 A1 A2 A3 + 0,77 0,75 0,57 0,45 0,53 0,88 oder nach Zwecken: T1 T2 T3 T4 T5 + 0,46 0,76 0,59 0,76 0,71 Dabei fragt es sich, ob es Zufall war, daß die Werte für T1 (Bauvorschläge) und T3 (Architekten) auffallend kleiner ausfielen als die Werte für die « physischen » Objekte T2 (Bauplätze), T4 (Baupläne) und T5 (Gebäude). H 4: Wenn einem Bewerter die Gruppenaspektliste vorgelegt wird, die seine eigenen Aspekte unmarkiert enthält, so ist es wahrscheinlich, daß er einigen der Aspekte Gewichte beimißt, die nicht in seiner eigenen Aspektliste enthalten waren, d. h., der Bewerter bemerkt oder anerkennt neue Gesichtspunkte, die er vergessen hatte oder die er dazugelernt hat. Das Ausmaß dieses « Lernens » kann gemessen werden durch die Summe der Gewichte, die neuen Aspekten zugeteilt werden. Im Durchschnitt waren es 57 %. Das Maximum von 85 % lag bei A4 für T2 und das Minimum von 40 % bei A6 für T1 und T5. Dieses Ergebnis legt zusammen mit dem von H 3 die nächste Hypothese nahe:
096 ���������������������
H 5: Je stabiler die Gewichtsvektoren eines Bewerters sind, desto kleiner ist das Gewicht, das den Aspekten anderer beigemessen wird. Angeordnet nach abnehmendem R (vgl. H 3) erhält man folgende Rangordnung der Bewerter: A1 A2 A3 A5 A4 A6 Dieselbe Reihenfolge erhält man, wenn man die Bewerter nach abnehmendem Gewicht, das den Aspekten anderer beigemessen wurde, anordnet. Dabei fragt es sich, ob es zufällig war, daß A4 der Vorsitzende der Gruppe war und nicht der Ranghöchste A6. H 6: Verschiedene Leute messen denselben Aspekten für denselben Zweck verschiedene Gewichte bei. Zum Beispiel gab A1 (Campus Planner) zu T4 (Bauplan) dem Aspekt « ease of maintenance » (Aufwand der Bauunterhaltung) das Gewicht 3 %, während es bei A2 (ebenfalls Architekt) 20 % beträgt usw. Nichtsdestoweniger haben aber die Gewichtsvektoren gewisse Ähnlichkeit. H 7: Die Gewichtsvektoren der Bewerter sind für dieselbe Menge von Aspekten zum selben Zweck einander ähnlich. Die O-Hypothese wäre, daß die Gewichtsvektoren völlig unabhängig voneinander sind, d. h., daß sie zufällig relativ zueinander sind. Dies ist aber nicht der Fall. Wenn z. B. die Gewichtsvektoren aller Teilnehmer zum Zweck T5 der Größe des G ewichtes nach geordnet werden, so erhält man für « Kendall’s Coefficient of Concordance » einen Wert von 0,67. Im Grunde genommen, so könnte man vielleicht sagen, gleichen sich die Gewichtsvektoren für die Gruppenaspektlisten. Andererseits scheinen verschiedene « Erfahrungen » oder « Rollen » das Bewerten der Wichtigkeit verschiedener Aspekte zu beeinflussen. H 8: Baufachleute (professional) zeigen beim Wichten der gemeinsamen Aspekte signifikante Unterschiede zu Verwaltungsleuten (administrators). Für geplante Gebäude (T4) legten die Administratoren größeres Gewicht auf die Flexibilität, die Kosten und das Verhältnis zu anderen Gebäuden, während die Professionellen die Effektivität der Funktionen und die Schönheit (visual appeal) wichtiger nahmen. Für existierende Gebäude (T5) hielten die Verwaltungsleute (A4, A5, A6) das Funktionieren von Heizung, Licht und Personenverkehr im Gebäude für signifikanter als die Fachleute (A1, A2, A3). Diese wiederum legten mehr Gewicht auf die Meinung anderer Architekten. Eine andere Gruppe von Hypothesen behandelt die Einstufung der verschiedenen Aspekte auf der Güteskala.
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 097
H 9: Leute sind willens und fähig, Aspekt für Aspekt zu bewerten. Aufschluß darüber geben Listen und Tabellen, die hier nicht gezeigt werden können. H 10: Die Bewerter sind sich jedoch nicht unbedingt einig über die Punktzahl der Güteskala, die sie den Objekten unter den verschiedenen Aspekten zumessen. Zum Beispiel gab A1 dem Objekt O2 (Bauplan) für den Aspekt P15 « Übereinstimmung mit dem Budget » −5, A4 gab jedoch +5. (Die geschätzten Kosten für das Gebäude lagen um ca. 20 % höher als die im Budget veranschlagten.) H 11: Spontane Urteile fallen extremer aus als überlegte Urteile. Von zwanzig spontanen Urteilen waren fünfzehn extremer, verglichen mit den überlegten nach der eigenen Aspektliste, und vierzehn waren extremer, verglichen mit den überlegten Urteilen der Gruppenaspektliste. Der Grund dafür kann darin gesehen werden, daß spontane Urteile mehr von hervorstechend guten oder schlechten Eigenschaften beeinflußt werden. Dabei werden Aspekte vernachlässigt und übersehen, nach denen die Objekte für weder gut noch schlecht oder normal gehalten werden. Überlegungen haben einen nivellierenden Effekt. H 12: Verschiedene Bewerter produzieren Gesamturteile, die dasselbe Vorzeichen haben, d. h., sie stimmen darin überein, ob das Objekt auf die gute oder die schlechte « Seite » gehört. Fast alle spontanen und überlegten Gesamturteile für O1, O2, O3 und O5 haben ein positives Vorzeichen und für O4 ein negatives. Das mag einmal am ähnlichen Bildungsstand der Bewerter liegen, aber auch daran, daß sie an den E ntscheidungen für die Baupläne und Gebäude mitgewirkt und dabei ihre Gedanken über sie schon reichlich ausgetauscht haben. H 13: Überlegte Gesamturteile von Fachleuten haben die Tendenz, schlechter auszufallen als die von Verwaltungsleuten. Das durchschnittliche Gesamturteil der Baufachleute für die fünf Objekte (zwei Pläne und drei Gebäude) betrug + 0,7, während die Verwaltungsleute sie im Durchschnitt mit + 1,5 bewerteten. Dabei kann man sich wundern, daß die Urteile so schlecht ausfielen, obwohl die Bewerter selbst alle wesentlichen Entscheidungen in der Hand hatten. In den « case histories », den Entscheidungsabläufen für die Objekte, die hier nicht beschrieben werden, finden sich Anhaltspunkte dafür, daß die Bewertungssysteme zum Zeitpunkt der Entscheidungen anders waren. Zum Beispiel scheint es, als ob die Meinung anderer Leute während des Entscheidungsprozesses für die Manager ein viel größeres Gewicht hatte als einige Zeit später bei der Befragung.
098 ���������������������
H 14: Einige Bewerter schließen die bekannte oder geschätzte Meinung anderer in ihre Gütefunktion ein. Zum Beispiel gab A3 zum Zweck der Grundstückswahl (T2) den Aspekt « Meinung des Kurators zur Ästhetik » in seiner individuellen Liste an. Erst gab er ihm das Gewicht 5 %, zwei Wochen später 25 % und mit der Gruppenliste 10 %. Andere Aspekte dieser Kategorie waren z. B. « Allgemeine Reputation eines Architekten », « Meinung der Nachbarschaft » und « Meinung anderer Architekten ». H 15: Es gibt Bewerter, die gewillt und fähig sind, für einige Aspekte Transformationsfunktionen zu zeichnen, d. h. ihre Teilurteile als Funktion von « messbaren » Gütevariablen auszudrücken. Wie gesagt, wurde dazu nur die Meinung eines Bewerters A8, eines Architekturstudenten höheren Semesters, und nur zum Zweck T5, Bewertung existierender Gebäude, eingeholt. Ihm wurde die Gruppenaspektliste der Manager vorgelegt, und er versuchte, möglichst genaue Angaben zu machen, wie die Aspekte dieser Liste gemessen werden könnten. Zweifellos hätte A8, wenn er mehr Zeit gehabt hätte, noch einiges geändert. Diese Beispiele werden hier auch nur wiedergegeben, um zu zeigen, wie schwierig es sein kann, Aspekte zu explizieren, wieviel Arbeit mit dem Messen in einem konkreten Fall verbunden wäre, um den Leser zu provozieren, sie durch für ihn bessere Explikationen zu ersetzen. Im folgenden ist die Aspektliste der Manager P1, P2, …, P14 aufgeführt. P8 wurde von A8 in Unteraspekte zerlegt. Transformationsfunktionen, die er gezeichnet hatte, sind nicht wiedergegeben, sondern nur durch ein (F) gekennzeichnet. P1 P2 P3
P4 P5
Unterhaltungskosten: Dimension (xi): Dollar/sq. ft./ Jahr (F) Anlagekosten: Dimension: Dollar/net. sq. ft. (F) für drei verschiedene Gebäudearten. Meinung der Professoren: Nur Lehrer, die das Gebäude benutzen, würden berücksichtigt, die übrigen fielen unter P6. Sie müßten gebeten werden, das Gebäude auf der Güteskala zwischen +5 und −5 zu bewerten. Für das Gruppenurteil würden die individuellen Urteile nach der Anzahl der Stunden pro Woche, die sie sich im Gebäude aufhalten, gewichtet. Meinung der Studenten: Wäre wie die der Professoren zu ermitteln. Meinung der Architekten: Zwanzig Architekten würden aus der örtlichen Liste des AIA herausgesucht. Wenn die Liste hundert Namen enthielte, würde jeder fünfte genommen. Diese Architekten würden aufgefordert, zwei Stunden im Gebäude zuzubringen und es anschließend auf einer Güteskala zu be-
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 099
werten. Das durchschnittliche Urteil wäre dann die « Meinung der Architekten ». P6 Meinung der Gemeinde (community): Die Meinung der Personen, die innerhalb eines Radius von einer Meile wohnen, kommt in Frage. Ein « sample » von 1/100 müßte ein spontanes Gesamturteil abgeben. Der Durchschnitt wäre die « Meinung der Gemeinde ». P7 Richtigkeit der Größe für den Zweck: Dimension/sq. ft./man hours/day (F). P8 Funktion: A8 teilte diesen Aspekt in zwei Unteraspekte: P81 Komfort mit 95 % Gewicht und P82 Effizienz der Zirkulation mit 5 %, die in Anzahl der Wege pro Tag, multipliziert mit der Länge der Wege, gemessen wird. Sehr gut ist die Anordnung und Ausrüstung von Räumen, welche die geringsten Wegelängen pro Tag verursacht. Sehr schlecht sind 50 % und mehr. P81 Komfort teilt er in sechs Unter-unter-Aspekte: P811 Fußböden, 5 %; gemessen werden soll die Elastizität, doch weiß A8 nicht, wie. P812 Heizung, 15 %, wird in zwei Unter-unter-unter-Aspekte geteilt. P8121 Temperatur, 60 %, gemessen würden % der Zeit, in der das Gebäude benutzt wird, die außerhalb eines bestimmten Behaglichkeitsbereiches liegen. (F) P8122 Luftfeuchtigkeit, 40 %, gemessen wie P8121. (F) P813 Licht, 20 %, gemessen in % Abweichung von einem Standard. P814 Luft, 10 %, gemessen wird die Anzahl der Luftwechsel/h. (F) P815 Größe, 25 %, Dimension: sq. ft./Person (F) für vier verschiedene Raumarten. P816 Geräusch, 25 %, gemessen werden die Stärke in db und die Häufigkeit über einem Schwellenwert in % der Benutzungszeit des Gebäudes. (F) P9 Flexibilität: F = Cn/C + Cu, dabei sind F die Flexibilität, Cn die Kosten für ein neues Gebäude zum neuen Verwendungszweck, C die Baukosten des Gebäudes, wie es existiert, und Cu die Umbaukosten für den neuen Verwendungszweck. Welche Flexibilität gut ist, hängt davon ab, von welchem Objekt zu welchem Zweck eine Veränderung mit welcher Wahrscheinlichkeit und wann verlangt wird. P10 Wirtschaftlichkeit des Bauentwurfs: Sie ist groß, wenn die Punkte multipliziert mit den Gewichten für P3 bis P14 (außer P10) groß sind.
100 ���������������������
P11 Bedeutung als architektonische Aussage: Sie hängt von der Anerkennung durch die Architektengemeinde ab, was die Publikation in einer oder mehrerer der folgenden Zeitschriften bedeutet: 1. Progressive Architecture, 2. Architectural Forum, 3. Architectural Review, 4. Zodiac, 5. Architectural Record. Wenn ein Gebäude dort veröffentlicht wird, entspricht die Bedeutung als architektonische Aussage der Anzahl der Quadratzentimeter der Publikation multipliziert mit der Anzahl der Abbildungen. Für die Zeitschrift Nr. 4 sollte ein Reduktions faktor von 0,9 und für Nr. 5 einer von 0,8 angewendet werden. P12 Beziehung (relationship) zu anderen Gebäuden. P13 « Appeal » des Gebäudes. P14 Qualität der Umgebung. Zu diesen drei letzten Aspekten meinte A8: « I refuse to measure aesthetics. »
VII. Zusammenfassung Das Ergebnis unserer Untersuchung ist ein Vorschlag für ein Verfahren6, um die Güte eines Objektes, seine Eignung für einen bestimmten Zweck festzusetzen, zu messen. Er besteht aus einigen Regeln zum Aufstellen expliziter Gütefunktionen von einzelnen Bewertern oder Gruppen, wobei Schritt für Schritt spontane Urteile durch überlegte ersetzt werden. Der empirische Teil ergab einige Evidenz zur Unterstützung der Annahmen und für die praktische Durchführbarkeit. Er zeigte auch, wie spezifisch die Aspekte für eine bestimmte Entscheidungssituation sein können. Es erscheint hoffnungslos, daß jemals ein standardisiertes Bewertungssystem für eine große Anzahl von Entscheidungsproblemen aufgestellt werden kann. Andererseits könnte ein Verfahren zum Aufstellen expliziter Bewertungssy steme in speziellen Situationen ein brauchbares Werkzeug sein. Solche Prozeduren garantieren nicht bessere Entscheidungen, aber • sie können die Wahrscheinlichkeit verringern, daß wichtige Faktoren vergessen werden, • sie können helfen, die Gebiete deutlich zu machen, auf denen der Bewerter nicht genügend informiert ist, • sie können den Einfluß von momentanen Launen und von Vorurteilen reduzieren, • und sie können Konflikte oder Übereinstimmungen und die relative Wichtigkeit von Konflikten deutlich machen.
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 101
Die Prozedur könnte somit im Bauwesen nützlich sein: • bei Planungsentscheidungen von Gruppen, • bei Kommunikation zwischen Architekten und Bauherren, Studenten und Professoren, • beim Formulieren von Wettbewerbs- und anderen Entwurfs aufgaben, • beim Entwerfen von Programmen für die Forschung und Entwicklung, • beim Aufstellen « flexibler » Gütevorschriften (Performance Standards) in der Gesetzgebung und bei Ausschreibungen von Entwurfs- und Bauleistungen. Um jedoch die vermutete Nützlichkeit für alle diese Gebiete zu erhärten, müßten noch einige Überlegungen und Versuche angestellt werden. Erstens müßte die Theorie weiterentwickelt werden, insbesondere • das Eichen oder Objektivieren der Güteskala, • das Zusammenfassen ähnlicher Aspekte der individuellen Listen zu Aspekten einer Gruppenliste und das Vermeiden von Überschneidungen in der Bedeutung der Aspekte, • die statistischen Maße für die Ähnlichkeit von Gewichts- und Punktvektoren, • das Berücksichtigen von Unsicherheiten. Zweitens müßten empirische Untersuchungen gemacht werden: • die Prozedur müßte im Kontext wirklicher Entscheidungen erprobt werden; • es müßte mehr über die Zeitstabilität der Gewichts- und Punktvektoren für verschiedene Personenkreise in Erfahrung gebracht werden; • es müßten für denselben Zweck Entwurfsstudien gemacht werden, um zu prüfen, ob und wie sehr Entwürfe für bestimmte Personen besser werden, wenn sie explizite Bewertungssysteme vorlegen; • es müßte geprüft werden, wie empfindlich Entwürfe oder fertige Gebäude gegen Veränderungen von Gütefunktionen sind.
102 ���������������������
1 Wettbewerbsarbeiten von Architekten werden gewöhnlich beim Posteingang auf einer Nominalskala, bei den Durchgängen auf einer weichen und in der engeren Wahl auf einer harten Ordinalskala gemessen. 2 Über Messen und Skalen siehe Ackhoff, R. L.: Scientific Method Optimizing Applied Research D ecisions, New York, 1962, Kap. 6; Stevens, S. S.: On the Theory of Scales of Measurement, in: Danto, A. und Morgenbesser, S. (Hrsg.): Philosophy of Science, Cleveland, 1960. 3 In praxi wird versucht, schlechte Lösungen durch Nebenbedingungen (constraints) auszuschließen, meistens durch Schwellenwerte für kritische Aspekte, die nicht überschritten werden dürfen, aber auch durch Beschränkung der Entscheidungsbefugnis auf Personen mit bestimmten Bewertungssystemen. Deshalb dürfte in der Regel der lineare Typ als Annäherung genügen. 4 Siehe Ackhoff, R. L.: Scientific Method, a. a. O., S. 77; vgl. auch: Churchman, C. W.: Prediction and Optimal Decision, Englewood Cliffs, NJ, 1961. 5 Damit ist auch etwas darüber gesagt, unter welchen Umständen es sinnvoll ist, davon zu sprechen, eine Entscheidung sei «transparent» oder «nachvollziehbar». 6 Die Prozedur ist als «soziale Technik» gedacht im Sinne von Helmer, O.: Social Technology, New York – London, 1966. Andere Versuche, die Güte von Gebäuden zu messen, schlagen normative Bewertungssysteme vor, z. B. McLeary, R. D.: Guide for Evaluating School Buildings, Cambridge, MA, 1952. Er gibt eine Liste von Aspekten mit einer höchstmöglichen Punktzahl für jeden (Summe 1000) und einigen verbalen Anweisungen, wann sie voll oder teilweise erteilt werden soll. Die Aspekte und Höchstpunktzahlen sind vom Autor ausgewählt. Kosten werden nicht berücksichtigt. Der Aspekt IIC2 «Form und Architektur» z. B. kann das Maximum von 5 Punkten bekommen, wenn die Schule «attraktiv, praktisch und wirkungsvoll ist, sowohl im Betrieb als auch pädagogisch». Die «Wandtafeln», Aspekt IVA9, können 20 Punkte erzielen, wenn sie genügend groß und an der richtigen Stelle angebracht sind. Buchanan, C.: Traffic in Towns, London, 1963, gibt eine Liste von Aspekten, um Sanierungsvorschläge zu bewerten, und j edem Aspekt eine höchstmögliche Punktzahl, um die «benefits», den Nutzen, zu bekommen. Das Nutzen/ Kosten-Verhältnis ist das Maß für die Effektivität (Güte) der Vorschläge.
* Quelle: Arbeitsberichte zur Planungsmethodik 1, Bewertungsprobleme in der Bauplanung; herausge geben vom Institut für Grundlagen der modernen Architektur, Prof. Dr.-Ing. Jürgen Joedicke, Universität Stuttgart. Karl Krämer Verlag, Stuttgart 1969, S. 37–61 Dieser Aufsatz behandelt einige Ergebnisse einer Voruntersuchung, über die unter dem Titel « Measuring the Performance of Buildings » 1967 dem Förderer, dem Institute of Applied Technology, U. S. Department of Commerce, berichtet wurde.
ÜBER DAS MESSEN DER GÜTE VON GEBÄUDEN 103
Urteilsbildung und Urteilsrechtfertigung* « ’Tis with our judgements as our watches, none go just alike, yet each believes his own. » (A. Pope)
Die folgenden Ausführungen sind nicht nur dadurch motiviert, daß es eine Lust ist, mit Juristen zu streiten. Ob ein Richter durch sein Urteilen – nie, gelegentlich oder immer – das geltende Recht verändert, ob er hierzu befugt oder sogar dazu aufgefordert ist, woran man derartige Innovationen erkennt, wie man sie gegebenenfalls rechtfertigt oder auch zurückweist: dies sind Fragen, welche in ähnlicher Form auch außerhalb des Richterstandes akut sind. Jeder Juror eines Wettbewerbes, jeder gutachtende Experte befindet sich in einer Rolle, die so viele Gemeinsamkeiten mit der des Richters hat, daß es sinnvoll erscheint, die Betrachtung auf eine allgemeinere Klasse von « Urteilern » zu abstrahieren – in der Hoffnung auf Resultate, die für das Verständnis der spezifischen Ausformungen nützlich sind. Dieses ist die Annahme der folgenden Ausführungen. Sie sind vom Standpunkt der Planungs- und Entscheidungstheorie aus entwickelt, die sich naturgemäß auch mit dem Urteilen beschäftigt. Die hier betrachtete Klasse der Situationen ist durch folgende Merkmale beschrieben: Einem Akteur sind ein Gefüge expliziter Sollsetzungen (Gesetze, Normen, Gepflogenheiten) sowie das Protokoll ihrer bisherigen Anwendungen auf konkrete Fälle gegeben. Gefordert ist sein Urteil (eine Entscheidung) angesichts gewöhnlich widersprüchlicher Darstellungen der Sach- und Sollverhalte in « derselben Sache ». Zudem wird von dem Akteur verlangt, daß er sein Urteil begründet. Wann ist ein Urteil innovativ? Bevor diese Frage behandelt wird, empfiehlt es sich, zuerst das Zustandekommen von Urteilen und ihrer Rechtfertigungen zu analysieren. Es soll ein Blick auf die « Logik » des Urteilens geworfen werden – wobei unter einer Logik ein System von Maximen und Prinzipien verstanden wird, welche eine Denk- und Handlungsweise leiten. Dabei wird das Risiko in Kauf genommen, welches sich jeder Eindringling in einen ihm fremden Fachdiskurs – hier dem der Rechtsphilosophen – einbrockt: ihm fehlt das Gefühl, ob er mit seinen Überlegungen offene Türen einrennt, ob sie als Ungeheuerlichkeiten aufgefasst werden, oder ob sie tatsächlich informativ sind. Nur der Versuch kann’s lehren.
104 ���������������������
1. Die Unzulänglichkeit « klassischer » Entscheidungstheorien als Modelle der Urteilsbildung Wie läßt sich der Vorgang des Urteilens beschreiben? Dem Dezisionisten ist er sakrosankt und prinzipiell jeglicher Beschreibung entzogen. Der Behaviorist versteht ihn als « response » auf ein Stimulusbündel, wobei geduldiges Studium der « black box » sicherlich eines Tages erhellen wird, wie diese Transformation zustandekommt: Letzten Endes sei ja alles determiniert. Der Logiker versucht syllogismusartige Figu ren zu konstruieren, die aus Prämissen das Urteil zu implizieren gestatten sollen. Seit den 50er Jahren gibt es die Entscheidungstheorie, die nicht nur das Zustandekommen von Entscheidungen erklären will, sondern auch – so ihre besonders engagierten Vertreter – algorithmisch abzuleiten erlauben soll, welche Entscheidung in einer gegebenen Situation « richtig », « rational » oder « optimal » ist. Verwandt sind der « kybernetische » Ansatz und einige Formen der Informatik – hier die « Rechtsinformatik ». Nicht selten hört man die Behauptung, daß derartige Ansätze die Entscheidungspraxis verbessern könnten, und es fehlt nicht an Forderungen nach « computergerechter Gesetzgebung », Visionen von « programmierter Rechtsprechung » und « optimaler Effizienz « der Justiz. Sicherlich hat jedes dieser Modelle seine Meriten gehabt. Indessen ist keines von ihnen geeignet, um die genannten Ansprüche zu erfüllen. Um diese Behauptung zu stützen, verdiente jeder dieser Ansätze eine gründliche Analyse. Es mag indessen genügen, die Strategie der Kritik etwas ausführlicher am Beispiel der nunmehr « klassischen » Entscheidungstheorie zu demonstrieren, wie sie sich neben und in Wechselwirkung mit Operations Research, Spieltheorie, Statistik und dgl. in den letzten Jahren entwickelt hat. In diesem Modell sieht sich der Akteur (der Entscheider) in einer Situation, die durch die folgenden Daten beschrieben und gegeben ist: • eine wohldefinierte Menge von alternativen Handlungsmöglichkeiten (der Lösungsraum), unter denen eine zu wählen ist. Sie kann diskret oder kontinuierlich, ein- oder mehrdimen sional sein; • ein Satz von Konstriktionen oder « Zwängen » (constraints), welche die « an sich » denkbaren Möglichkeiten des Lösungsraumes einschränken, indem Teile des Lösungsraumes aufgrund rechtlicher, budgetärer, technischer und ähnlicher Beschränkungen als « unzulässig » ausgeschlossen werden; • die Konsequenzen der Maßnahmenalternativen; sie können determiniert, riskant oder « echt unbestimmt » sein (wie in allen Situationen, wo man nicht gegen eine gleichgültig rea gierende « Natur », sondern einen intelligenten, mehr oder weniger feindseligen Gegner « spielt »);
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 105
• eine Bewertungsfunktion, die den Konsequenzen jeder Alter native ein Maß ihrer Erwünschtheit zuordnet; • ein Entscheidungskriterium, welches die Einstellung des Akteurs zu Risiko und Unsicherheit (« Maximiere den erwarteten Erwünschtheitsgrad », « Optimiere das Minimum », Prinzip der kleinsten Reue usw., usw.) sowie zur angemessenen Verteilung von Vor- und Nachteilen über die von der Entscheidung Betroffenen beschreibt (« Optimiere die durchschnittliche Betroffenheit », « Optimiere das Los des am schlimmsten Betroffenen » usw.). Gesucht ist die unter diesen Umständen beste Entscheidung. Es ist das unbestrittene Verdienst der « klassischen » Entscheidungstheorie, diesen Katalog von begrifflichen Zutaten des Entscheidens erarbeitet zu haben. Aber leider gibt sie keine Antwort darauf, wie man in einem konkreten Fall zu allen diesen « Input-Daten » kommt. Erst wenn sie alle « gegeben » sind, kann die Suche nach der « optimalen Entscheidung » beginnen – wofür eine Fülle von Algorithmen bereitsteht (auf deren Entwicklung sich dieser Ansatz konzentriert). Es ist nicht übertrieben zu behaupten, daß diese Theorie mit ihren Methoden erst dann einsetzt, wenn die Schwierigkeiten des Entscheidens bereits überwunden sind, wenn die schwerwiegenden Entscheidungen bereits gefällt sind, wenn es « eigentlich » nichts mehr zu entscheiden gibt. Jeder Posten in der Liste der erforderlichen « Inputs » verlangt Entscheidungsarbeit: • Der Katalog der Handlungsalternativen ist keineswegs selbstverständlich gegeben. Man kann sich immer noch weitere einfallen lassen. Wie entscheidet man, ob sich die Suche nach weiteren Alternativen lohnt? • Das System der Konstriktionen, der « Zwänge », ist nicht einfach « sachlogisch » oder objektiv zu erschließen (also gewissermaßen ein bloßes Retrievalproblem), sondern das Produkt mehr oder weniger couragierten Urteilens. Welche Zwänge man sieht und sich auferlegt, was man als gegeben, was als veränderbar ansieht, hängt von Phantasie, Selbstvertrauen und Optimismus ab. Konstriktionen werden vom Entscheider gesetzt, nicht erschlossen. • Ebenso schwierig ist die Ermittlung der Konsequenzen erwogener Maßnahmen. Wann soll man die Fahndung nach weiteren mutmaßlichen Konsequenzen abbrechen? Offensichtlich hängt das Ergebnis « entscheidend » von der Wahl eines Kausalmodells ab. Welches soll man benutzen?
106 ���������������������
• Vielleicht noch schwieriger ist die Bewertung der Konsequenzen, die Feststellung ihrer Erwünschtheitsgrade. Welche Gesichtspunkte sollte man in Betracht ziehen? Wie verrechnet man ihre Vor- und Nachteile? • Schließlich: Die Entscheidungstheorie liefert kein Kriterium für die Auswahl eines Entscheidungskriteriums in einer spezifischen Situation. Mehr noch als die Einstellung zu Risiko und Unsicherheit ist die Frage nach dem angemessenen Verteilungsmodus von Vor- und Nachteilen einer Maßnahme über die Menge der von ihr vermutlich Betroffenen häufiger Anlaß quälender Entscheidungsnot. Die Entscheidung für ein bestimmtes Kriterium ist der Ausdruck der « Weltansicht » des Akteurs von Gerechtigkeit, sozialer Wohlfahrt und anderen Aspekten seines sozialen Sollbildes. Je länger man darüber nachdenkt, um so schwerer fällt es, sich für ein bestimmtes Kriterium zu entschließen. Wenn das alles so ist – und nicht nur die Introspektion spricht dafür –, hilft die klassische Entscheidungstheorie in der Tat wenig, um das Entscheiden zu verstehen oder es gar zu erleichtern. Sind erst einmal alle « Inputs » für das Modell vorhanden, bleibt nichts als eine vielleicht komplizierte, aber sonst harmlose Rechenaufgabe, deren Resultat soviel wert ist, wie die benutzten Eingabewerte, die den « eigentlichen » Entscheidungsaufwand erfordern. Was gesollt werden soll, ist bereits entschieden. Es bleibt das zahme Problem, in vielleicht unübersichtlichen Entscheidungsräumen, zwischen Dickichten und Konstriktionen eine optimale Lösung zu suchen – optimal relativ zu der Beurteilung der Situation, wie sie in den Eingabedaten zum Ausdruck kommt. Natürlich kann man versuchen, das Modell dieser Entscheidungstheorie auf die Ermittlung jedes Eingabedatums anzuwenden. Das Resultat wäre eine ebensolche Liste für jedes Datum, mit den gleichen Schwierigkeiten. Noch schwerwiegender als schon diese enttäuschten Befunde sind die Grundannahmen dieser Modelle. Sie unterstellen, daß der Prozeß der Entscheidungsfindung in zwei Teile zerfällt: eine Vorbereitungsphase und die Entscheidung selbst. Nachdem die Situation analysiert ist, tritt der Akteur vom gewonnenen Bild zurück, läßt es auf sich wirken und vollzieht den Akt der Entscheidung. Aber ist dann eigentlich noch ein Entscheidungsakt nötig? Die « Analyse » hat doch schon erbracht, was das Beste ist. Der Entscheider wäre töricht, wenn er sich für etwas anderes als das Beste entscheiden würde.
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 107
2. Ein Paradigma der Urteilsbildung Ein realistischeres Bild sollte die Entscheidung nicht losgelöst von ihrer « Vorbereitung » darstellen. Jeder weiß, daß Entscheidungen nicht so zustandekommen. Vorzuziehen ist ein Bild, in dem der Vorgang der Entscheidung – nennen wir ihn Urteilsbildung – ein allmählicher Prozeß ist, der in einer Situation ausgelöst wird, in der man ratlos ist, was zu tun sei, und der damit endet, daß man sich mehr oder weniger Gewißheit darüber verschafft hat, was die angemessene Aktion ist. Die Urteilsbildung besteht darin, ein Situationsverständnis zu entwickeln, welches die Einsicht beinhaltet, daß man so und nicht anders handeln sollte. Im Verlaufe dieses Prozesses werden alternative Handlungsmöglichkeiten gesucht und gefunden; es werden ihr Für und Wider abgeschätzt und gegeneinander abgewogen; das Ausgangsproblem verändert sich mit seiner Behandlung. Alle genannten « Zutaten » der Entscheidung kommen ins Spiel, aber nicht als geordnete, kategorisierte Liste, die der Reihe nach abgearbeitet werden kann, bevor es zur Entscheidung kommt. Die Erarbeitung der Zutaten im Sinne der klassischen Entscheidungstheorie ist die Urteilsbildung. Wenn man Allegorien schätzt, kann man die Urteilsbildung mit einem Wettrennen zwischen den alternativen Handlungsmöglichkeiten vergleichen, in dessen Verlauf weitere « Pferde » ins Rennen geschickt werden, Handikaps verschärft und hinzugefügt werden. Die miteinander konkurrierenden Möglichkeiten bleiben solange im Rennen, bis sich eine von ihnen als überlegen erweist und der Akteur das Rennen abbricht. Die Entscheidung ist gefallen. Die Urteilsbildung ist identisch mit der Entscheidung. Urteile sind von verschiedener Art. Faktische Urteile stellen einen Sachverhalt fest: X ist der Fall (« Dies ist ein Fall fahrlässiger Körperverletzung »). Deontische Urteile beziehen sich auf Sollverhalte: X soll der Fall sein, bzw. werden (« Der Angeklagte ist nach § … zu bestrafen »). Explanatorische Urteile postulieren die Erklärung oder Ursache eines Sachverhaltes: X ist die Ursache von Y (« Die Verhaltensweise ist durch zeitweilig verminderte Zurechnungsfähigkeit zu erklären »). Instrumentelle Urteile identifizieren eine Maßnahme als Möglichkeit zur Behebung einer Diskrepanz zwischen Ist- und Sollverhalt: X ist eine Möglichkeit, um Y in nicht-Y zu überführen (« Strafaussetzung ist in diesem Falle eine Möglichkeit zur sozialen Rehabilitierung »). Mischformen dieser Urteilsarten sind häufig. Wie läßt sich die Feinstruktur der Urteilsbildung beschreiben? Es empfiehlt sich, zwei Dichotomien zur Klassifizierung von Urteilen einzuführen. Zunächst soll zwischen Gesamturteilen und Partialurteilen unterschieden werden. Ein Partialurteil wird unter einem bestimmten, begrenzten Gesichtspunkt gefällt, wobei alle anderen Aspekte, die eine Rollen spielen könnten, außer Betracht gelassen werden (« Unter dem Gesichtspunkt der Rädelsführerschaft ist der Angeklagte zu entlasten »).
108 ���������������������
Jeder Beurteilungsprozeß kommt mit einem Gesamturteil zu seinem Ende (« Nach Würdigung aller Gesichtspunkte wird der Angeklagte als schuldig erkannt »). Es bezieht sich auf den Fall als Ganzes und bringt ihn – wenigstens einstweilen – zum Abschluß. Während Partialurteile dem Für und Wider, dem Zwar und Aber entsprechen, die vom Urteilenden gesucht und gefunden werden, ist das Gesamturteil aus der Bemühung entstanden, alle Aspekte mit gebührendem Gewicht zu berücksichtigen. Die andere Dichotomie unterscheidet Spontanurteile und deliberierte Urteile. Spontanurteile werden ohne zu überlegen oder zu zaudern – « off the cuff » oder « off-hand » – gefällt. Der Urteilende ist sich seiner Sache spontan gewiß. Alle perzeptiven Urteile sind von dieser Art (« Dieser Zeuge ist glaubwürdig », « Diese Suppe schmeckt gut »), aber auch in Situationen, die aus vielen früheren Situationen zureichend ähnlich gesehen werden, wird häufig gewohnheitsmäßig, d. h. spontan, geurteilt. Deliberierte (oder: überlegte) Urteile sind dagegen Ergebnisse des Nachdenkens, des Abwägens, des Zweifels, begleitet von der Suche nach Information. Deli berierte Urteile werden « gebildet », während Spontanurteile einfach « geäußert » werden. Alle vier Kombinationen dieser Kategorien treten auf: Es gibt spontane ebenso wie überlegte Gesamturteile, und jedes Partialurteil kann entweder spontan gefällt oder deliberiert werden. Mit Hilfe dieser Unterscheidungen stellt sich das Urteilen folgendermaßen dar. Ein Akteur sieht sich einem Beurteilungsproblem gegenüber. Dann gibt es zwei Möglichkeiten. Er fällt ein spontanes Gesamturteil, womit der Fall erledigt ist. Oder aber, er deliberiert sein Urteil: Er sucht nach Gesichtspunkten und Argumenten, die zu seinem Gesamturteil beitragen könnten. Diese Aspekte erfordern Partialurteile – entsprechend dem Für und Wider, die aufgedeckt werden und zum Gesamturteil beitragen. Diese Partialurteile können ihrerseits wieder spontan gefällt oder deliberiert werden, indem man nach Unteraspekten und Argumenten sucht, die ihrerseits Partialurteile (2. Ordnung) erfordern usw., usw. Das Gesamturteil wird erreicht, indem man die Partialurteile auf den verschiedenen Ebenen aggregiert, d. h. sie gewichtend miteinander « verrechnet », bis man zum deliberierten Gesamturteil gelangt. Wenn man Sorge dafür trägt, daß – im Falle der Deliberierung – alle Partial urteile, die zu einem übergeordneten Urteil beitragen, voneinander logisch unab hängig (keines überlappt sich begrifflich mit irgendeinem der anderen) und vollständig sind (das übergeordnete Urteil hängt nur von den aufgeführten Partialurteilen ab), dann läßt sich dieser Vorgang graphisch als « Baum » darstellen, dessen Knoten den Urteilen entsprechen, und dessen Zweige deliberierte Urteile mit den zugeordneten Partialurteilen verbinden. So einfach dieses Paradigma ist, so drastisch zeigt es ein wichtiges Merkmal der Urteilsbildung: Alle freien Enden (Terminals) des Baumes entsprechen
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 109
Spontanurteilen. Je « tiefer » ein Gesamturteil deliberiert wird, desto verzweigter wird der Baum, umso mehr Spontanurteile sind zu fällen. Mit anderen Worten: Je mehr man versucht, sein Urteil durch Überlegung (Deliberierung) abzusichern, je sorgfältiger man Spontanurteile vermeiden will, desto tiefer verzweigt sich der Baum und desto größer wird die Zahl der zu fällenden Spontanurteile. Dabei werden die Spontanurteile auf der jeweils nächsten Deliberierungsstufe nicht notwendig einfacher, sondern eher immer grundsätzlicher und damit schwieriger. Je besser man ein Urteil begründen will, umso mehr muß man sich auf Unbegründetes, Ungerechtfertigtes, Nicht-Abgeleitetes verlassen. Nachdenken ist kein Ersatz für das Urteilen. Es gibt keinen Algorithmus, der Urteile erzeugt. Es sind Spontan urteile, für die ein Richter gebraucht wird und für die er bezahlt wird.
3. Urteilsrechtfertigung Wenn dies so ist, warum sollte man dann überhaupt sein Urteil deliberieren? Wenn der Versuch, ein Spontanurteil zu vermeiden, mit zunehmender Gründlichkeit immer mehr Spontanurteile erfordert, sollte man ihn dann nicht lieber unterlassen und gleich mutig ein spontanes Gesamturteil wagen? Es gibt drei Gründe für die Deliberierung von Urteilen: 1. Man ist unfähig, ein Spontanurteil zu fällen. Die Fähigkeit zum spontanen Urteilen ist beschränkt. Wie es scheint, fallen einem spontane Urteile um so leichter, je mehr die vorliegende Situation Gewohntem, häufig Erfahrenem ähnelt. Auch die Nähe zu tiefliegenden Überzeugungen hinreichend abstrakter Art – sogenannten « motherhood-values » – stimuliert spontane Urteile, ebenso wie Instinkt und direkte Wahrnehmung. Je außergewöhnlicher eine Situation, um so seltener wird die Fähigkeit zum Spontanurteil. 2. Man mißtraut seinem Spontanurteil. Häufig ist der Akteur in der Lage, ein Spontanurteil abzugeben, aber es erscheint ihm tunlich, es dennoch lieber zu deliberieren. Dieser Fall tritt ein, wenn zuviel auf dem Spiele steht, um sich auf den ersten Eindruck verlassen zu wollen – das Spontanurteil könnte ja durch Überbetonung von Vordergrundaspekten oder Vorurteile verzerrt sein. 3. Das Urteil ist gegenüber anderen Personen zu rechtfertigen. In dieser Situation versucht der Akteur, die Grundlagen seines Urteils jemandem anderen möglichst explizit zu übermitteln.
110 ���������������������
Er versucht zu begründen, warum sein Urteil so und nicht anders ausgefallen ist. Er versucht, ein Argument zu konstruieren, dessen Prämissen von den Adressaten geteilt werden oder wenigstens toleriert werden können, und das möglichst bündig das Urteil zur Konklusion hat. Der dritte Anlaß zur Deliberierung ist vor allem dann gegeben, wenn mehrere Akteure die Verantwortung für eine Entscheidung teilen, jedoch ihre Urteile nicht übereinstimmen, und sie versuchen, sich gegenseitig zu überzeugen.
Deliberierung ist die Voraussetzung dafür, daß man über ein Urteil diskutieren kann. Sie verhilft dazu, Gemeinsamkeiten zwischen den Standpunkten aufzu decken, aber auch signifikante Diskrepanzen, über die sich zu streiten lohnt – was gleichbedeutend mit weiterer Deliberation ist. Das skizzierte Modell der Urteilsbildung demonstriert, daß das Urteilen im allgemeinen Falle nicht objektiv sein kann. Spontanurteile hängen « entscheidend » von der Person ab, die sie fällt. Aber auch welche Aspekte bei der Deliberierung gesehen, wie sie gegeneinander abgewogen werden, ist im allgemeinen durch die spezifische « Weltansicht » des Beurteilers geprägt. Objektive Prozeduren sind dadurch ausgezeichnet, daß ihre Ergebnisse unabhängig von der Person sind, die sie ausführen. Die Zähl- und Meßverfahren der Physik sind die besten Beispiele für objektive Prozeduren. Statt des unanwendbaren Ideals der Objektivität empfiehlt sich ein schwächeres Konzept, um die Urteilsbildung und die Urteilsrechtfertigung in sozialen Kontexten zu charakterisieren. In Ermangelung einer weniger mißverständlichen Vokabel soll der Begriff der Objektifizierung eingeführt werden. Eine Person A hat gegenüber einer Person B die Grundlagen ihres Urteils erfolgreich objektifiziert, wenn B dadurch in die Lage versetzt wird, das Urteil von A nachzuvollziehen, ohne es notwendig selbst zu teilen. Im Idealfall erfolgreicher Objektifikation hat B die Urteilsgrundlagen des A so gut verstanden (sich so gut « eingefühlt »), daß er stellvertretend für A urteilen kann, obschon das Resultat vielleicht seinem eigenen Urteil zuwiderläuft. Erfolgreiche Objektifizierung ist also nicht mit Überzeugung zu verwechseln. Überzeugung ist erzielt, wenn das von A angebotene « Deliberierungsschema » rückhaltlos von B übernommen wird: B akzeptiert dann nicht nur die Spontanurteile von A, sondern auch A’s (spontane oder deliberierte) Aggregierung der Partial urteile zu einem Gesamturteil. Das gilt selbst für den Fall der Objektivierung, in dem A die Objektifizierung seines Standpunktes so weit getrieben hat, daß jedermann zum gleichen Urteil kommt, sofern er nur A’s Instruktionen folgt (er sich also auch in A’s Spontanurteile « einfühlen » kann). Je mehr in einer Situation auf dem Spiel steht, je « entscheidender » die Interessen von Beteiligten auf dem Spiel stehen, desto geringer ist die Wahrscheinlichkeit der allseitigen Überzeugung.
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 111
Objektifizierungsbemühungen sind der Motor jeder Diskussion, jeder argumentativen Auseinandersetzung. Jeder Teilnehmer versucht, die anderen Parteien von seiner Problemsicht zu überzeugen, indem er ihnen ein plausibles Deliberationsschema anbietet, welches das eigene Urteil zu rechtfertigen versucht. Gewöhnlich sind Einwände und Zweifel die Reaktion. Die Argumentation hält solange an, wie diese Gegenhaltungen zur Verfeinerung und Modifikation des Deliberierungsschemas führen, die wiederum zu neuen Fragen führen können. Dieser Diskurs mag als Lernprozeß bezeichnet werden. Die Teilnehmer lernen voneinander, wie sie jeweils das vorliegende Problem verstehen, also zu ihren Urteilen kommen. « Aha-Erlebnisse » sind hierbei nicht so selten, wie man befürchten könnte. Wenn z. B. A’s Deliberierungsschema einen Aspekt anbietet, den B bislang nicht « gesehen » hat, den er aber – nach eigener Einsicht – in Betracht ziehen sollte, dann hat B’s Problemsicht eine Dimension gewonnen, die sonst übersehen worden wäre. Dies ist vielleicht der größte Vorteil solcher Gruppenprozesse: Die Wahrscheinlichkeit, daß ein Beteiligter etwas außer Acht läßt, was er selbst für wichtig erachten würde, wenn er nur darauf gekommen wäre, wird durch argumentative Objektifikation verringert. Ein angebotenes Deliberierungsschema kann der tatsächlichen Überzeugung seiner Urheber entsprechen oder eine taktische Konstruktion sein, ein « Rationalisierungsversuch », der ein Urteil durch andere als die vorgebrachten Deliberationen begründen soll – sei es, weil von der Offenlegung der wahren Urteilsgründe moralischer Anstoß befürchtet wird, sei es, um die Durchsetzungschancen eines Urteils in der vorliegenden Interessenkonstellation zu erhöhen. Welche dieser Möglichkeiten in einem konkreten Fall vorliegt, ist gelegentlich nicht einmal dem Akteur selbst bewußt. Wann kommt ein Objektifizierungsvorgang zum Ende? Nur selten wird dies durch erzielte Einmütigkeit eintreten. Wie oben gesagt, würde dies die Einräumung der Beteiligten voraussetzen, daß ein angebotener Baum der Partialurteile einschließlich seiner freien Enden (also der Spontanurteile) und der Modus der gegenseitigen Verrechnung der Für und Wider allseitig akzeptiert wird. Häufig ist der Fall, daß zwar Übereinstimmung über das Gesamturteil erreicht wird, aber die individuellen Deliberierungsschemata nicht übereinstimmen. Man kann trotz unterschiedlicher Problemverständnisse zum gleichen Urteil kommen. Ebenfalls nicht selten ist der Fall der Resignation. Einer oder mehrere Beteiligte geben ihre Position auf, weil sie es müde sind oder keine Hoffnung auf die Durchsetzung ihres Standpunktes haben. « Um des lieben Friedens willen », aber unüberzeugt, stimmen sie einem Urteil zu, das nicht ihr eigenes ist. Genauer gesagt: Ihr « privates » Situationsbild enthält Gesichtspunkte, die das Bedürfnis nach Beendigung der Argumentation gewichtiger erscheinen lassen, als das Ergebnis der Austragung des « issues at hand ». In anderen Fällen hat der Prozeß zunehmens Polarisierung der Problemverständnisse zur Folge, nämlich wenn die fortgesetzte Deliberierung die A ufdeckung
112 ���������������������
immer tiefgründigerer Urteilsgrundlagen mit sich bringt und u nüberbrückbare Überzeugungen aufeinander treffen. Weitere Objektifizierungsversuche wären ver geblich. Welches Urteil schließlich durchgesetzt wird, bestimmt sich durch « Macht ausübung » (Abstimmung, Amtsgewalt, Rechtsweg, aber auch Gewaltanwendung usw., usw.). Für den oben an dritter Stelle genannten Anlaß zur Deliberierung, nämlich die Absicht, die Grundlagen seines Urteilens an jemand anderen zu vermitteln (zu objektifizieren), gibt es verschiedene Motive: • der Akteur will sein Urteil an andere Personen delegieren (wie etwa der Gesetzgeber an die Rechtsprechung); • der Akteur hat den Wunsch, jemand anderen von seiner Problemsicht zu überzeugen (wie der Verteidiger die Geschworenen); • der Akteur hat das Bedürfnis, sein Situationsverständnis zur Debatte zu stellen – in der Hoffnung, daraus zu lernen; • der Akteur ist rechenschaftspflichtig; er ist gehalten, sein Urteil zu rechtfertigen, zu demonstrieren, daß er im Einklang mit einem Normensystem handelt (er ist « accountable »). Dies ist z. B. die Situation des Richters, der begründen will, daß sein Urteil rechtens ist. Was auch immer der Objektifizierungsanlaß ist – hier interessiert vor allem der letztgenannte –: Der Akteur nennt Gründe für das Zustandekommen seines U rteils. Ob es sich um faktische, deontische, explanatorische oder instrumentelle Urteile handelt – « hinter » jedem Partialurteil oder Gesamturteil steht ein « Garantor », der – zumindest vorerst, ausdrücklich zitiert oder implizit beschworen – als zureichende Absicherung des Urteils angeboten wird. Der weitere Diskurs mag den Garantor in Zweifel ziehen, seine Glaubwürdigkeit oder Verläßlichkeit schwinden lassen. In diesen Fällen wird weiter deliberiert, womit andere Garantoren auf den Plan gerufen werden. Garantoren sind die ausgesprochenen oder implizit gelassenen « Gründe » für Spontanurteile (obschon – qua definitionem – Spontanurteile ja gerade nicht weiter begründet sind). Die Berufung auf einen Garantor ist ein Spontanurteil – sonst wäre es keiner. Es gibt viele Garantoren. Die Listen der jeweiligen zulässigen oder akzeptierten Garantoren wechseln mit den Zeitläufen (« Der Führer hat es befohlen »), und sie unterscheiden sich in verschiedenen Kulturen (« Das Gottesurteil beweist die Schuld des Angeklagten, da er ertrunken ist »). Häufig bleiben die Garantoren implizit – enthymemisch, wie Aristoteles solche stillschweigenden Unterstellungen genannt hat –, weil der Urteilsrechtfertiger voraussetzt, daß jedermann den Garantor selbstverständlich erkennt, so daß seine Nennung redundant wäre (« offensichtlich ist … der Fall »).
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 113
Wird in einem argumentativen Diskurs ein Garantor angezweifelt oder angegriffen, hat sein Proponent die Wahl, auf ihn zu beharren (« Hier stehe ich, ich kann nicht anders »), ihn zurückzuziehen, ihn weiter zu deliberieren, oder die Tatsache seiner Infragestellung als diskriminierend für den Opponenten zu behaupten. Zur Illustration und ohne Anspruch auf Vollständigkeit mögen einige heute und hier gebräuchlichen Garantoren aufgezählt werden: • die Perzeption, die unmittelbare Wahrnehmung der Sinneseindrücke (« Ich habe es mit eigenen Augen gesehen »); dies ist die empiristische Überzeugung, daß notfalls den Sinnen eher zu trauen sei als dem Verstand; • die Wahrnehmung zweiter Hand, die Evidenz der Umstände; Photographien, Tonbandaufnahmen, Zeugenaussagen, werden als unbestritten und unbestreitbar angeboten, weil dem vermittelnden Medium Verläßlichkeit zugesprochen wird; • der gesunde Menschenverstand, die Vernunft: Dies ist die Überzeugung des Rationalismus, daß im Zweifel dem denkenden Verstand die Überlegenheit über die trügerischen Sinne zukommt (« Trotz aller Verschleierungsversuche ist anzunehmen, daß der Angeklagte hinreichend Anlaß hatte, die Tat zu begehen »); • die Wissenschaft als objektive Instanz, die Expertise der Fachleute (« Statistische Untersuchungen in der Psychologie zeigen, daß die Rückfallquote in derartigen Fällen 76 % ausmacht; deshalb ist Strafaussetzung zur Bewährung außer Frage »; « Nachdem 4 der 5 Gutachter Unzurechnungsfähigkeit ausgeschlossen haben, … »); • die guten Sitten, das gesunde Volksempfinden: « Die Publikation ist offensichtlich sittenwidrig, unzweifelhaft anstößig »; • das geltende Recht (« Im Sinne des Gesetzgebers und im Einklang mit der höchstrichterlichen Rechtsprechung … »); • Gott, die Vorsehung, das Schicksal (« Der Fall zeigt abermals: Gott läßt sich nicht spotten », « … das verdiente Schicksal ereilt »); • eine moralische Überzeugung, ein ethisches Prinzip; • das Gewissen, eine innere Stimme, eine missionarische Berufung; • das Vertrauen in eine andere Person oder eine Institution, eine Autorität, deren Urteil man sich zu eigen macht; • die Tradition, die Erfahrung, die Geschichte (im Falle des Historizisten: Die Gesetze der Geschichte); • der Fortschritt, die veränderten Zeiten, die Zukunft.
114 ���������������������
Es wäre eine interessante Aufgabe der Forschung, die – z. B. in der Rechtsprechung – auftretenden Garantoren zu ermitteln und zu systematisieren. Gelegentlich geraten verschiedene Garantoren in Konflikt miteinander: Das geltende Recht mit der Pflicht zum Fortschritt oder die Wissenschaft mit dem gesunden Volksempfinden. Die Folge ist entweder frustrierte Ratlosigkeit, oder es findet sich ein Garantor, der den Widerspruch behebt. Die Argumentationsfigur zur Rechtfertigung des Urteils in einer solchen Situation hat die Form des « zwar-aber », womit gemeint ist, daß – gestützt auf das Gefühl oder einen anderen Garantor – der eine Garantor dem anderen geopfert worden ist (wenigstens zeitweilig). Dies impliziert eine Rangordnung unter den Garantoren, es gibt jedoch wenig Anzeichen dafür, daß sie über längere Zeit stabil bleibt. Dem Behavioristen und Kybernetiker dürfte noch auf lange Zeit das « zwar-aber » der Urteilenden als Wackelkontakt erscheinen.
4. Veränderung und Innovation Wann ist ein Urteil innovativ? Wann verändert es das geltende Recht? Die Begriffe der Veränderung (des Wandels) und der Innovation sind nicht so scharf und eindeutig, um direkte Antworten zu gestatten. Eine Explikation ist angebracht, um den Diskurs über jene Fragen zu erleichtern. V 1: Veränderung ist eine psychologische Kategorie. Es ist der Eindruck, daß sich etwas ändert, ohne daß man notwendig angeben könnte, worin die Veränderung besteht oder was sie verursacht. Jemand stutzt und stellt fest, daß die Zeiten sich geändert haben. Man trifft einen Bekannten und bemerkt, daß er anders aussieht, ohne sagen zu können, woran das liegt. V 1 ist das Ergebnis direkter Wahrnehmung: Die Veränderung wird spontan gesehen. Wieviele und welche Veränderungen V 1 man wahrnimmt, scheint von der Persönlichkeit abzuhängen. Manchem ändert sich nichts unter der Sonne, ist alles schon einmal dagewesen; anderen ändert sich alles immerzu – vielleicht sogar mit zunehmender Rate und Geschwindigkeit (wie A. Toffler, der unter dem Eindruck, daß sich allerwegen alles immer schneller ändert, seinen « future shock » erleidet). V 1 wird erlebt, nicht erschlossen.
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 115
V 2: In jeder historischen Situation gibt es dominierende Variable, die der Einsichtige erkennen muß. An ihnen mißt sich Veränderung V 2. Für den Marxisten sind der Stand des Klassenkampfes und der Grad der Sozialisie rung der Produktionsmittel solche Indikatoren mit Objektivitätsanspruch, an denen sich tatsächliche und signifikante Veränderung zeigt. Für andere ist es das Bruttosozialprodukt oder die Kriminalstatistik. Die als signifikant und dominierend po stulierten Variablen sind gewissermaßen Zustandsgrößen, die die Situation des « Gesamtsystems » im Mittel und in seiner Entwicklungstendenz beschreiben – analog zur Thermodynamik, in der Temperatur und Druck ausreichen, um den Zustand eines Gases in einem Volumen zu kennzeichnen. Die dominierenden Variablen sind die aristotelischen essentia, während die Fülle der anderen, ebenfalls beobachtbaren Variablen den accidentia, den Nebensächlichkeiten, entsprechen. V 3: Ob sich Veränderung zeigt oder nicht, hängt vom Bezugssystem ab. Veränderung ist relativ; ohne Angabe des Bezugssystems ist es sinnlos, über Veränderung V 3 zu sprechen. Veränderung V 3 ist immer dann eingetreten, wenn irgendeine der deskriptiven Variablen des Bezugssystems zur Zeit t2 (> t1) einen Wert angenommen hat, der von dem zur Zeit t1 verschieden ist. Wählt man die Ortskoordination eines Planeten bezüglich der Ebene seiner Bahn, verändert sich sein Zustand immerzu. Beschreibt man seinen Zustand durch Exzentrizität und die kleinere Halbachse seiner Bahn, dann ändert sich nichts. Der Übergang von einem Beschreibungssystem zum anderen ist durch eine wohlbestimmte Transformation zu vollziehen. Obschon für diese allgemeine Behauptung kein mathematischer Beweis vorliegt, hat der Satz gute Plausibilität, daß sich stets eine Transformation finden läßt, die ein Beschreibungssystem, in dem V 3 auftritt, umkehrbar in ein anderes überführt, in dem keine Veränderung V 3 stattfindet. Mit anderen Worten: Es gibt keine Veränderung V 3 ohne Invarianten (in mindestens irgendeinem geeigneten Bezugssystem). « Totale » Veränderung ist unmöglich; wer etwas ändern will, muß gleichzeitig in Kauf nehmen, daß etwas anderes unverändert bleibt. Veränderungen V 3 können prognostiziert und erwartet worden sein oder nicht; sie können durch eine Theorie erklärt sein oder nicht. V 4: Veränderung V 4 ist für jemanden immer dann aufgetreten, wenn ein Phänomen anders abläuft, als erwartet. Diese Art von Veränderung löst bei jemandem Überraschung aus. Voraussetzung für V 4 ist eine Erwartung oder Prognose. Wann immer sie vom Lauf der Ereignisse widerlegt wird, dann hat sich oder jemand etwas geändert. Eine Revision des eige-
116 ���������������������
nen Wissens ist fällig, sofern man die Abweichung nicht als singulare Ausnahme von der Regel oder durch verborgene, intervenierende Faktoren hinwegerklären will. Offensichtlich ist diese Art von Veränderung per definitionem unvoraussagbar; man kann sie (für sich selbst) auch nicht absichtlich herbeiführen. Das Verb « verändern V 4 » ist intransitiv (wie V 1). Im Gegensatz zu V 1 hat sich etwas Spezi fisches gewandelt. Zudem findet sie nicht allmählich statt, sondern ist mit einem « Aha-Erlebnis » verbunden. Die Veränderung V 4 ist um so grundsätzlicher, die Überraschung desto tiefer, je höher der Gewißheitsgrad der Hypothese, auf welche die Erwartung gegründet war. Ereignisse V 4 sind höchst informativ. V 4 ist ein Ereignis und keine Tätigkeit. V 5: Jemand hat eine Veränderung V 5 herbeigeführt, wenn er durch seine Handlungen dem Lauf der Ereignisse eine andere, beabsichtigte Richtung gibt, als es ohne seinen Eingriff zu erwarten gewesen wäre. Das entsprechende Verb ist aktiv, mit einem Akkusativobjekt verbunden. V5 ist das Produkt planvollen Handelns, in dem Bestreben, unliebsame Überraschungen zu vermeiden. Wer eine Veränderung dieser Art ins Auge faßt, braucht ebenfalls Erwartungen über die Zukunft. Seine Absicht ist es, diese Hypothesen über den erwarteten Lauf der Dinge zu falsifizieren. Außerdem braucht er Erwartungen über die Folgen seines Eingriffes. Die Aktion ist mit einer Prognose verbunden. Bleibt das beabsichtigte Ereignis aus, gibt es eine Überraschung: Es muß etwas dazwischengekommen sein: Es ist anders gekommen, als man gedacht hat. Diese Überraschung kann man deuten • als Veränderung V 4: Die Verhältnisse haben sich unerwartet gewandelt; • als Folge der Intervention von jemandem anderen (V 5); • als Indikation, daß man seine Erwartungen auf eine schlechte Theorie gestützt hat (deren Veränderung V 5 man folglich erwägen sollte); • als Produkt des Zufalls. V 5 bezeichnet auch eine Tätigkeit, nicht nur deren Resultat. Dieser Fall führt zur nächsten Explikation: V 6: Jemand hat eine Veränderung V 6 ausgelöst, wenn durch sein Verhalten unbeabsichtigt eine Umlenkung des erwarteten Laufes der Dinge verursacht wird.
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 117
Dies ist die Veränderung wider Willen. Sie ist ungeplant, und wird als freudiges Ereignis (« Glück gehabt! ») begrüßt oder als Folge von Fahrlässigkeit, als ungewollter Neben- oder Nacheffekt beklagt (z. B. ökologische Veränderungen). V 7: Veränderungen V 7 folgen aus bestimmten Gesetzen. Veränderungen dieser Art entsprechend morphologischen Übergängen: Die Jahres zeiten, die Metamorphose von Insekten, die Ablösung der Klassengesellschaft durch die klassenlose Gesellschaft sind vorgegebene Abfolgen. Der Übergang von einer Phase zur nächsten wird als nicht weiter verwunderliche Veränderung angesehen. V 7 ist voraussehbar, sie wird sogar erwartet. Ihr Ausbleiben wäre eine Überraschung. Die Phasen der Geschichtsphilosophen sind vom Typ V 7. V 8: Veränderungen V 8 sind Selbst- oder Sinnestäuschungen, denn es gibt keine echten Veränderungen. Die Wahrnehmung von Veränderungen ist irreführend, denn die Gesetze, die das Geschehen beherrschen, sind ewig und unveränderlich. Was als Veränderungen erscheint, sind nur Manifestationen dieser immer gleichen Gesetze unter variierten Anfangsbedingungen (die ihrerseits durch die Gesetze bestimmt sind). Was vordergründig als vielleicht sogar überraschender Wandel erscheint, ist lediglich eine neue Konfiguration im Zusammenspiel der Gesetze. Selbst aktive Veränderung V 5 ist eine Selbsttäuschung, denn letzten Endes ist auch unser Wollen und Handeln den Gesetzen der Welt unterworfen. V 8 ist das Verständnis des Deterministen, Fatalisten, Platonikers, aber auch der Strukturalisten, die behaupten, daß es immer dieselben Grundmuster (patterns) sind, deren Kombinatorik die Varietät menschlicher Schicksale erzeugt. Alle diese Veränderungsbegriffe sind auf eine einzelne Person bezogen, nämlich diejenige, welche die Veränderung realisiert. In der Kommunikation zwischen mehreren Personen gibt es eine große Anzahl von Beziehungen und Wechsel wirkungen zwischen den verschiedenen Explikationen. Wenn z. B. jemand eine Veränderung V 5 herbeiführen will, mag das jemand anderer als eine Veränderung V 8 verstehen, da das Verhalten des vermeintlichen Veränderers (einschließlich seines Glaubens, daß eine V 5 möglich ist) typisch für jemanden in seinen Verhält nissen ist. Oder: Was für A eine überraschende Veränderung V 4 ist, wird von B als V 6 verstanden, da er meint, sie versehentlich ausgelöst zu haben usw., usw. Und geradezu verheerend gestaltet sich eine Diskussion über Veränderung, wenn die Teilnehmer verschiedene Veränderungsbegriffe ohne sorgfältige Explikation neben einander gebrauchen. « Innovation » – ein heute beliebtes Wort – ist eng verwandt mit « Veränderung » und teilt mit ihm die Vielfalt der damit assoziierten Begriffe. Auch Innovation kann eine Tätigkeit oder das Produkt einer Tätigkeit bezeichnen. Sie kann als ab-
118 ���������������������
sichtlich herbeigeführt oder als Produkt des Versehens, eherner Gesetze oder der Launen des Zufalls verstanden werden. Es gibt einen Innovationsbegriff, der Überraschung zur Voraussetzung macht, einen anderen, für den Innovationen erwartet werden, da sie « in der Luft liegen ». Die Liste der Explikationen von « Innovation » entspricht ziemlich genau der für « Veränderung ». Folglich könnte man eigentlich ohne dieses Wort auskommen. Die Innovation schafft Veränderung (obschon mit der Konnotation des « Neuen »), ein Innovator ist ein Veränderer, eine Veränderung ein Novum (falls man einräumt, daß auch die Restauration eines Vergangenen, bereits gehabten Zustandes ein « Novum » ist).
5. Innovatives Urteilen Kommen wir zur Konklusion dieser ziemlich ausgedehnten und verzweigten Exkursion in die Natur des Urteilens und der Veränderung: Was ist ein innovatives Urteil? Für die Behandlung dieser Frage gibt es zwei alternative Standpunkte: • Die interne Deliberierung des beurteilenden Akteurs; • den sozialen Diskurs über ein Urteil, d. h. seine Rechtfertigung (Objektifikation) und deren Argumentation. Da die interne Deliberierung gewöhnlich eine Simulation des Diskurses über die Rechtfertigung vorwegzunehmen versucht, und da umgekehrt dieser Diskurs die Deliberierungen beeinflußt, aber auch die interne Deliberation zu durchleuchten versucht, ist die Wahl des Standpunktes von geringem Einfluß auf die Ergebnisse; sie wirkt sich nur auf die Darstellung der Überlegungen aus. Wählen wir den zweiten Standpunkt. Wie kann man für oder gegen ein innovatives Urteil argumentieren? Eine schlichte Betrachtung mag hinreichen, um zu demonstrieren, daß Veränderung, Unterschiedlichkeit, Ähnlichkeit und Novität nicht objektiv abzählbar gemacht werden können wie die Hammel einer Herde. Gegeben seien zwei Objekte oder Situationen. Dann läßt sich stets eine Menge von Merkmalen finden, die auf beide gleichermaßen zutreffen. Diese Liste läßt sich nicht logisch abschließen, d. h., man kann nie gewiß sein, daß sich nicht noch ein weiteres Merkmal finden läßt, das beiden gemeinsam ist. Mit anderen Worten: Irgend zwei Objekte lassen sich so beschreiben, daß sie « beliebig ähnlich » zueinander erscheinen. Im Falle zweier Situationen, die zeitlich aufeinander folgen, kann stets eine beliebig lange Reihe von gemeinsamen Merkmalen aufgestellt werden, so daß sie – gemessen an der Anzahl der Merkmale – beliebig ähnlich erscheinen: Es hat keine Veränderung stattgefunden. Umgekehrt gilt, daß sich ebensogut beliebig viele unterscheidende Merkmale finden lassen. Folglich kann man jede Situation als so verändert gegenüber, z. B. ihrer Vorläuferin, beschreiben wie man nur will.
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 119
Mit anderen Worten: Man kann Innovation oder Veränderung nicht objektiv identifizieren. Erst durch Gewichtung von Merkmalen (Aspekten) erscheinen « sinnvolle » Ähnlichkeiten oder Veränderungen. Da indessen Gewichte direkt oder deliberiert Spontanurteilen entspringen, die im Hinblick auf eine Absicht gefällt werden, ist z. B. die Angabe einer « Zahl der innovativen Urteile » sinnlos, solange die Urteilsgrundlage nicht erfolgreich objektifiziert worden ist. Außerdem: Zwei Situationen, die eine große Anzahl von Merkmalen gemeinsam haben, können durch die Anwendung eines weiteres Aspektes, bezüglich dessen sie sich unterscheiden (ein solcher läßt sich immer finden), beliebig unähnlich werden, sofern diesem Merkmal ein hinreichend hohes Gewicht beigemessen wird. Argumentationstechnisch folgt daraus, daß man – im Prinzip – jedes Urteil so innovativ oder konservativ (traditionell, alltäglich, bieder) darstellen kann « wie man will ». Genauer gesagt: Es gibt kein logisches Kriterium dafür, wann ein Urteil innovativ ist – in dem Sinne – wie etwa logisch die Schlüssigkeit einer Implikation überprüft werden kann. Damit ist natürlich nicht gewährleistet, daß jede angebotene, logisch « einwandfreie » Argumentation für oder gegen ein Urteil von den Diskurspartnern als plausibel akzeptiert wird oder gar die Zustimmung findet. Alle oben diskutierten Fälle der Reaktion auf ein angebotenes Deliberationsschema sind möglich und treten tatsächlich auf. Wie läßt sich ein Urteil als innovativ begründen? Die Mannigfaltigkeit der hierfür verfügbaren Argumentationsfiguren ist groß und unübersichtlich. Grundsätzlich kann jeder der im vorigen Abschnitt explizierten Veränderungsbegriffe auf jeden Teil der Argumentationskette angewendet werden. Die Glieder dieser Kette – die Prämissen, auf die das Urteil abgestützt wird – entsprechen Partialurteilen und fallen in die oben geschilderten Urteilskategorien. Jede Prämisse ist entweder aus einer anderen gefolgert oder hat den Status eines Terminalurteils: Es ist spontan gefällt oder wird einstweilen der Objektifizierung durch weitere Deliberierung nicht für wert erachtet. Auch die « hinter » den Prämissen stehenden Garantoren lassen sich als neuartig begründen. Einige Beispiele zur Illustration. Eine faktische Prämisse, also die Feststellung eines Sachverhaltes, besteht im Rechtswesen häufig in der Zuordnung des akuten Falles zu einer Klasse von Sachverhalten (etwa einer Verhaltensweise), auf die sich ein Gesetz bezieht (« Dies ist ein Fall von Mord »). Die vorliegende « Geschichte » wird kategorisiert. Die Klasse ist indessen notorisch unscharf definiert; sie ist vorwiegend « ostensiv » durch die Menge der Fälle, die ihr zugeordnet wurden, umschrieben. Der « Prozeß des Rechtes » ist fortlaufend – und nie endgültig – darauf gerichtet, festzustellen, welche Verhaltensweisen etwa durch das Recht auf freie Entfaltung der Persönlichkeit geschützt sind. Im Grunde kann jede Zuordnung eines gegebenen Falles als innovativ behauptet werden – es sei, daß « sich » die Auffassung vom Umfang der Klasse geändert habe (V 3), daß sie als bewußt voll-
120 ���������������������
zogen dargestellt wird (V 5), daß sie als Vollstreckung einer vorgezeichneten Entwicklung gesehen wird (als « längst überfällig », V 7) usw., usw. In ähnlicher Weise lassen sich andere faktische, aber auch deontische, explanatorische und instrumentelle Prämissen als Veränderungen des bislang Bestehenden, also hier des geltenden Rechtes, auffassen und darstellen. Auch warum eine Veränderung auftritt oder vollzogen wird, läßt sich auf viele Weisen rechtfertigen – entsprechend der Mannigfaltigkeit der verschiedenen Garantoren (die Geschichte, der Wandel der Sitten, die Notwendigkeit zur Rückkehr zur Tradition, der Fortschritt usw.). Auch neue Garantoren lassen sich erfinden oder werden entdeckt (etwa ein « Recht auf Privatheit »). Auch « ungewöhnliche Gewichtung » der Prämissen bei der Aggregation zum Gesamturteil läßt sich als innovativ argumentieren. Alle diese Strategien haben ihre Entsprechungen, um zu argumentieren, daß ein Urteil nicht innovativ ist oder daß eine Innovation nicht gerechtfertigt ist. Einige Beispiele: • es handelt sich nur um eine Ausnahme von der Regel (die unberührt bleibt); • daß das Urteil gar keine Veränderung darstellt, sondern dem Trend folgt, in ein Kontinuum der Entwicklung eingebettet ist; • daß der neue Garantor lediglich ein alter Garantor im neuen Gewand sei usw. Und selbstverständlich lassen sich alle vorgebrachten Gründe für eine Innovation auch bestreiten. Es wäre redundant, hier die volle Kombinatorik des « Argument-Baukastens » zu entwickeln, dessen Elemente die geschilderten Urteilstypen, Veränderungsbegriffe, Garantoren, das « zwar-aber » und einige andere Schlußweisen sind, und mit dessen Hilfe eine behauptete Innovation gerechtfertigt oder bestritten werden kann. Es kommt hier nur auf die Demonstration an, daß nicht ein « Urteil an sich » innovativ ist, sondern daß es erst durch seine Begründung seinen Platz in dem Diskurs erhält, welcher das geltende Recht erzeugt. Dabei kann es innovativ « verankert » werden oder konservativ. Wird damit dem Relativismus gehuldigt? Dem Solipsismus? Oder gar – wenn doch alle Urteilsrechtfertigungen « beliebig » sind – dem Zynismus? Es ist nicht auszuschließen, daß sich ein Urteilender zynisch und opportuni stisch eine Urteilsbegründung zurechtschneidert, um sein « tatsächlich » anders zustande gekommenes Urteil einfacher durchzusetzen. Aus dem Vorangehenden kann indessen nicht gefolgert werden, daß Urteile beliebig oder relativ sind. Jemandes « tatsächliches » Urteil kann eher als absolut und unbedingt bezeichnet werden, insofern es auf einem Rollenverständnis beruht, das nicht einfach gegen ein x-beliebiges anderes ausgetauscht werden kann, und das
URTEILSBILDUNG UND U RTEILSRECHTFERTIGUNG 121
sich der Modifikation (V 5) zäh widersetzt. Ch. S. Peirce hat die « Perzeptions-Käfige » geschildert, aus denen auch Richter nicht nach Belieben ausbrechen k önnen. Argumentation ist eine Möglichkeit, um den eigenen Käfig oder den eines anderen zu verändern (V 5). Veränderung ist im Auge des Betrachters, und nicht etwas objektiv Feststellbares, das von einem Blickpunkt « über allen Parteien » identifiziert werden kann.
*
Quelle: Arbeitspapier A-77–1 des Instituts für Grundlagen der Planung, Universität Stuttgart, Stuttgart 1977. Dieser Text lag einem Referat auf der Tagung « Rechtliche Innovationen durch richterliche Entscheidung » zugrunde, welche vom 17. bis 20. Februar 1976 an der Technischen Hochschule Darmstadt im Fach gebiet für Öffentliches Recht stattfand. Der Kontext seiner Entstehung erklärt Passagen, die sich auf die besondere Situation von Richtern und deren Urteilsfindung beziehen. Sie wurden nicht gestrichen. Dieser spezielle Kontext hat jedoch keinen Einfluß auf die Gültigkeit der entwickelten Aussagen in Rittels Formulierung einer Theorie und Methodik des Planens und Entwerfens.
122 ���������������������
Die Denkweise von Planern und Entwerfern (The Reasoning of Designers*)
1. Die Welt des Entwerfens Eines der Geheimnisse unserer Zivilisation ist es, daß die noble und herausragende Tätigkeit des Entwerfens bis vor kurzem wenig Aufmerksamkeit bei Gelehrten gefunden hat. Während der letzten Jahrzehnte hat sich das langsam geändert (1962 fand die erste Konferenz über Entwurfsmethoden in London statt1). Die derzeitige Konferenz in Boston ist ein Zeichen für ein plötzlich ausbrechendes ansteckendes Interesse über zahlreiche Disziplinen hinweg. Vielleicht ist der Grund dafür nicht nur intellektuelle Neugier, sondern auch breitgestreute Unzufriedenheit mit unserer Fähigkeit, die Welt, in der wir leben, zu entwerfen. Jedermann entwirft manchmal; niemand entwirft immer. Entwerfen ist nicht das Monopol derjenigen, die sich selber « Planer und Entwerfer » nennen. Vom Stadtentwicklungsplan bis zum elektronischen Schaltkreis, vom Steuergesetz bis zur Marketingstrategie, von der « strategischen Verteidigungsinitiative » bis zur Einkaufsliste für das Mittagessen am kommenden Sonntag, es sind alles Ergebnisse von Plänen, die aus der « Entwerfen » genannten Tätigkeit resultieren. Das Ausmaß dessen, was entworfen wird, ist groß, und das zum Entwerfen verwendete Wissen ist sehr unterschiedlich und berührt alle Aspekte menschlicher Erfahrung. Nur dann, wenn zwischen diesen Tätigkeiten trotz der großen Verschiedenheit der behandelten Objekte eine spezifische Gemeinsamkeit besteht, ist es gerechtfertigt, über Entwerfen in allgemeinen Begriffen zu sprechen. Ich stelle die Behauptung auf, daß es solche charakteristischen Gemeinsamkeiten gibt, die Entwerfen von anderen Formen der Bewältigung von Schwierigkeiten abgrenzen. Was sind diese Gemeinsamkeiten? Alle Planer und Entwerfer beabsichtigen, in den erwarteten Ablauf der Ereignisse durch vorbedachte Handlung einzugreifen. Alle wollen Fehler vermeiden, die durch Unwissenheit und Spontanität entstehen. Sie wollen erst denken, dann handeln. Anstatt sofort und unmittelbar ihre Umgebung durch Versuch und Irrtum zu verändern, bis diese die gewünschte Gestalt annimmt, wollen Planer und Entwerfer sich eine Handlungsmöglichkeit ausdenken und sie gründlich prüfen, ehe sie sich zu ihrer Ausführung entscheiden. Entwerfen ist die Erstellung eines Plans. Planer, Ingenieure, Architekten, Unternehmens-Manager, Gesetzgeber, Erzieher sind (manchmal) Planer und Entwerfer. Sie werden vom Ehrgeiz geleitet, sich einen wünschenswerten Zustand der Welt auszudenken, dabei verschiedene Möglichkeiten seiner Herbeiführung durchzuspielen und sorgfältig den Konsequenzen der erwogenen Handlungen nachzuge-
DIE DENKWEISE VON PLANERN UND E NTWERFERN 123
hen. Entwerfen findet in der Welt der Vorstellung statt, in der man anstelle der realen Dinge Ideen und Konzepte erfindet und manipuliert, um den realen Eingriff vorzubereiten. Sie arbeiten mit Modellen als Mittel zur stellvertretenden Wahrnehmung und Manipulation. Skizzen, Kartonmodelle, Diagramme und mathematische Modelle und, als flexibelstes von allen, die Sprache, dienen als Medien zur Unterstützung der Vorstellungskraft. Planen und Entwerfen endet mit der Festlegung auf einen Plan, der ausgeführt werden soll. Der Akt des Entwerfens könnte Spaß machen: Gibt es einen lohnenderen Zeitvertreib, als sich irgendeine Zukunft auszudenken und zu spekulieren, wie man sie zustandebringen könnte? Was jedoch störend daran ist, ist die Erkenntnis, daß der Plan tatsächlich ausgeführt wird. Falls das so ist, steht der Planer und Entwerfer vor zwei möglichen Arten des Versagens. Ein Versagen von Typ 1 tritt ein, wenn der Plan nicht das gewünschte Ergebnis herbeiführt. Ein Versagen von Typ 2 hat sich ereignet, wenn die Ausführung des Plans unvorhergesehene und unerwartete Neben- und Nachwirkungen verursacht, die sich als unerwünscht herausstellen. Hauptsächlich die Angst vor dem zweiten Typ des Versagens verdirbt die Freude am Entwerfen: « Habe ich etwas Wesentliches vergessen? », fragen sich Planer und Entwerfer. Viele Formen geistiger Aktivität finden im Verlauf des Entwerfens statt. P laner und Entwerfer denken mehr oder weniger kohärent; sie gestalten, sie vermuten, sie haben plötzliche Ideen « aus heiterem Himmel », sie imaginieren, sie spekulieren, träumen, lassen ihrer Phantasie freien Lauf, prüfen, rechnen, sie « syllogisieren » : Vieles von dieser geistigen Tätigkeit (manche würden sagen « das meiste ») ereignet sich im Unterbewußtsein. Wir wissen von der komplizierten Arbeitsweise u nseres Gehirns sicher nicht viel, und wir werden diese vielleicht nie ganz verstehen. Aber ein bedeutender Anteil am Entwerfen geschieht unter bewußter intellektueller Kontrolle. Da Entwerfen eine Absicht, einen Zweck, ein Ziel hat, beruht es entschie den auf dem Denken. Das Studium der Denkweise von Planern und Entwerfern ist ein Versuch, den Vorgang des Entwerfens und Planens zu verstehen – vielleicht als einzige Möglichkeit. Wir mögen über das Denken ebenfalls nicht viel wissen, aber es ist zumindest nicht nichts.
2. Planen und Entwerfen als Argumentation Gibt es erkennbare, wiederkehrende Muster in den Denkweisen von Planern und Entwerfern, Regeln, die diesen Prozeß steuern? Gibt es eine Logik des Entwerfens? Hier ist die « Logik » nicht im Sinn einer formalen Logik gemeint, sondern als eine Form der Begründung, eine « Philosophie », die eine Verhaltensweise bestimmt (wie in der « Logik des Autofahrens » oder « Die Logik deiner Behauptung ist merkwürdig »).
124 ���������������������
« Denken » gehört zu all den geistigen Tätigkeiten, deren wir uns gewahr sind und die wir sogar anderen mitteilen können. « Denken » besteht aus mehr oder weniger geordneten Gedankenzügen, die Überlegen, Abwägen, Argumentieren, gelegentliche logische Folgerungen einschließen. Stellen Sie sich einen Planer und Entwerfer vor, der laut denkt, mit sich selbst (oder mit anderen) argumentiert und verhandelt, der zu erklären und zu rechtfertigen versucht, was er vorschlägt, der über zukünftige Konsequenzen seines Plans spekuliert, der über die geeignete Handlungsoption entscheidet.2 Das Bild, das wir bei der Analyse dieser geistigen Tätigkeit erhalten, ist nicht das des « klassischen » Problemlösers, der zuerst sein Problem in klaren Begriffen definiert, die für notwendig erachtete Information erhält und anschließend im dann wohldefinierten « Lösungsraum » nach einer Lösung sucht. Das Denken des Planers und Entwerfers ist sehr viel weniger geordnet, nicht aufgrund intellektueller Nachlässigkeit, sondern vielmehr aufgrund der Natur der Entwurfsprobleme3. Es gibt keine klare Trennung zwischen den Tätigkeiten der Problemdefinition, -synthese und -bewertung. Sie alle treten gleichzeitig auf. Ein Entwurfsproblem verändert sich, während man es behandelt, weil das Verständnis darüber, was erreicht werden soll oder wie es erreicht werden könnte, sich kontinuierlich ändert. Zu verstehen, was das Problem ist, ist das Problem. Was immer er über das Problem erfährt, wird zum Teil seiner « Lösung ». Von Anfang an hat der Planer und Entwerfer eine Vorstellung der « Gesamt »-Lösung seines Problems, die sich mit wachsendem Verständnis des Problems ändert, und das Bild seiner Lösung entwickelt sich von verschwommen nach scharf und wieder zurück und wird häufig revidiert, verändert, detailliert und modifiziert. Seine Fokussierung wechselt ständig zwischen kleinen Bestandteilen und dem Gesamtproblem und anderen Details. Dieses Bild widersetzt sich einer Beschreibung im Sinne von unterscheid baren Hauptphasen der Arbeitsorganisation. Nur auf einem Mikroniveau können wir Denkmuster identifizieren, die wiederkehrenden Schwierigkeiten des Prozesses entsprechen. Im Verlauf des Projekts mag sich der Umfang der Schwierigkeiten ändern, aber ihre Natur bleibt durchweg gleich. Das Denken des Planers und Entwerfers erscheint als Prozeß der Argumentation. Er debattiert mit sich selbst oder mit anderen; Issues tauchen auf, konkurrierende Positionen werden als Antwort darauf entwickelt, und nach den entsprechenden Pros und Kontras gesucht; schließlich entscheidet er sich zugunsten einer Position, häufig nach völliger Modifizierung der Positionen. In diesem Modell des Planens und Entwerfens als Argumentationsprozeß werden die verschiedenen Issues auf verzwickte Weise miteinander verknüpft, normalerweise sind mehrere von ihnen gleichzeitig « offen », andere werden aufgeschoben oder wieder geöffnet4. Der Planer und Entwerfer findet sich in einem Feld von Positionen, die jeweils mit widerstreitenden Argumenten verbunden sind, die er abschätzen muß, um seinen eigenen Standpunkt einzunehmen.
DIE DENKWEISE VON PLANERN UND E NTWERFERN 125
Die häufigsten typischen Issues sind: • • • •
Was soll erreicht werden? Was ist oder was wird der Fall sein? Was ist der Grund dafür, daß etwas der Fall ist? Welche Möglichkeiten gibt es, das zu erreichen, was erreicht werden soll? • Wird diese Maßnahme auch erreichen, was sie erreichen soll? Welche Auswirkungen, für wen und worauf werden sich einstellen? Gleichzeitig lauert im Hintergrund eine ganze Familie von « Meta-Issues » wie: • Beschäftige ich mich mit dem richtigen Problem, oder ist dieses Problem nur ein Symptom eines anderen Problems auf höherem Niveau, das ich stattdessen in Angriff nehmen sollte? • Ist dieses Problem zu umfassend, um es zu bewältigen? Sollte ich seinen Umfang reduzieren? • Das führt nirgendwohin. Soll ich wieder ganz von vorne anfangen? • Ist es ratsam, die Überlegungen abzubrechen und mich jetzt zu entscheiden, oder soll die Suche (und Analyse) nach weiteren Lösungen fortgesetzt werden?
3. Formen des Denkens beim Planen und Entwerfen Die Feinstruktur der Denkweise läßt sich am besten anhand eines typischen immer wieder auftretenden Issues darstellen. Stellen Sie sich einen Planer und Entwerfer vor, der sich überlegt, ob eine bestimmte Maßnahme A (eine Handlungsalternative, eine Komponente, eine Prozedur, eine Eigenschaft) Bestandteil des Plans werden soll. Er sieht sich dem Issue « Soll A Bestandteil von meinem Plan werden? » gegenüber. Abbildung 1 zeigt (etwas vereinfacht5) das Netz verschiedener Denkabläufe in dieser Situation. Seine Antwort auf diesen Issue (*) kann klar und spontan positiv sein, und er fährt fort, indem er A in seinen Plan einbaut – wenigstens für den Moment. Später hat er vielleicht Gründe, zu diesem Issue zurückzukehren und ihn wieder zu aktivieren.
126 ���������������������
Wenn sein Urteil negativ ist, gibt es drei Möglichkeiten, vorzugehen (x): • A aufzugeben und alternative Mittel A’ zu suchen, die zum gleichen Ziel führen (das führt zu einem weiteren Issue mit ähnlicher Struktur); • den Gedankengang zurückzuverfolgen, der zum gegenwär tigen Issue geführt hat und einen anderen Weg zu versuchen, der den gegenwärtigen Issue umgeht; • die Schlußfolgerung zu ziehen – aufgrund der Frustration – daß, wenn es für den gegenwärtigen Issue keine Lösung gibt, das ganze Projekt aufgegeben werden sollte. Häufig wird er jedoch über die Eignung von A unsicher sein. Dann kann er sich jede beliebige der fünf folgenden Fragen stellen: 1. « Bin ich sicher, daß A funktionieren wird? », d. h., ob A tatsächlich erreichen wird, was erreicht werden soll. 2. « Werden die Voraussetzungen (weitere Bestandteile, Bedingungen, Inputs) für A vorhanden sein? », d. h., ob A im Kontext des gegenwärtigen Projekts tatsächlich ausführbar ist. 3. « Werden durch A unerwünschte Neben- und Nachwirkungen auftreten? » 4. « Erwarte ich, daß die Vorteile von A die Nachteile aufwiegen? » 5. « Gibt es einen besseren Weg A’, um zu erreichen, was A erreichen soll? » Die Überlegung jeder dieser Fragen wird entweder zur Aufgabe (x) von A führen oder zurück zu (*). Wenn man immer noch unentschieden ist, muß die gleiche oder eine andere der Fragen behandelt werden. Dieser Prozeß geht solange weiter, bis der Planer und Entwerfer sich eine Meinung über den ursprünglichen Issue (*) gebildet hat. Eine kleine Reise durch dieses Netz (Abbildung S. 128) mag seine Bedeutung erläutern. Nehmen wir an, unser unentschlossener Planer und Entwerfer fragt sich, ob die Voraussetzungen zur Verwendung von A gegeben sein werden (2). Wenn er entdeckt, daß das nicht der Fall ist, wird er entweder aufgeben, A weiter zu verfolgen, oder er wird vielleicht einen neuen Issue aufbringen « Gibt es eine annehmbare Möglichkeit B, um die fehlenden Voraussetzungen zu schaffen? » Dieser Issue wird in ähnlicher Weise behandelt, während (*) ruht. Nehmen wir an, daß er vielleicht nach reiflicher Überlegung (möglicherweise gestreut durch weitere untergeordnete Issues) eine annehmbare Maßnahme B gefunden hat, die er für durchführbar hält, und die verspricht, A durchführbar zu machen. Er kehrt zu (*) zurück und findet sich vielleicht noch immer unsicher über die Eignung von A.
DIE DENKWEISE VON PLANERN UND E NTWERFERN 127
128 ��������������������� ?
Untersuchen
Ja
x
x
Ja Nein
Untersuchen
Nein
?
?
Untersuchen
Gibt es eine Möglichkeit, diese Voraussetzungen zu schaffen?
Ja
Gibt es eine Möglichkeit, es zum Funktionieren zu bringen?
Untersuchen
Werden die Voraussetzungen für «A» vorhanden sein?
2
Issue: Soll «A» Bestandteil des Plans werden?
Nein
?
*
Nein
Ja
Bin ich sicher, daß «A» funktionieren wird?
1
(Vom vorhergehenden Issue) Nein
Ja
?
*
x
Nein
?
Untersuchen
Kann man die unerwünschten Neben- und/oder Nachwirkungen beseitigen?
Ja
x
Nein
?
Untersuchen
Ja
x
Nein
?
Untersuchen
5
Ja
?
Untersuchen
Wenn gefunden, analog behandeln und konkurrierende Alternativen vergleichen.
Welche alternativen Möglichkeiten gibt es?
Nein
Will ich bessere Wege suchen, um das Gewünschte zu erreichen?
Projekt aufgeben
Zurückgehen und diesen Issue umgehen
Alternative Maßnahme «B» finden
Sind die Erwartungen zu hoch? Sollten die Anforderungen gemindert werden?
Ja
Werden die Vorteile von «A» die Nachteile aufwiegen?
4
Mit «A» weitermachen
Untersuchen
Sind diese tragbar?
Nein
Wird «A» Neben- und/ oder Nachwirkungen haben?
3
Ja
Dieses Mal betrifft seine Unsicherheit vielleicht die Neben- und Nachwirkungen von A (3). Nehmen wir an, er entdeckt irgendeine Konsequenz von A, die er für sehr unerwünscht hält. Sein Abwägen der Pros und Kontras wird dazu führen, sich für einen der folgenden Standpunkte zu entscheiden: • « mit dieser Konsequenz zu leben » – vielleicht nicht sehr glücklich (zurück zu (*)); • nach einer Maßnahme C zu suchen, die die schlechte Wirkung mildert (womit der Neben-Issue auftaucht, ein solches Mittel zu finden); • A aufgrund dieser Wirkung abzulehnen (führt zu (x)). Und so weiter, und so weiter. In jeder beliebigen Überlegungsrunde könnte er sich fragen, ob es nicht eine bessere Möglichkeit als A gibt, dasselbe Ziel zu erreichen (5), und entsprechend vorgehen. Diese Beschreibung war bewußt abstrakt gehalten, um die Behauptung zu unterstreichen, daß es allgemeine wiederkehrende Schwierigkeiten gibt und Formen mit ihnen umzugehen. Dafür kann in jedem Bereich des Entwerfens eine beliebige Anzahl von Beispielen gefunden werden.
4. Epistemische Freiheit Diese exemplarische Analyse zeigt die argumentative Natur der Denkweise des Planers und Entwerfers. Der Prozeß zeigt sich als ein Wechselspiel zwischen Urteilsbildung und der Suche nach Ideen. Das Verständnis der Situation ändert sich jeweils mit den Alternativen, die bei der Verfolgung des Plans gesehen werden. Unterschiedliche Fakten und verschiedene « Soll »-Fragen treten jeweils in Abhängigkeit von den Mitteln zur Verwirklichung dieser Ziele auf. Sie zeigt auch, daß alle Überlegungen in Urteilen enden (z. B. « gut genug »), die vielleicht auf den Überlegungen « beruhen », aber nicht von ihnen abgeleitet sind. Durch das Abwägen der verschiedenen Pros und Kontras hat sich der Planer und Entwerfer « seine Meinung gebildet ». Wie das geschieht, hat mit der Begründung nichts zu tun. Die Analyse enthüllt die ehrfurchteinflößende epistemische Freiheit beim Entwerfen: Es gibt keine logischen oder epistemologischen Einschränkungen oder Regeln, die vorschreiben würden, welcher der verschiedenen bedeutsamen Schritte als nächster zu machen ist. Es gibt keine « Algorithmen », die den Prozeß steuern. Es bleibt dem Urteil des Planers und Entwerfers überlassen, wie er vorgeht. Es gibt keine – logische oder andere – Notwendigkeit, etwas bestimmtes als Antwort auf einen Issue zu wollen oder zu tun. Nichts muß sein oder bleiben, wie es ist oder zu
DIE DENKWEISE VON PLANERN UND E NTWERFERN 129
sein scheint, es gibt keine Grenzen des Denkbaren. Es besteht ein notorischer Mangel an « ausreichender Begründung », die bestimmen würde, eine bestimmte Handlungsmöglichkeit und keine andere zu wählen. Es ist nicht leicht, mit epistemischer Freiheit zu leben, daher sind viele Planer und Entwerfer dankbar für das, was die Deutschen « Sachzwang » nennen. Diese rhetorische Figur macht glauben, daß Fakten und die Gesetzmäßigkeiten ihres Zusammenhangs dem Planer und Entwerfer eine bestimmte Handlung aufzwingen. Es ist ein Trick, um « ein Soll vom Ist abzuleiten »6. Zum Beispiel « weil 58 % der Bevölkerung sagen, sie wollen eine Autobahn, muß ich dafür sorgen, daß eine gebaut wird ». Oder « da die Nachfrage nach elektrischem Strom jedes Jahr um 7 % steigt, müssen wir bis 1995 acht neue Atomkraftwerke bauen ». Ganz offensichtlich sind dies keine gültigen Schlußfolgerungen. Wenn die Nachfrage das Angebot zu übersteigen droht, kann man ebenso versuchen, die Nachfrage zu reduzieren oder gar nichts tun. Die verborgene deontische Prämisse im ersten Beispiel ist, « man muß allen Leuten geben, was die Mehrheit will » – ein anfechtbares Prinzip, das sicherlich nicht aus den Fakten folgt. Nichtsdestoweniger ist der « Sachzwang » sehr beliebt bei Politikern und Planern, da es die epistemische Freiheit beseitigt und den Planer und Entwerfer von seiner Verantwortung entbindet. Wenn man keine Wahl hat, muß man auch keine Rechenschaft ablegen.
5. Die Vielfalt der Denkweisen beim Planen und Entwerfen Wie erklärt man die enorme Vielfalt der Entwurfsstile? Warum sind Entwurfsprodukte für anscheinend sehr ähnliche Situationen so ungeheuer verschieden? Die vorangegangenen Überlegungen sollten zeigen, daß der Ablauf des Entwerfens entscheidend und bei jedem Denkvorgang von der Weltanschauung des Planers und Entwerfers abhängt. Es gibt kein neutrales, objektives Entwerfen. Entwerfen ist subjektiv. Natürlich. Warum auch nicht? Was der Designer weiß, glaubt, fürchtet, wünscht, geht in seine Denkweise bei jedem Schritt des Prozesses ein und beeinflußt seinen Gebrauch der epistemischen Freiheit. Er wird sich – natürlich – den Standpunkten verschreiben, die zu seinem Glauben, seinen Überzeugungen, Vorlieben und Wertvorstellungen passen, wenn er nicht von jemand anderem – oder aus eigener Einsicht – überredet oder überzeugt wird. Entwerfen und Planen ist mit Macht verbunden. Entwerfer planen, Ressourcen zu binden, und beeinflussen dadurch das Leben anderer. Planer und Entwerfer sind aktiv in der Anwendung von Macht. Daher ist Planen und Entwerfen bewußt oder unbewußt politisch. Nehmen wir einige Beispiele. Ein wichtiger Aspekt ist die Einteilung von Phänomenen in Variable und Invarianten. Ob jemand die Bauvorschriften als unveränderlich gegeben annimmt, als eine Quelle rigider Einschränkungen, an die man
130 ���������������������
sich halten muß, oder ob er ihre Bestimmungen als Forderungen ansieht, über die man verhandeln kann (man kann immer eine Ausnahme finden oder Gesetzes änderungen anstreben), macht einen großen Unterschied für den Bereich der Lösungen, die in Betracht gezogen werden. Manche Leute sehen die Schwerkraft als unausweichliches Schicksal, während andere versuchen, Anti-Schwerkraft-Einrichtungen zu erfinden oder ihre Fertigungsstraßen in den Weltraum verlegen. Konstriktionen sind entschiedene, ausgewählte und selbst auferlegte und nicht aufgezwungene, abgeleitete oder logische Notwendigkeiten. Jede Konstriktion ist ein Anzeichen dafür, was der Planer und Entwerfer nicht ändern will – aufgrund von Resignation (ich kann es sowieso nicht ändern), oder weil er an der Konstriktion festhalten will. Eine andere Quelle der Vielfalt beim Entwurf sind die Garantoren, die von Planern und Entwerfern als außer Frage stehende Quellen verläßlichen Wissens benutzt werden. Das kann die Tradition sein (« wir haben es immer so gemacht ») oder der Stand der Technik (« Heutzutage machen wir es so »). Das kann die Wissenschaft sein, der gesunde Menschenverstand oder der Geist des Fortschritts. Manchmal ist es das Gewissen, das gute Gefühl oder die Offenbarung. Ganz offensichtlich spielen die Lebensanschauung des Planers und Entwerfers und seine Persönlichkeitszüge eine bedeutende Rolle. So wird ein Optimist oft annehmen, daß « es funktionieren wird », und entsprechend vorgehen, während der Pessimist dauernd von dem Verdacht geplagt wird, daß « nichts so funktioniert, wie geplant ». Die Rolle von Hoffnung, Selbstvertrauen und Mut in der Denkweise von Planern und Entwerfern ist offensichtlich. Es ist kein Wunder, daß jeder Planer und Entwerfer das verkaufen möchte, was er am besten kennt. So wird ein Architekt einen Klienten kaum jemals vom Bauen abhalten, und ein Immobilienmakler wird vorschlagen, nach bereits exi stierenden Gebäuden auf seiner Liste Ausschau zu halten. Das ist das Problem der dominanten Gesichtspunkte. Ein Ökonom sieht ökonomische Probleme, ein Ingenieur sieht technische Probleme, und ein Manager sieht Managementprobleme, während alle anderen Gesichtspunkte im Hintergrund bleiben, um später behandelt zu werden (wenn überhaupt)7. Aber Entwurfsprobleme sind allumfassend und passen nicht ordentlich in die Schubfächer eines einzelnen Berufs. Die Frage « was soll erreicht werden? », ist für manche leicht zu beantworten. Sie wissen, was gut ist für die Menschheit und speziell für dich und mich, während das für andere eine äußerst quälende Frage ist. Einige betrachten als maßgebliches Publikum diejenigen, die ihnen ähnlich sind, andere stellen sich dem Urteil der Geschichte, andere begnügen sich damit, ihren Kunden gefällig zu sein, und noch andere wollen von jedermann geliebt werden. Was « kognitiver Stil »8 beim Entwerfen genannt wurde, kann auf ähnliche Weise analysiert werden. Einige beginnen mit dem Issue, « wie soll das Ganze aussehen? », während andere von Grund auf arbeiten, indem sie mit « wie sollen die Teile und Bestandteile dieser Sache sein? » beginnen. Einige tauchen gerne in
DIE DENKWEISE VON PLANERN UND E NTWERFERN 131
Verfolgung eines besonderen Aspekts in die Tiefe, während andere zuerst « in die Breite » arbeiten9. Es ist leicht, die Weltsichten aufzudecken, die hinter den allgemein bekannten Karikaturen von Entwerfer-Typen stehen, wie z. B. dem « MASTERMINDER », dem « TECHNOKRATEN », dem « BÜROKRATEN », dem « VISIONÄR » usw. Zum Glück für uns alle sind die meisten Planer und Entwerfer nicht sehr erfolgreich darin, die Welt auf ihre Weise umzuformen. Planen und Entwerfen findet in einem sozialen Kontext statt. Praktisch alle Pläne beeinflussen viele Menschen in unterschiedlicher Weise. Die Erstellung von Plänen zielt auf die Verteilung von Vor- und Nachteilen. Kein Plan war jemals für alle gleich gut. Daher sind viele Menschen mit verschiedenen, oft widersprüchlichen Interessen und Ideen an der Planerstellung zu beteiligen oder wollen beteiligt sein. Die resultierenden Pläne sind üblicherweise Kompromisse, die sich durch Verhandlungen und die Anwendung von Macht ergeben. Der Planer und Entwerfer ist nolens volens an diesen Prozessen beteiligt, er ergreift Partei. Planen und Entwerfen bringt politisches Engagement mit sich – obwohl viele Planer und Entwerfer sich lieber als neutrale, unparteiische, wohlwollende Experten sehen würden, die irgendeinem abstrakten Begriff des « Gemeinwohls » dienen.
6. Wissenschaft des Planens und Entwerfens? Machen diese Betrachtungen über die Natur der Denkweise beim Planen und Entwerfen die Versuche, eine Wissenschaft vom Planen und Entwerfen zu entwickeln, nutzlos? Überhaupt nicht. Im Gegenteil, unsere Fähigkeiten, die menschlichen Lebensbedingungen zu entwerfen oder zu gestalten, sind nicht so perfekt, daß wir bequem mit den üblichen Methoden des Durchwurstelns leben und die Schwierig keiten der Entwurfstätigkeit ignorieren könnten. Wirtschaft, Umwelt, internationales Geschäft, unsere Institutionen und die Welt der Artefakten um uns herum erwecken den Eindruck, daß die Kunst des Entwerfens noch viel zu wünschen übrig läßt. Neben ihrem intellektuellen Reiz (was könnte faszinierender sein als zu untersuchen, auf welche Art Menschen ihre Zukunft gestalten?) könnte sich eine Wissenschaft des Planens und Entwerfens sogar als nützlich erweisen. Sogar, wenn sie uns nur hilft herauszufinden, wie man nicht entwerfen sollte. Die Wissenschaft vom Planen und Entwerfen hat drei Aufgaben. Erstens, die Theorien des Planens und Entwerfens weiterzuentwickeln, um mehr über die Denkweise von Planern und Entwerfern zu erfahren. Zweitens sollte sie empirische Forschung darüber betreiben, wie Pläne zustandekommen, und welche Wirkungen Pläne im Vergleich zu den beabsichtigten Zielen haben. Schließlich sollte sie auf dieser Basis Werkzeuge entwickeln, die Planer und Entwerfer in ihrer Arbeit
132 ���������������������
unterstützen. Der menschliche Geist ist fehlbar. Methoden sollten gesucht werden, um seine Fähigkeiten zu erweitern, auch wenn sie nur dazu dienen, uns davor zu bewahren, unseren eigenen Idiosynkrasien zum Opfer zu fallen. Selbst wenn solche Mittel nicht leicht gefunden werden können – können wir es uns leisten, nicht weiterzusuchen?
1 Die Vorträge dieser Konferenz sind in Jones (1963) veröffentlicht. Es ist interessant, die Issues dieser Konferenz mit denen der heutigen Konferenz zu vergleichen. 2 Das ist nur ein Gedankenexperiment, in der Annahme, daß der Planer und Entwerfer die Wahrheit sagt und nicht versucht, «nachträgliche Rationalisierungen» für seine Entscheidung zu konstruieren. Wenn das als praktische Untersuchungsmethode angewandt wird, muß man mit vielen Hindernissen rechnen: «geheime Vorbehalte» der lautredenden Person, die Effekte von «darüber zu reden, was man denkt, führt dazu, nachzudenken über das, was man redet», etc. 3 Entwurfs- und Planungsprobleme (die man als «bösartige Probleme» bezeichnen kann) e nthalten spezifische Schwierigkeiten, die sie von «zahmen Problemen» unterscheiden. Zur Diskussion von bösartigen Problemen und ihrer Merkmale, vgl. Rittel (1972) oder Rittel/Webber (1973). 4 Ein Informationssystem zur Organisation und Beobachtung des Argumentativprozesses und zur Administration des entstehenden Netzwerks von Issues – genannt IBIS (für Issue-Based Information System) – wurde entwickelt. Weitere Ausführungen zur Struktur und Anwendung von IBIS können entnommen werden aus: Dehlinger/Protzen (1972), Kunz/Rittel (1973), Mc. Call (1978) und Reuter/ Werner (1983). 5 Zur besseren Lesbarkeit sind einige, weniger häufige wenn auch realistische Möglichkeiten weggelassen worden, etwa «A aufzugeben, weil man die damit verbundenen Unsicherheiten nicht genügend beseitigen kann», «A anzunehmen, trotz der Zweifel, daß A funktioniert (laßt uns hoffen, daß es funktioniert)» etc. 6 Rittel, Der Sachzwang – Ausreden für Entscheidungsmüde (1976). 7 Darke, The Primary Generator and the Design Process (1979). 8 Cross, The Relevance of Cognitive Styles in Design Education. 9 McCall, On the Structure and Use of Issue Systems in Design (1978).
Literatur Cross, Nigel; « The Relevance of Cognitive Styles in Design Education », DMG Journal, Vol. 17, No. 1,1983, pp. 37–49 Darke, Jane; « The Primary Generator and the Design Process », Design Studies, Vol. 1,1979, pp. 36–44 Dehlinger, Hans; Protzen, Jean Pierre; « Debate and Argumentation in Planning: An Inquiry into Appropriate Rules and Procedures », Institute of Urban and Regional Development, University of California, Berkeley, CA, 1972, IURD Working Paper 178 (Auch Arbeitspapier S-78-3, Institut für Grundlagen der Planung, Universität Stuttgart, 1978) Jones, John Christopher; Thornley, D. J.; « Conference on Design methods », Pergamon Press, Oxford– London–New York–Paris, 1963 Kunz, Werner; Rittel, Horst W. J.; « Issues as Elements of Information Systems », Institute for Urban & Regional Development, University of California, Berkeley, CA, No. 131, 1970 (« Issues als Elemente von Informationssystemen »)** Kunz, Werner; Rittel Horst W. J.; « Information Science: On the Structure of its Problems », in: Information Storage and Retrieval, Vol. 8, 1972, pp. 95–98 McCall; Raymond J.; « On the Structure and Use of Issue Systems in Design », PhD-Dissertation, University of California, Berkeley, CA, 1978 Reuter, Wolf D.; Werner, Harald; « Thesen und Empfehlungen zur Anwendung von Argumentativen Informa tionssystemen », Arbeitspapier A-83-1, Institut für Grundlagen der Planung, Universität Stuttgart, 1983
DIE DENKWEISE VON PLANERN UND E NTWERFERN 133
Rittel, Horst W. J.; Webber, Melvin; « Dilemmas in a General Theory of Planning », in: Policy Sciences 4 (1973), pp. 155–169 (Dilemmas in einer allgemeinen Theorie der Planung) ** Rittel, Horst W. J.; « On the Planning Crises: Systems Analysis of the First and Second Generations », Bedriftsøkonomen #8, 1972, pp. 390–396 (Zur Planungskrise: Systemanalyse der « ersten und zweiten Generation »)** Rittel, Horst W. J.; « Sachzwänge – Ausreden für Entscheidungsmüde »**, Arbeitspapier S-76-1, Institut für Grundlagen der Planung, Universität Stuttgart, 1976
* Originalfassung: Arbeitspapier A-88-4 des Instituts für Grundlagen der Planung, Universität Stuttgart. Stuttgart 1988. Der Text entspricht dem Manuskript eines Vortrages, gehalten vor dem International Congress on Planning and Design Theory, Boston, August 1987. ** Diese Beiträge sind in dem vorliegenden Buch abgedruckt.
134 ���������������������
Information für Planen, Entwurf, Design
Der Ansatz der Informationswissenschaften* mit Werner Kunz
1. Gegenstände der Informationswissenschaften Obwohl das Substrat der Information seit etwa 25 Jahren der Gegenstand wissenschaftlicher Untersuchungen ist, besteht keine Einhelligkeit über die Bedeutung diese Wortes. Die exakte Definition eines Informationsbegriffes, wie er von Shannon und Weaver als Grundlage der Informationstheorie formuliert wurde, wird von vielen als zu eng empfunden. Dies ist nicht verwunderlich, da dieser Begriff dafür gedacht war, gewisse technische Fragen der Nachrichtenübermittlung zu beschreiben. Was indessen vorwissenschaftlich und umgangssprachlich unter Information verstanden wird, ist viel reicher als dieser technische Begriff und kommt dem Informationsbegriff, wie er den Informationswissenschaften zugrundeliegt, viel näher. Redewendungen wie « gut informiert sein », « fehlinformiert sein », « Information haben » u. dgl. deuten auf Dimensionen, welche durch ein Entropiemaß nicht erfaßt werden. Sie zeigen, daß Information nicht notwendig als ein Substrat verstanden werden muß, welches güterartig transportiert oder verarbeitet wird, sondern daß man sie auch als einen Prozeß oder als Operation auf den Zustand von Kommunikationspartnern verstehen kann. T 17: Die Gegenstände der Informationswissenschaften sind Informationsprozesse; ebenso die Einrichtungen, welche Informationsprozesse ermöglichen, auslösen und unterstützen sollen. Diese Einrichtungen werden Informationssysteme genannt. Mit dieser Begriffsbestimmung wird dem « Gut » Information der absolute, quasi-objektive Charakter genommen, wie er den informationstheoretischen Konstruktionen zugrundeliegt. Denn Informationsprozesse involvieren Personen, und es hängt vom Zustand dieser Personen ab, ob eine Rezeption von Signalen einen Informationsprozeß auslöst. T 18: Die Informationswissenschaften beschränken sich auf die Informationsprozesse, welche sich auf das Problemlösungsverhalten von Akteuren beziehen. Mit dieser These werden z. B. Informationsprozesse zwischen Maschinen, in biologischen Systemen oder genetischen Mechanismen ausgeschlossen. Wenn hier von Akteuren die Rede ist, heißt das Personen, die eine Absicht verfolgen oder mit einem Problem konfrontiert sind. Da nicht jeder ständig Akteur ist, ist er auch nicht ständig an Informationsprozessen der betrachteten Art beteiligt, und
138 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
folglich beanspruchen die Informationswissenschaften nicht, sich schlechthin mit allen menschlichen Kommunikationsverhalten zu beschäftigen. A usgeschlossen werden dadurch z. B. alle jene Vorgänge, welche Unterhaltung und Erbauung ohne spezielle Aktionsabsicht auf Seiten des Rezipienten bewirken. Akteure in diesem Sinne sind also der Wissenschaftler, der Literatur zu seinem Problem sucht, der Politiker, der Information für die Vorbereitung seiner Entscheidung braucht, der Planer, welcher die Brauchbarkeit eines Entwurfs abschätzen will, der Ingenieur, der nach technischen Verfahrensinformationen sucht, oder der Staatsbürger, welcher die Standpunkte verschiedener Proponenten kennen lernen, vergleichen und beurteilen will usw.
2. Information als Wissensänderung Dieser Ansatz der Informationswissenschaft erhält seine praktische Bedeutung erst dann, wenn angegeben wird, wie man einen Informationsprozeß identifiziert. T 19: Ein Informationsprozeß ist ein Vorgang, welcher das Wissen eines Akteurs verändert. Jemandes Wissen zum Kriterium für Informationsprozesse zu machen, mag zwar mannigfaltige, noch zu erörternde methodologische Schwierigkeiten mit sich bringen. Nach sorgfältiger Prüfung der Alternativen scheint hier jedoch die Möglichkeit zu liegen, gleichzeitig die Subjektivität der Information und das Phänomen des häufigen Erfolges der Kommunikation zu erfassen. Denn ein Informa tionsprozeß findet nur statt relativ zum « subjektiven » Wissen eines Akteurs in einer problematischen Situation, andererseits beruht Kommunikation auf geteiltem Wissen der Partner. Daraus ergibt sich die nächste These: T 20: Die theoretische Basis der Informationswissenschaften ist das jeweilige Modell vom Wissen und seinen Veränderungen. Hier liegt in der Tat das Kernproblem der Informationswissenschaften. Dies gilt für den Informationsforscher ebenso wie für den Entwerfer neuer Informations systeme: Die zentrale methodische Schwierigkeit beim Entwurf von Informationssy stemen ist die Ergründung der Wissensbasen und der Absichten derjenigen, welchen ein Informationssystem dienen soll. Mit anderen Worten: Die Informationswissenschaften sind auf wirksame Kommunikation mit denen angewiesen, für die ihre Resultate nützlich sein sollen. Das hat eine bemerkenswerte Konsequenz: Der Informationswissenschaftler ist seinerseits auf ein gutes Informationssystem angewiesen. Was er erreichen kann, ist durch die Qualität seines Informationssystems begrenzt. Folglich ist er gut beraten, seine eigene Tätigkeit als Informationsprozeß zu verstehen, d. h., die
DER ANSATZ DER I NFORMATIONSW ISSENSCHAFTEN 139
Theorie der Informationswissenschaften sollte auch die Situation des Informations forschers zu beschreiben erlauben. Somit ist er nicht in der Situation der klassischen Naturwissenschaftlers, der sein Objekt quasi von « außen » betrachtet und unvermeidlich Wechselwirkungen mit seinem Objekt als Störeffekte empfindet. Für den Informationswissenschaftler besteht – auch in der Theorie – eine grundsätzliche Symmetrie zwischen Forscher und Objekt. Wenn man als Informationsprozeß jeden Vorgang definiert, welcher « zur Veränderung von jemandes Wissen » führt, wird damit nicht behauptet, daß diese Veränderung immer eine Beseitigung von Unsicherheit oder eine Bestätigung des schon Gewußten bedeuten muß. Ein Informationsprozeß kann auch eine Verunsicherung zur Folge haben (man wird weniger sicher, daß etwas bislang Gewußtes zutrifft, oder man wird sogar überzeugt, daß das logische Gegenteil des bislang Gewußten richtig ist). Außer diesen Effekten auf die Glaubwürdigkeit oder Richtigkeit von etwas Gewußtem kann ein Informationsprozeß auch zur Folge haben, daß etwas « ganz anders gesehen wird », d. h. in anderen Kategorien begriffen wird, oder daß sich neue Möglichkeiten eröffnen. Es kann z. B. eine « paradigmatische Revolution » stattfinden, durch die ein archetypisches « Grundbild », welches den Bezugsrahmen des Verständnisses e ines Problemkomplexes liefert, « umstürzt » und vielleicht durch ein anderes Bild ersetzt wird. Beispiel: « Atome mit gesättigten Elektronenschalen sind chemisch inaktiv » wird ersetzt durch « Auch Edelgase gehen Verbindungen ein ». Zu einem etwas anderen Informationsbegriff siehe Meyer-Uhlenried/Wersig1.
Damit ergeben sich einige grundlegende Fragen zur Methode der Informations forschung und zum Entwurf von Informationssystemen. Sie beziehen sich auf die Bestimmung dessen, was als Wissen bezeichnet wird. Im einzelnen sieht sich der Informationswissenschaftler in seiner Arbeit fortgesetzt den folgenden Schwierigkeiten gegenüber: • festzustellen, was jemand weiß; • festzustellen, ob sich jemandes Wissen verändert hat, d. h., ob Information stattgefunden hat; • festzustellen, ob eine Nachricht beim Empfänger die Information (also Wissensveränderung) hervorgerufen hat, die mit ihr beabsichtigt war; • abzuschätzen, was für einen Empfänger oder eine Klasse von Empfängern relevant ist, d. h. zu ihrer Problemlösung beiträgt. Diese allgemeinen Fragen stehen hinter allen Forschungsbemühungen und Entwicklungsaufgaben, wie sie unter « Probleme der Informationswissenschaften » (Kap. 5) beschrieben werden.**
140 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Jede dieser Fragen führt zu grundsätzlichen Dilemmas, denn sie beziehen sich auf « A’s Wissen von dem, was B weiß ». Um z. B. abzuschätzen, was für jemanden relevant sein könnte (eine Aufgabe, die jeder mit der Beschaffung befaßte Bibliothekar täglich hat), muß man nicht nur genau wissen, was der andere weiß, sondern müßte – streng ge nommen – auch dessen Probleme bereits gelöst haben, da Relevanz erst am Problem lösungserfolg beurteilt werden kann.
3. Ein Modell des Wissens Es wurde postuliert, daß Informationsprozesse « Wissensänderungsprozesse » sind. Um diese Formulierung mit einem Inhalt zu füllen, braucht man ein Modell dessen, was als Wissen verstanden werden soll (T 20). Von einem solchen Modell ist zu fordern, • daß es explizit beschrieben ist, d. h., kommunizierbare Kriterien angibt, welche es erlauben, Wissen von anderen Enti täten zu unterscheiden; • daß es alles Wissen beschreibt, d. h., es darf nichts geben, was als Wissen gelten soll und nicht in das Modell paßt; • daß nichts als Wissen verzeichnet wird, was nicht Wissen ist; • daß es strukturell ist, d. h., Aussagen über Wissen postuliert, die unabhängig vom speziellen Gegenstand oder Inhalt des Wissens sind; • daß es die Dynamik des Wissens beschreibt. Der zweite Punkt läßt sich etwas vorsichtiger formulieren: Das Modell sollte so beschaffen sein, daß es möglichst schwierig wird, einen Wissensbereich zu identifizieren, der sich nicht in dem Modell abbilden läßt. Schließlich soll das Modell Wissen nicht losgelöst vom Handeln repräsentieren. Wissen erwirbt man, um zu handeln; um zu handeln, muß man wissen; und Handeln hat neues Wissen zur Folge (obwohl nicht alles Wissen durch Handeln erworben wird). Handeln wird hierbei unterschieden vom bloßen gewohnheitsmäßigen oder reflexhaften Agieren oder Reagieren. Handeln ist bewußtes, auf eine Absicht hin orientiertes Urteilen und Entscheiden, gefolgt von der Aktion. Um die Bedeutung von Wissensmodellen für die Informationswissenschaften zu demonstrieren, wird hier ein einfaches Modell des Wissens entwickelt, welches die folgenden Postulate einschließt:
DER ANSATZ DER I NFORMATIONSW ISSENSCHAFTEN 141
3.1 Wissen ist immer jemandes Wissen. Das heißt, daß es für den Informationswissenschaftler nicht sinnvoll ist, Wissen losgelöst von Personen zu betrachten. Die Grundlage seiner Arbeit ist sein Wissen über das Wissen derjenigen, für die er ein Informationssystem entwerfen will; die Quelle seiner Schwierigkeiten ist die Notwendigkeit, in jedem speziellen Fall dieses Wissen zu erwerben. Er kann sich nicht auf die Betrachtung des universellen Wissens beschränken. Im Gegenteil: Das spezifische, « nicht-universalisierte » Wissen ist g erade der Anlaß für seine Aufgabe, Informationssysteme zu entwerfen. Alle seine Bemühungen, Benutzerbedürfnisse (« Profile ») zu beschreiben, Relevanz abzuschätzen, Speicher « problemgerecht » zu organisieren, d emonstrieren diese Problematik. Der Informationswissenschaftler zerbricht sich von Berufs wegen anderer Leute Kopf. 3.2 Wer handelt, braucht Wissen 1. von dem, was der Fall ist (faktisches Wissen); 2. von dem, was der Fall sein sollte oder werden sollte (deon tisches Wissen); 3. wie das, was der Fall ist, verändert werden kann (instrumentelles Wissen); 4. darüber, was, wann immer etwas der Fall ist oder der Fall werden wird, die Folge sein wird (oder als Folge erwartet werden kann) und aus welchen Gründen (erklärendes Wissen). Instrumentelles Wissen setzt faktisches und erklärendes Wissen voraus. 3.3 Jemandes Wissen zu einer gewissen Zeit kann als Menge von Sätzen beschrieben werden. Die einzelnen Wissenstypen (3.2) sind durch verschiedenen Status der sie repräsentierenden Sätze zu kennzeichnen. 1. 2. 3. 4.
« … ist der Fall » ; « … soll der Fall sein » ; « Aktion … produziert … unter den Umständen … » ; « Wenn … der Fall ist, wird … die Folge sein. »
Die Leerstellen in diesen Figuren werden mit Beschreibungen gefüllt. Beschreibungen sind Zeichenkonfigurationen, welche aus Deskriptoren, Objektidentifikatoren, Konnektiven und Qualifikatoren gemäß den Regeln einer Grammatik formuliert sind.
142 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
3.4 Ausdrücke dieser Form heißen « Wissenselemente (von A, zur Zeit t) », wenn sie einen von A zur Zeit t gewußten Sachverhalt repräsentieren. Es soll angenommen werden, daß es ein Entscheidungsverfahren gibt, das für irgendeinen Ausdruck dieser Form festzustellen erlaubt, ob er ein Element von jemandes Wissen ist oder nicht. Diese Forderung kann man abschwächen: Für jeden Ausdruck dieser Art kann mit Hilfe der Entscheidungsregel fest gestellt werden, welcher der drei folgenden Fälle für ihn gilt: a) er ist Element von A’s Wissen; b) er ist nicht Element von A’s Wissen; c) es ist nicht entschieden, ob er Element von A’s Wissen ist oder nicht. Die Entscheidungsregel hat im praktischen Fall die Form einer empirischen Prozedur. 3.5 Es wird nicht gefordert, daß alle Elemente seines Wissens erschöpfend von A aufgelistet werden können. 3.6 Jede Änderung der Menge WAt, welche das Wissen von A zur Zeit t repräsentiert, kann entweder bewußt oder unbewußt sein. Bewußte Änderungen sind Informationsereignisse. Informationsereignisse können das Ergebnis interner Operationen sein (Überlegungen, Nachdenken), oder sie können durch von außen kommende Nachrichten verursacht werden. Wissensänderungen können außerdem spontan und sprunghaft sein (« Aha-Erlebnisse »), oder sie können allmählich und graduell (« analog ») erfolgen. Die Informationswissenschaften beschäftigen sich mit den bewußten, von außen verursachten Wissensänderungen. Es liegt auf der Hand, daß die von außen verursachten Wissensänderungen erst als solche klassifiziert werden können, wenn der Zustand von A’s Wissen zur Zeit t bekannt ist. Praktisch bedeutet dies, daß die Informationswissenschaften nicht ohne Hypothesen vom jeweiligen Zustand des Wissens des Benutzers der betrachteten oder zu entwerfenden Systeme auskommen. Somit sind die Konditionierungstechniken Pawlowscher Art, unterschwellige Eingriffe, « schleichende » Propaganda und Werbung von der Betrachtung und Behandlung durch die Informationswissenschaften ausgenommen. Dies soll eine Annahme für den gegenwärtigen Ansatz sein. Der Grund hierfür ist das Bedürfnis, eine möglichst scharfe und enge Demarkation des Gebietes zu erhalten.
DER ANSATZ DER I NFORMATIONSW ISSENSCHAFTEN 143
Jedes Informationsereignis ist demnach mit einem « Aha »-Erlebnis verbunden. Selbst wenn eine Wissensänderung nur in der Zunahme oder Abnahme des Glaubwürdigkeitsgrades eines Wissenselementes besteht, kann dies Information sein, wenn diese Zunahme oder Abnahme als solche wahrgenommen wird. 3.7 Wenn A in der Rolle des Akteurs ist, enthält sein Wissen ein Element, welches seine Absicht, sein Ziel oder sein Problem in diesem Zeitpunkt beschreibt. (Alle drei Begriffe werden als Synonyme behandelt.) Genauer betrachtet, besteht ein Problem aus zwei Wissenselementen: Ein Problem ist für A gegeben, wenn WAt die folgenden Elemente enthält: • • • •
x ist der Fall; y sollte der Fall sein; x und y widersprechen einander (laut « Grammatik »); im Augenblick ist nichts wichtiger, als zu versuchen, einen Zustand x’ herbeizuführen, welcher mit y verträglich ist; • es ist nicht aussichtslos, nach einer Aktion H zu suchen, welche einen Zustand x’ herbeizuführen verspricht, der mit y nicht unverträglich ist. x, y, x’, H werden im allgemeinen zusammengesetzte Beschreibungen sein (H ist gewissermaßen die « Unbekannte »). Zudem ist angenommen, daß die Aktion H sich nicht selbstverständlich oder gewohnheitsmäßig anbietet: Zum betrachteten Zeitpunkt ist der Akteur nicht in der Lage, ein H mit den gewünschten Eigenschaften zu nennen (obwohl es sich aufgrund von Überlegungen und äußeren Hinweisen ergeben kann, daß er ein geeignetes H « kennt », d. h., in seinem Wissen besitzt, und nur « innerer » Retrieval-Schwierigkeiten wegen nicht aktivieren kann). Die Informationswissenschaften beschäftigen sich mit Informationssystemen: Dies sind Vorrichtungen, welche A unterstützen sollen, ein geeignetes H zu finden, sofern er sein Problem zu « entäußern » wünscht. 3.8 Auch die Erzeugung von Problemen kann das Resultat von Informationsprozessen (im engeren Sinn) sein: A kann aufgrund von außen empfangener Nachrichten realisieren, daß eine Ist-Soll-Diskrepanz existiert, gegen die er etwas tun sollte. 3.9 Für die genauere Analyse ist es notwendig, den Begriff der Situation einzuführen: A’s Situation ist die Teilmenge seines Wissens, welche soeben aktualisiert ist. Sie ist A’s Bild von dem, was gerade der Fall ist, was zu erwarten ist, was der Fall sein sollte und welche Aktionen soeben relevant sind.
144 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Wenn A’s Situation als Teilkomplex ein Problem (3.7) enthält, heißt sie « problematisch ». In den Informationswissenschaften werden nur problematische Situationen betrachtet. 3.10 Die Informationsbedürfnisse eines Akteurs lassen sich in den folgenden Fragenkatalog – in erster Approximation – klassifizieren: • Was ist der Fall? • Was soll der Fall sein oder werden? • Wenn X der Fall ist und Y der Fall werden soll: Welche Operation führt Y herbei? • Warum ist X der Fall? Verschachtelungen dieser Grundtypen liefern weitere Typen. Wissenschaftliche Informationssysteme geben im allgemeinen nur zu Fragen vom ersten und letzten Typ Auskunft: Andere Systeme haben den Charakter von « Kochbüchern », wenn sie auf Fragen des dritten Typs zugeschnitten sind; bislang haben Systeme, welche zur Beantwortung von Fragen des zweiten Typs ausgelegt sind, wenig informations wissenschaftliche Beachtung gefunden. Aber gerade die Antworten verschiedener Parteien zu solchen « deontischen Fragen » (zweiter Typ) müssen z. B. in einem Informationssystem für die Planung, etwa für die Forschungsplanung und Projektbewertung, repräsentiert sein. Weiterhin sind verschiedene Arten von Information nach der Art der bewirkten Wissensänderung zu unterscheiden: • • • •
ein von A bereits « gewußtes » Wissenselement wird bestätigt; A’s Vertrauen in ein Wissenselement wird vermindert; A ersetzt ein Wissenselement durch sein logisches Gegenteil; A akzeptiert ein neues Wissenselement, das sein bisheriges Wissen ergänzt.
Bei der Beurteilung der Güte eines Informationssystems sollten diese Unterscheidungen berücksichtigt werden: Wenn etwa seine Relevanzrate nur durch Ereignisse der ersten Art bestimmt ist, wird seine Qualität nur unzureichend gemessen. 3.11 Um auch diese Erörterungen über ein Modell des Wissens thesenartig zusammenzufassen: T 21: Ein Modell des Wissens, wie es als Grundlage für die Informationswissenschaften benutzt werden kann, beschreibt das Wissen eines Akteurs als Menge von Wissenselementen, die je als Aussagen faktischer, deontischer, instrumenteller oder erklärender Natur dargestellt werden können. Das jeweilige
DER ANSATZ DER I NFORMATIONSW ISSENSCHAFTEN 145
Situationsverständnis des Akteurs ist eine Teilmenge hiervon; es ist problematisch, wenn die in ihr enthaltenen Elemente nicht miteinander vereinbar sind. Informa tionsprozesse führen zur Veränderung dieser Menge von Wissenselementen. Die Informationswissenschaften beschränken sich auf Informationsprozesse in pro blematischen Situationen. Andere Modelle des Wissens sind vorstellbar und viele existieren – Ergebnisse aus vielen Jahrhunderten Erkenntnis- und Wissenschaftstheorie. Hier kam es indessen darauf an, einen Informationsbegriff zu entwickeln, der Information als Prozeß und nicht als Substrat versteht. Hierzu bot sich die Dynamik des Wissens als Grundbild an. Die hier nur angedeuteten Überlegungen werden an anderer Stelle ausgeführt. Auf der Grundlage dieses Modells der Objekte der Informationswissenschaften – der Informationsprozesse – lassen sich die Eigenarten ihrer Produkte – der Informationssysteme – entwickeln. Es wird nicht beansprucht, daß diese Konstruktion die einzig mögliche oder gar die beste Grundlegung der Informationswissenschaften verspricht: Es ist zu hoffen, daß diese wichtigen Fragen in der zukünftigen Arbeit auf dem Gebiet der Informationswissenschaften die notwendige Aufmerksamkeit in der BRD finden. Auch in den USA sind gerade in diesem Bereich seit kurzem erste Ansätze zu beob achten.
1
Meyer-Uhlenried, K.-H.; Wersig, G.; Versuche zur Terminologie in der Dokumentation II: Kommunikation und Information; NfD 1969, S. 205–211.
* Quelle: Werner Kunz, Horst Rittel: Die Informationswissenschaften; Ihre Ansätze, Probleme, Methoden und ihr Ausbau in der Bundesrepublik Deutschland. R. Oldenbourg Verlag, München 1972, S. 33–40. Dieser Text ist ein Auszug – das Kapitel 3 aus dem o. g. Buch –, in dem der Informationsbegriff neu gefaßt und ein Modell des Wissens planerisch handelnder Personen entwickelt wird. ** Dieser Verweis bezieht sich auf die Veröffentlichung, der dieser Text entnommen wurde (siehe Titelanmerkung).
146 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Issues als Elemente von Informationssystemen mit Werner Kunz (Issues as Elements of Information Systems*)
Zusammenfassung Issue-Based Information Systems (IBIS) sollen die Koordination und Planung politischer Entscheidungsprozesse unterstützen. Ein IBIS leitet die Identifikation, Strukturierung und Bestimmung von Issues, die in Problemlösungsgruppen aufgebracht werden, und stellt Information passend zum jeweiligen Stand der Diskussion zur Verfügung. Es steht mit konventionellen Dokumentationssystemen im Zusammenhang, benutzt aber auch andere Quellen. Elemente des Systems sind Problembereiche, Issues, Faktenfragen, Positionen, Argumente und Modellprobleme. Die Logik von Issues, die Subsysteme des IBIS und die Regeln für den Umgang damit werden umrissen. Drei manuell gesteuerte Versionen des IBIS werden von Regierungsbehörden zur Zeit noch im Experiment benutzt. Die Computerisierung der Systemabläufe ist in Vorbereitung.1
Argumentative Prozesse 1. Diese Abhandlung stellt eine Art von Informationssystemen vor, welche die Tätigkeit von Arbeitsgruppen, wie Regierungs- und Verwaltungsbehörden oder Ausschüssen, Planungsgruppen usw., die mit einem Problemkomplex konfrontiert sind, unterstützen sollen, um ein Verfahren für eine Entscheidung zu erreichen. Das Konzept für diese Issue-Based Information Systems (IBIS) beruht auf einem Modell der Problemlösung durch Arbeitsgruppen als argumentativem Prozeß. 2. Ein anfänglich unstrukturierter Problembereich oder « Topic » bezeichnet die Aufgabe, die durch einen « Auslöser-Satz » gekennzeichnet wird (« Stadterneuerung in Baltimore », « Der Krieg », « Steuerreform »). « Über » diesen Bereich und seine Unterbereiche entwickelt sich eine Diskussion. Issues entstehen und werden diskutiert, da verschiedene Positionen eingenommen werden. Argumente zur Verteidigung oder gegen die verschiedenen Positionen werden formuliert, bis die strittige Frage durch Überzeugung der Gegenseite beigelegt oder durch einen formalen Entscheidungsvorgang entschieden wurde. Häufig werden Faktenfragen an Experten weitergeleitet oder in ein Dokumentationssystem einge-
ISSUES ALS ELEMENTE VON I NFORMATIONSSYSTEMEN 147
geben. Von dort erhaltene Antworten können wiederum bestritten und in Issues umgewandelt werden. Durch dieses Wechselspiel von Fragen und Beweisen bilden und bemühen die Beteiligten ununterbrochen ihr Urteil und entwickeln so ein immer besser strukturiertes Bild des Problems und seiner Lösungsmöglichkeiten. Es ist nicht möglich, das « Verstehen des Problems » als eigene Phase von der « Information » oder der « Lösung » zu trennen, da jede Formulierung des Problems auch eine Aussage über eine mögliche Lösung darstellt. 3. Im Laufe dieses Prozesses tauchen vier Kategorien von Informationsaustausch auf: • zwischen den Beteiligten (Meinungs- und Erfahrungsaustausch, Bezug zu früheren Fragen und Entscheidungen, ähnliche Fragestellungen etc.); • mit den Experten über spezielle Fragen; • Information aus Dokumentationssystemen (zur Unterstützung einer Ansicht durch Literatur, zum Verweis auf Tat sachen etc.); • im Fall von abhängigen Arbeitsgruppen: mit dem Kunden oder Entscheidungsträger (Direktiven, Abruf von Entscheidungen, Berichterstattung etc.). IBIS wurde entwickelt, um diese Informationsprozesse zu unterstützen, zu dokumentieren und zu koordinieren.
4. Es gibt verschiedene Gründe für die Entwicklung und die Anwendung von Systemen vom IBIS-Typ. Zunächst einmal fehlt ein Verbindungsglied zwischen dem Aufbau konventioneller Dokumentationssysteme und der Struktur der Diskussion in solchen Arbeitsgruppen. Zu vielen auftauchenden Fragen können aus einem Wörterbuch ausgewählte Reihen von Schlagworten nicht adäquat zugeordnet werden. So ist die Frage: « Sollen wir private Arbeitsvermittlungsstellen legalisieren? » durch die Schlagworte « Legalisierung », « Arbeitsvermittlungsstellen », « privat » nicht ausreichend dargestellt. In Abhängigkeit vom Bild der Betroffenen von diesem Problem, kann der relevante Kontext in assoziativer Nachbarschaft stehen zu « Chancengleichheit », « Privatdetektive », « Ausbeutung der Armen », « Systematische Arbeitslosigkeit » etc. Ständig muß dem Dokumentationssystem ein ganz genaues Bild vom derzeitigen Stand der Diskussion übermittelt werden. Zweitens kann die Beschreibung des Themas mit den Worten eines Bi bliothekars oder Dokumentaristen weniger bedeutsam sein als die Ähnlichkeit einer Frage mit früher behandelten Fragen und als die dabei verwandte Information. Drittens dreht sich die entstehende Diskussion immer wieder um Konzepte, die in einem ad hoc-Vokabular zum Ausdruck gebracht werden, das ständig wechselt
148 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
und sich einer Katalogisierung widersetzt. Viele Schlüsselbegriffe, die benutzt werden, sind Eigennamen für lange Geschichten, die für die jeweilige Situation spezifisch sind und deren Bedeutung sehr eng verbunden ist mit dem Zusammenhang, in dem sie verwandt werden. Ein anderer Grund ist der Wunsch nach einem transparenteren Arbeitsverfahren solcher Arbeitsgruppen. IBIS soll einen reflektierenderen Denkstil anregen, der die Argumente klarer aufdeckt. Er soll helfen, die eigentlichen Fragen zu identifizieren, die Bandbreite der Positionen dazu zu entwickeln und den Beginn der Debatte zu unterstützen. Die Rolle externer Experten verdient ebenfalls eine Klärung. Ihnen sollen präzise Fragen gestellt werden, die ihren wohldefinierten Platz innerhalb des Problemlösungsprozesses haben. IBIS ist auch ein Dokumentationsund Berichterstattungssystem, das jederzeit schnelle und zuverlässige Information über den Stand der Diskussion erlaubt.
Die Logik von Issues 5. Issues sind die organisatorischen « Atome » der Systeme vom IBIS-Typ. Sie haben unter anderem folgende Eigenschaften: • Issues haben die Form von Fragen. • Issues entstehen aus kontroversen Aussagen. • Issues sind spezifisch für die jeweilige Situation, Standpunkte werden durch die Nutzung besonderer Information aus dem Problemumfeld und von als ähnlich empfundenen Fällen entwickelt. • Issues werden aufgeworfen, diskutiert, beigelegt, « unter den Teppich gekehrt » oder durch andere ersetzt. 6. Es gibt verschiedene Arten von Beziehungen zwischen I ssues, die zwischen den einzelnen Punkten der « Issue-Bank » ein Netz bilden, das bei der Suche nach ähnlichen Issues, der Geschichte eines Issues, den Konsequenzen früherer Entscheidungen etc. als Hilfe verwendet werden kann. • Issue I2 ist ein direkter Nachfolger von Issue I1 : I2 stellt eine Aussage in Frage, die zur Unterstützung einer der Positionen gemacht wurde, die in bezug auf I1 eingenommen werden. • Issue I2 ist eine Verallgemeinerung von I1. • I2 ist eine relevante Analogie zu I1: Die in I2 benutzten Argumente werden zu Argumenten umgeformt, die I1 betreffen, mutatis mutandis.
ISSUES ALS ELEMENTE VON I NFORMATIONSSYSTEMEN 149
• Positionen, die gegenüber I1 eingenommen wurden, können vereinbar, übereinstimmend oder unvereinbar sein mit einer Position, die gegenüber I2 (durch den gleichen oder einen anderen Verfechter) eingenommen wird. 7. Im Hinblick auf den Inhalt können die folgenden Typen von Issues unterschieden werden: • • • •
faktische Issues: « Ist X der Fall? » eontische Issues: « Soll X der Fall werden? » d explanatorische Issues: « Ist X der Grund für Y? » instrumentelle Issues: « Ist X das geeignete Mittel, um Y in dieser Situation zu erreichen? »
Jedem Issue kann eine logisch geschlossene Sammlung oder eine offene Liste möglicher Standpunkte zugeordnet werden. 8. Andere Elemente des Systems sind folgende: • Topics, wie eingangs vorgestellt, dienen als grobes Organisationsprinzip für die Bezeichnung der thematischen Schwerpunkte. • Faktenfragen (F-Fragen) erfordern Information, die als nicht kontrovers angenommen wird. Zweifel an der Glaubwürdigkeit einer Antwort führt zu einem Issue. • Modellprobleme sind nicht spezifisch für eine bestimmte Situ ation. Sie entsprechen wissenschaftlichen oder Managermodellen, die dazu bestimmt sind, ganze Klassen von Problemen zu behandeln (Anordnungsmodelle, Kosten-Nutzen-Modelle etc.). Viel Literatur beschäftigt sich mit Modellproblemen. Da sie immer über ein geschlossenes System von Stichworten (Variablen) definiert werden, hängt ihre Nützlichkeit für die Strukturierung eines bestimmten Problems von der Wichtigkeit der darin nicht enthaltenen Faktoren ab.
150 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Struktur der Systeme vom IBIS-Typ 9. Systeme vom IBIS-Typ enthalten mehrere Subsysteme: S-1: Issue-Bank: Ein Verzeichnis aktiver (S-11), beigelegter oder aufgegebener (S-12) und latenter (S-13) Issues. S-2: die Evidenz-Bank: Ein Verzeichnis von F-Fragen und ihren Antworten (S-21: beantwortet; S-22: offen). S-3: « Handbuch »: Sammlung von Modellproblemen. S-4: Topicliste (Problembereichsliste). S-5: Issue-Kartierung: Beschreibung der verschiedenen Beziehungen zwischen Issues, F-Fragen etc. durch graphische Darstellung des Diskussionsstandes. S-6: Dokumentationssystem: Suche und Auswertung in Anbetracht aktiver und latenter Issues und Standpunkte (S-61), Stichwortkatalog und Aufbau des Speichers (S-62), regelmäßige Durchprüfung im Hinblick auf die Problembereichsliste (S-63). 10. Alle diese Einheiten sind der leichteren Auffindbarkeit wegen durchnumeriert. Die Formatierungen für die Beschreibung der Issues, F-Fragen, Modellprobleme zeigen auch die verschiedenen Beziehungen zwischen ihnen, indem sie eine « I × I-Matrix » für jeden Beziehungstyp zwischen Issues de finieren, eine « I × T-Matrix » (die Issues Themenbereichen zuordnet) etc. Diese Matrixen werden zur Verfolgung von Verbindungen zwischen einzelnen Einheiten und zur Herstellung von Issue-Plänen (S-5) verwendet. Zusätzlich werden Literatur quellen (durch Zusatznummern) den einzelnen Einheiten zugeordnet und vice versa. Auf diese Weise werden mehrere Schichten von Suchnetzen etabliert.
Betrieb des Systems 11. Um nur die Hauptfunktion « Behandlung der Issues » zu beschreiben: 0–1: Beteiligter Mk wirft den rten Issue Ir im Zusammenhang mit Problembereich Tj auf. Ein « Issue-Formblatt » wird ausgefüllt, das den vorläufigen Issue bestimmt, die Liste alternativer Standpunkte sowie administrative Indikatoren.
ISSUES ALS ELEMENTE VON I NFORMATIONSSYSTEMEN 151
0–2: Ir wird (in Kontakt mit Mk) aufbereitet, Verbindungen zu anderen Issues werden hergestellt (unterstützt durch S-1, S-4, S-5, S-62). 0–3: Für jeden Standpunkt Prs wird ein « Argumentationsblatt » vorbereitet. Als Quelle dient hauptsächlich der Meinungsaustausch zwischen Mk und seinen Kontrahenten. 0–4: Die Akte Ir wird von S-61 bearbeitet, wobei unterstützende Beweise und Meinungen aus der Literatur herangezogen werden können (die Argumentationsblätter werden ergänzt, Literaturbewertungsbögen werden dem Verzeichnis hinzugefügt). 0–5: Die Issue-Kartierung S-5 wird aktualisiert. 0–6: Die Akte Ir wird zur Diskussionsbasis. Ir wird entweder durch die Annahme eines der beiden Standpunkte beigelegt, oder es werden von einem « Experten » weitere Beweismittel angefordert (durch F-Fragen, die genauso wie die Issues weiter behandelt werden), oder ein unterstützendes Argument für einen bestimmten Standpunkt wird in Frage gestellt, was wiederum zu einem neuen Issue führt (GOTO S-1). Schließlich kann auch die Bedeutsamkeit von Ir geleugnet, und es können Ersatzissues eingeführt werden (GOTO S-1).
Weitere Entwicklungen 12. Derzeit werden drei Systeme vom IBIS-Typ versuchsweise betrieben. IBIS-1 dient einer übernationalen Behörde zur Unterstützung der Entwicklung von Empfehlungen zur Informationspolitik. IBIS-2 wird von einer ministeriumsübergreifenden Regierungskommission verwendet, die sich mit einem nationalen Plan für Informationsnetze beschäftigt. IBIS-3 wird in einem Projekt der Universitätsplanung angewandt. Diese Systeme folgen den skizzierten Prinzipien, aber jedes von ihnen mußte für die speziellen Anwendungsbedingungen zurechtgeschneidert werden. Das erstaunlichste Resultat ist die bereitwillige Annahme durch die Nutzer, obwohl die Implementierung größere Änderungen in der Organisation und im Arbeitsstil bedingte. Noch werden sie manuell bedient, aber die Computerisierung einiger Arbeitsschritte wird bereits betrieben. Die Veröffentlichung der Theorie des IBIS und der Systemhandbücher sind in Vorbereitung.
152 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
1 Danksagung: Ausdrücklich wollen wir H. Dehlinger, T. Mann, J. P. Protzen und G. Mattel erwähnen, deren Forschungsarbeit entscheidend zu den hier vorgestellten Ergebnissen beigetragen hat.
Literatur Kunz, Werner; Horst Rittel; The Changing Information Environment; Report, Heidelberg - Berkeley, 1970 Kunz, Werner; Horst Rittel; Die Informationswissenschaften; Ihre Ansätze, Probleme, Methoden und ihr Ausbau in der Bundesrepublik Deutschland**, R. Oldenbourg Verlag, München 1972 Kunz, Werner; Horst Rittel; Zur Logik von Forschung und Dokumentation, in: Die Naturwissenschaften, 55 (8), Seite 358–361,1968 Rittel, Horst; « Instrumentelles Wissen in der Politik »**, in: H. Krauch; (Hrsg.); Wissenschaft und Politik, Studiengruppe für Systemforschung, Heidelberg, 1966, Seite 183–209 * Originalfassung in: Working Paper No. 131, Center for Planning and Development Research, University of California, Berkeley, CA, July 1970. ** Diese Beiträge sind in dem vorliegenden Buch abgedruckt.
ISSUES ALS ELEMENTE VON I NFORMATIONSSYSTEMEN 153
Struktur und Nützlichkeit von Planungsinformationssystemen (Structure and Usefulness of Planning Information Systems*)
In dem Vortrag « Zur Planungskrise: Systemanalyse der ersten und zweiten Gene ration »** versuchte ich zu zeigen, daß Planung als ein Prozeß verstanden werden kann, in dem problemrelevante Information erzeugt und verarbeitet werden kann. Einer der Punkte war, daß die Problemformulierung mit der Problemlösung identisch ist. Daraus folgt, daß aus der Sicht der Systemforscher der « zweiten Generation » der Entwurf eines Planungssystems dasselbe ist wie der Entwurf eines Planungsinformationssystems. Wir können uns daher darauf beschränken, die Charakteristik von Planungsinformationssystemen zu betrachten, wenn wir über die Möglichkeiten zur Verbesserung von Planung sprechen wollen. Daher kann man sagen, daß die Suche nach besseren Planungssystemen mit der Konstruktion besserer Planungsinformationssysteme identisch ist. Lassen Sie mich die Gründe dafür darlegen.
Planungssystem = Planungsinformationssystem Erstens muß der Planer aufgrund der Eigenschaften von « bösartigen » Problemen ständig in Kontakt mit dem Umfeld des betrachteten Problems bleiben. Zweitens bedeutet Objektifizierung in der Planung den Austausch von Information zwischen den Betroffenen, um gegenseitiges Verständnis zu erreichen. Voneinander zu lernen beruht auf Information. Drittens ist der Gegenstand der Planung nur teilweise bekannt, und daher ändern sich, ausgelöst durch Information, während des Planungsprozesses die Sichtweise und das Wissen über den Planungsgegenstand. Daraus haben wir gefolgert, daß Planung als Erzeugung von Ideen verstanden werden kann und als Bemühung, Wissen zu entwickeln, von dem was ist, im Gegensatz zu dem, wie es sein sollte, und darüber, wie man das, was der Fall sein sollte, bewirkt. Dieser Prozeß der Ideenerzeugung ist offensichtlich ein Informations prozeß. Im idealen Fall findet dieser Informationsprozeß durch Verstehen statt, im Unterschied zu den anderen Möglichkeiten des Lernens. Es gibt verschiedene Arten des Lernens: Die erste Art ist das Lernen durch Anleitung: Jemand bekommt etwas so lange gezeigt, bis er es kann. Dann gibt es Konditionierung: Während dieses Prozesses werden Belohnung und Bestrafung ausgeteilt wie beim Pawlowschen Hund. Verwandt damit, aber normalerweise nur bei Menschen möglich, ist Überredung: Man erzählt jemandem etwas so lange, bis
154 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
er es glaubt. Das ist der übliche Ansatz der Werbung. Alle diese Schritte sind dadurch charakterisiert, daß der Lernprozeß allmählich stattfindet, wobei die Reaktionen zunehmend den Erwartungen des Lehrers entsprechen. Schließlich kommen wir zur planmäßigen Überzeugung. Das bedeutet, daß aufgrund eines Arguments plötzlich ein « Aha »-Effekt eintritt, wenn eingesehen wird, daß etwas so und nicht anders ist; systematische Planung basiert auf der Tatsache, daß dies möglich ist. Der Unterschied zwischen der ersten Gruppe des Lernens und planmäßiger Überzeugung besteht somit darin, daß bei der ersteren nach und nach Wissen erzeugt, eine Art Reiz-Reaktion-Beziehung geschaffen wird, während im zweiten Fall eine Art « Aha »-Effekt eintritt. Planungsmethoden können und sollten eher auf Überzeugungs- als auf Überredungsprozessen basieren. Die erwünschte Planungsform sollte versuchen, die Betroffenen so wenig wie möglich zu überreden und zu konditionieren, sondern bei ihnen möglichst viele Verständnisprozesse auszulösen, um einen Zustand ihres Wissens durch einen « Aha »-Effekt zu erreichen. Wenn wir von einem Planungssystem sprechen, scheinen wir der eigenen Behauptung zu widersprechen, daß alle Planungsaufgaben einzigartig sind; denn ein System ist ein Konstrukt, das allgemeine Begriffe verwendet. Ob ein Planungssy stem geschaffen werden kann, das eine Klasse von Problemen behandeln oder über eine bestimmte Zeitspanne hinweg Gültigkeit behalten kann, ist ein ernsthaftes Problem. Dennoch gilt, daß, wenn immer wir über Planungssysteme sprechen, wir nicht über den Planungsinhalt reden (z. B. über die Planung einer bestimmten Einrichtung, Stadt oder Fabrik); vielmehr sollte alles, was in diesem Zusammenhang über Planung gesagt wird, als normativ und von Fakten unabhängig gesehen werden. Mehr noch, was immer gesagt wird, sollte für jede Planung und nicht nur für eine spezifische Planungsaufgabe gelten. In diesem Verständnis kann Planung allgemein betrachtet werden, und die Überlegungen zu Methoden der Planung können generalisiert werden. Ich habe zu zeigen versucht, daß Planungssystem und Planungsinformations system dasselbe ist, wenn wir es aus der Sicht der Systemanalyse der zweiten Generation betrachten. In der ersten Generation hingegen bedeutet Planungssystem die Manipulation vorhandener oder speziell verarbeiteter Information, wie zum Beispiel beim Operations Research. Das Hauptinteresse dort ist, Information zu verarbeiten und daraus Schlüsse zu ziehen. Aber nach der Erkenntnis, daß in der Systemforschung der zweiten Generation der Planungsvorgang mehr oder weniger derselbe ist wie der Informationsprozeß, können die Dinge nicht mehr in der alten Weise angegangen werden.
STRUKTUR UND NÜTZLICHKEIT VON PLANUNGSINFORMATIONSSYSTEMEN 155
Was ist Information? Es gibt eine Informationstheorie, die Information definiert. Aber diese Beschreibung von Information ist nicht für unsere Zwecke geeignet, da es bei ihr ausschließlich um das Messen der Wahlmöglichkeiten geht, die jemand in einem Kommunikationsprozeß hat. Mit jedem Wort, das ich spreche, oder Laut, den ich ausstoße, muß ich eine Auswahl unter all den Wörtern oder Geräuschen treffen, die ich zu meiner Verfügung habe, und das Maß der Information bezieht sich nur auf diesen Auswahlvorgang. Shannon und Weavers klassisches Informationsmaß ist ein Maß für den Umfang der Entscheidungen, die man bei jeder Nachricht treffen muß, welche man über einen bestimmten Kanal sendet. Diese Theorie berücksichtigt eigentlich nur die Wahlmöglichkeiten bei Information und Kommunikation. Wenn man dieses vornehme Wort « Information » in einem anderen, weniger engen und speziellen Sinn verwendet, muß es neu definiert werden. Für uns ist Information ein Prozeß, der dazu führt, jemandes Wissensstand zu verändern und nicht ein Substrat oder eine Art Material, das umhergeschaufelt werden kann. Wir sagen, daß ein Informationsprozeß stattgefunden hat, wenn z. B. ein Individuum, das zu einem bestimmten Zeitpunkt t etwas weiß – daß alle Körper schwer sind und zum Erdmittelpunkt fallen –, dies zum Zeitpunkt t + t nicht mehr weiß oder etwas mehr weiß. Diese Definition hat zahlreiche Konsequenzen. Wenn ich jemandem erzähle, was er schon weiß, habe ich ihn nicht informiert. Oder wenn ich jemandem etwas erzähle, und er dann nicht mehr das weiß, was er vorher wußte, dann habe ich ihn informiert, obwohl ich ihm in Wirklichkeit Wissen entzogen habe; das nennt man Desinformation. Es gibt zusätzliche Elemente von Wissen: Sätze, Feststellungen, die jemand mitunterschreiben würde. Nehmen wir den Satz: Die Erde ist rund. Wir können sicher sein, daß Leute, die diesen Satz unterschreiben würden, im allgemeinen wissen, daß die Erde rund ist (obwohl das ein Aberglaube ist). Man kann auch die Zuverlässigkeit von Wissen, die Existenz von Wissenselementen, dadurch beweisen, daß Leute bereit sind, darauf zu wetten. Je höher der Einsatz ist (den jemand b ereit ist, auf einen Satz zu setzen, der ein Wissenselement darstellt), desto sicherer ist er sich über dieses Wissenselement. So kann man einen Gewißheitsgrad c über ein Wissenselement K1 einführen; denn manche Dinge wissen wir sicherer als andere, und man kann sich vorstellen, daß dies auf mancherlei Weise meßbar gemacht werden kann, z. B. durch Wetterfahrung oder die Sammlung von Unterschriften. Der Planungsprozeß kann verstanden werden als Produktion solcher Wissenselemente, die für ein gegebenes Planungsproblem oder für den Kontext eines bestimmten Planungsproblems spezifisch sind. Nun gibt es verschiedene Arten von Informationsprozessen. Die erste besteht darin, daß die Gewißheit über ein Wissenselement K1 größer wird, als sie vorher war. Wir wußten schon, daß die Erde rund ist, aber das wurde nochmals bestätigt.
156 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Der zweite Fall ist genau umgekehrt: Der Grad an Gewißheit über etwas vorher Gewußtes wird geringer. Auch dieser Fall von « Zweifel bekommen » ist offensichtlich ein Fall von Information. Der dritte Fall besteht darin, daß etwas schon Gewußtes sich radikal ins Gegenteil verkehrt. Dafür ein Beispiel: In jedem Chemielehrbuch wird festgestellt, daß Edelgase keinerlei Verbindungen eingehen und deswegen als edel bezeichnet werden. Dafür gibt es gute Begründungen: Die äußere Elektronenschale ist gesättigt, und daher gibt es für die Elektronen keinerlei Grund, mit anderen Atomen in Wechselwirkung zu treten. Das steht in allen Lehrbüchern, so daß es tatsächlich keinen Grund gibt, zu überprüfen, ob das wirklich so ist … bis ein respektloser junger amerikanischer Forscher die Idee hatte, dies zu überprüfen und zu dem Schluß kam, daß Edelgase tatsächlich Verbindungen eingehen. Der nächste Fall ist der Zusammenbruch eines ganzen Wissensgebäudes (K). Dieser vierte Fall, die sogenannte « paradigmatische Revolution », bedeutet, daß Information dazu führen kann, daß ein ganzer Komplex von Erlerntem (z. B., daß die Welt in Ordnung ist und alles wunderbar klappt) ohne Ersatz auseinanderfällt. Natürlich ist der Widerstand dagegen noch größer als der Widerstand gegen die vorher genannten Arten von Information. Und der am wenigsten wahrscheinliche Fall von allen ist der, bei dem ein neuer Komplex an Information aus dem Nichts entsteht, wobei man das Bild eines ganzen Teiles der Welt völlig neu entwirft. Lernen wird immer schwieriger, und Information erzeugt Widerstand in zunehmendem Maß, je weiter hinauf auf der Skala man kommt; wir bevorzugen Information, die bestätigt, was wir schon wissen. Umzulernen ist viel schwieriger. Nun gibt es interne und externe Information. Man kann sein Wissen in der Weise ändern, daß man sich der Kommunikation nach außen verschließt und nur durch Reflexion, Neuorganisation des eigenen Wissens und Inspiration zu Schlußfolgerungen kommt. Dies sind Prozesse interner Information. Was für uns von Interesse ist und organisiert und behandelt werden kann, wenn wir besser planen wollen, sind Prozesse externer Information, d. h. Informationsänderungen, die durch äußere Einflüsse hervorgerufen werden; das bedeutet nicht, daß diese äußeren Einflüsse nicht auch interne Information als Folge haben können. Was ist ein Informationssystem? Ein Informationssystem ist eine Einrichtung, die zur Verbesserung und zur Unterstützung externer Informationen gedacht ist. Wenn das oben Gesagte richtig ist, ist ein Planungssystem ein System, das zur besseren externen Information eines Planers beitragen sollte, d. h. zu einem Planungsinformationssystem.
STRUKTUR UND NÜTZLICHKEIT VON PLANUNGSINFORMATIONSSYSTEMEN 157
Wissensarten Von Planern benötigtes Wissen kann man in die folgenden 5 Arten einteilen. Planung besteht darin, alle diese Arten von Wissen im Verlauf eines Projektes zu erzeugen und zu entwickeln. Die erste Art von Wissen ist als Faktenwissen (F-Wissen) bekannt, das an Sätzen mit folgender Form erkennbar ist: X ist, war oder wird der Fall sein. Ob es in einem konkreten Fall wirklich so ist, ist eine andere Frage. Wir haben immer gesagt, daß wir keinen Alleinanspruch darauf haben, zu bestimmen, was wirklich der Fall ist oder sein sollte, sondern daß das Wissen darüber vielmehr gleichmäßig über alle an der Planung Beteiligten verteilt ist. Die zweite Art von Wissen wird deontisches Wissen genannt. Deontisches Wissen spiegelt unsere Überzeugungen darüber wider, was sein oder werden sollte. Die Standardform dafür ist: X sollte der Fall sein oder werden. Wie wir schon gesehen haben, ist eine notwendige Bedingung für die Exi stenz eines Problems, daß eine Diskrepanz besteht zwischen dem Faktenwissen (« das, was ist ») und dem deontischen Wissen (« das, was sein sollte ») bezüglich eines bestimmten Themas. Ohne eine solche Diskrepanz kann es überhaupt kein Problem geben, und ohne sie können wir auch gar nicht planen. Die dritte Kategorie kann explanatorisches Wissen genannt werden. Diese Art von Wissen informiert uns darüber, warum das, was ist oder sein sollte, eben so ist, wie es ist oder sein sollte. Es hat die allgemeine Form: « X ist der Fall, weil Y … » Wir haben schon gesehen, daß wir immer diese Art von Wissen benutzen, um eine Lösung für unser Problem zu finden. In dem Augenblick, in dem wir erklären, warum etwas nicht so ist, wie es sein sollte, legen wir die Richtung fest, in der wir die Lösung suchen müssen. Nun ist diese dritte Art von Wissen offensichtlich nicht ausreichend. Wir wissen sicherlich, daß wir alle sterben müssen, weil wir nicht ewig leben können, aber das hilft uns nicht sehr, etwas zur Bekämpfung dieser Tatsache zu tun. Eine spezielle Art von Wissen zeigt uns die Art und Weise, wie wir etwas ändern können: In strumentelles Wissen. Es hat die Form: « wenn X geschieht, ist Y die Folge – unter der Voraussetzung Z ». Z ist die Bedingung, unter der dieses instrumentelle Wissen genutzt werden kann. Wenn Kaffeepulver und heißes Wasser zusammengeschüttet und erhitzt werden, bekommen wir Kaffee, vorausgesetzt, daß es genügend erhitzt wird, daß es unter normalem Luftdruck stattfindet, daß wir einen Topf zur Verfügung haben usw. Eine Planungsaufgabe ist dann gelöst, wenn eine Reihe derartiger Sätze in einer Weise zusammengestellt wurden, daß man erwarten kann, daß ihre Realisierung die Diskrepanz zwischen den « Ist »- und den « Soll »-Zuständen aufheben wird. Ein Plan ist eine teilweise geordnete Menge von instrumentellem Wissen, welches aktualisiert wird, um ein Problem zu lösen. Von der Ausführung all dieser Anweisungen erwartet man, daß die ursprüngliche Diskrepanz zwischen dem fak tischen und dem deontischen Wissen über eine Sachlage beseitigt werden kann.
158 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Die fünfte und letzte Kategorie ist konzeptionelles Wissen, Wissen über die Bedeutung von Wörtern und anderen Kommunikationsmitteln, welche wir üblicher weise benutzen müssen, um uns verständlich zu machen. Wenn wir über « Produktivität » sprechen, ist das konzeptionelle Wissen das, was unter dem Begriff « Produktivität » verstanden wird. Wie Sie sehr gut wissen, gibt es viele Konzepte von Produktivität, und wenn wir über Produktivität reden, müssen wir uns überlegen, welches Konzept von Produktivität wir benutzen. Wir sprechen hier über eine spezielle Art von Wissen, das uns die Abfolge von inhaltslosen Zeichen der verbalen Kommunikation mit Bedeutung füllt, so daß spezielle Verbindungen von Geräuschen nicht nur Wörter sind, sondern diese Wörter auch eine Bedeutung haben. Wie jeder aus Erfahrung weiß, entstehen die meisten Diskussionen aus der Frage, « was meinen Sie tatsächlich damit? », das Ergebnis ist ein Versuch, « konzeptionelles Wissen » zu liefern. Sollte es gewünscht werden, könnten noch weitere Arten von Wissen unterschieden werden. Man könnte z. B. sagen: Es gibt auch ein Wissen über die Zukunft. Aber das könnte widerlegt werden, da Erwartungen über die Zukunft als nicht besonders gesicherte Elemente faktischen Wissens angesehen werden können: Zum Beispiel, daß 1985 jede Familie in Mitteleuropa durchschnittlich 1,9 Autos haben wird. Je weniger begründet eine Aussage über die Zukunft erscheint, desto ein geschränkter ist der Grad der Gewißheit über faktisches Wissen, das die Zukunft betrifft. Wir könnten zwischen faktischem Wissen über die Vergangenheit, die Gegenwart und die Zukunft unterscheiden (wie wir es oben getan haben). Und dieses Wissen muß sehr genau unterschieden werden von « Soll-Wissen » darüber, was geschehen ist, jetzt geschieht oder geschehen wird. Die wichtigste Kritik, die wir vor kurzem gegen die Delphi-Methode vorgebracht haben, ist genau die, daß sie nicht zwischen dem « Soll »-Wissen und dem faktischen Wissen über die Zukunft unterscheidet. Jedoch ist für unsere Zwecke diese Einteilung in fünf Kategorien von Wissen ausreichend.
Merkmale von Planungsinformationssystemen Unsere Hypothese ist, daß der Planer im Verlauf des Planungsprozesses nichts anderes macht als diese fünf Arten von Wissen zu produzieren und zu behandeln. Er beginnt mit einer Diskrepanz zwischen faktischem und deontischem Wissen, sucht Erklärungen, warum die Dinge so sind, und wie sie sein sollten, und diese Erklärungen liefern ihm Hinweise über das instrumentelle Wissen, das er benötigt, um diese Diskrepanz zu beseitigen. Und von Zeit zu Zeit muß er sich fragen, was er eigentlich macht, was er wirklich mit Produktivität, Nachbarschaft oder einer funktionierenden Stadt meint: Er produziert konzeptionelles Wissen, das er mit anderen austauscht.
STRUKTUR UND NÜTZLICHKEIT VON PLANUNGSINFORMATIONSSYSTEMEN 159
Ein Planungsinformationssystem (kurz PLIS) kann von anderen Arten von Informationssystemen unterschieden werden. Beispielsweise gibt es ein « wissen schaftlich-technisches Informationssystem », bei dem man sich ein Buch hernimmt und üblicherweise faktisches oder explanatorisches Wissen findet. Deontisches Wissen, Wissen darüber, wie die Welt sein sollte, kann man mit einem wissenschaftlich-technischen Informationssystem nicht finden oder lernen. Im allgemeinen wird angenommen, daß der Leser selbst sich das instrumenteile Wissen aus dem explanatorischen Wissen ableiten kann. Nun ist klar, daß nicht alle Erklärungen, d. h. explanatorische Information, schon instrumentellen Charakter haben. Wir wissen, warum Menschen sterben, aber das sagt uns in keiner Weise, was wir tun müssen, um dies zu bekämpfen. Andererseits wissen wir eine Menge Dinge zu benutzen, d. h., wir haben eine Menge instrumenteller Information, ohne zu wissen, warum diese Dinge funktionieren, d. h. ohne relevante explanatorische Information zu haben, z. B. wissen wir, daß Daumendrücken dabei hilft, b estimmte Aufgaben zu meistern, aber keiner weiß, warum. Ein PLIS muß nicht nur faktisches Wissen über einen Planungsgegenstand liefern, sondern auch Daten über seinen « Soll »-Zustand. Der Hauptkritikpunkt an heutigen Planungsinformationssystemen, z. B. städtischen Informationssyste men, ist der, daß sie sich auf die Sammlung faktischer Information, Statistiken usw. beschränken, während für Planung ganz klar alle Arten von Information nötig sind. Die erste Komponente, die für solch ein Informationssystem erforderlich ist, ist sicherlich die Fähigkeit, bei der Produktion von faktischem Wissen über die Zukunft zu helfen, eine Art vorausschauendes Subsystem also. Vielleicht kann dies sogar « konditional » eingerichtet werden, so daß gesagt werden kann: Wenn ich dieses oder jenes Element instrumentellen Wissens benutze, und wenn dies oder das wirklich der Fall ist, dann wird gewiß (oder mit einem relativ hohen Wahrscheinlichkeitsgrad) folgendes eintreten. Dieses Subsystem sollte vorzugsweise von der Möglichkeit abhängen, sämtliches für eine bestimmte Tätigkeit angewandte instrumentelle Wissen auf den neuesten Stand zu bringen. Aber was vor allem notwendig ist und vom systemtheoretischen Ansatz der zweiten Generation auch postuliert wird, ist, daß deontisches Wissen in dem Planungssystem sehr viel mehr explizit und extemalisiert sein sollte, als das bislang der Fall war. In der Zeit, als man noch an die Zwangsläufigkeit und Objektivität von Planung glaubte, war es ganz klar, was der Fall sein sollte. Aber nun ist es nicht mehr so, und je weniger dem so ist und je mehr die Vorbedingungen des systemtheoretischen Ansatzes der zweiten Generation ins Spiel kommen, desto w ichtiger wird es, das deontische Wissen über den Gegenstand zu externalisieren und zu einem Teil des Informationssystems zu machen. Was der Fall sein soll, wird immer weniger klar und daher muß, was sein soll, festgestellt, aufgeschrieben und diskutiert werden.
160 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Im Gegensatz zur Systemforschung der ersten Generation, die sagt: Sammle zuerst deine Information und plane dann, ist unsere Ausgangshypothese, daß Planung in der Erzeugung von Wissen besteht, nicht nur in seiner Speicherung und seinem Gebrauch. Daher muß ein brauchbares Planungssystem eine Rückkoppe lung sicherstellen zwischen denjenigen, die planen, und denen, für die die Planung durchgeführt wird. Alle möglichen Meßstellen und Kommunikationspunkte sind so Teile dieses Planungsinformationssystems. Daher braucht man in einem Planungssystem ein Erhebungssubsystem, das die Produktion von Daten unterstützt. Zum Beispiel werden Wettermessungen vorgenommen oder eine Befragung darüber, was die Leute über eine bestimmte Frage denken oder wie viele Kinder pro Kopf es gibt. Es ist ein üblicher Irrtum der Anhänger der Systemanalyse der ersten Generation, zu glauben, daß es z. B. möglich ist, alle für die Planung b enötigte Information zu sammeln und (auf einem on-line-Computer) zur Verfügung zu stellen, d. h. Information über die Bevölkerung, die ökonomische Situation, die Arbeits situation, soziale Gewohnheiten etc. Im allgemeinen können diese sehr kostspieligen Versuche, Planungsdatenbanken bereitzustellen, die für ganze Klassen von Planungsaufgaben nützlich sein sollen, als gescheitert angesehen werden. Die Informationsquelle, die in besonderen Situationen erforderlich ist, kann normalerweise nicht über dieses Datenbanksystem geliefert werden. Bei der Stadtplanung zum Beispiel wurde schon praktisch alles gezählt: Es gibt Statistiken über Cholera fälle seit 1880, und obwohl es seit 30 Jahren in Mitteleuropa keine Cholerafälle mehr gegeben hat, wird noch immer weiter gezählt. Andererseits könnte es durchaus im Zusammenhang mit einer konkreten Frage sehr nützlich sein zu wissen, wie viele Hündinnen es in der Stadt gibt, und solche Information ist oft schwer oder gar nicht zu finden. Daher sollte ein Planungsinformationssystem nicht nur ein ständig wachsendes Datensammlungssystem umfassen, das Daten zu gegebenen Kategorien über Jahrzehnte oder Jahrhunderte sammelt, sondern auch ein Datenproduktionssystem, das Kategorien berücksichtigt, die erst im Zusammenhang mit einer gegebenen Sachlage auftreten. Genau hier gibt es einen deutlichen Engpaß bei Statistiken und statistischen Methoden: Wir brauchen, aber haben sie noch nicht, mehr Überschlagsmethoden, mit denen wir billig und rasch eine grobe Größenordnung eines gegebenen Phänomens im Kontext eines bestimmten Sachverhalts erhalten. Das ist das Datenproduktionssystem, das zu einem Planungsinformationssystem gehören sollte. Im Gegensatz zu einem Handbuch oder einem wissenschaftlich-technischen System ist ein Planungsinformationssystem immer voller Widersprüche. Einer sagt, eine Stadt sei überbevölkert, während ein anderer meint, sie sei unterbevölkert. Da wir festgestellt haben, daß wir die « Symmetrie der Ignoranz » akzeptieren, belassen wir beide Meinungen in unserem Informationssystem. Daher ist es von erheblicher Wichtigkeit, zu wissen, wer ein Informationselement in das System eingebracht hat.
STRUKTUR UND NÜTZLICHKEIT VON PLANUNGSINFORMATIONSSYSTEMEN 161
Ein weiteres, sehr schwieriges Problem von Planungsinformationssystemen, insbesondere, wenn viele Menschen daran beteiligt sind, ist die Frage, wie man den Planungsprozeß in Bewegung hält und sicherstellt, daß der Prozeß nicht auseinanderläuft. Daher ist es für ein Planungsinformationssystem wichtig, so etwas wie ein Monitoring-System zu haben, mit dem man organisieren kann, was innerhalb des Planungsprozesses passieren soll. In einem wissenschaftlichen System, beispielsweise, ist das nicht notwendig. Aber es ist nötig in einem PLIS, welches instrumentelle Spezifikationen für die Zukunft festlegt und dann bei der Überprüfung hilft, ob diese Ereignisse tatsächlich stattgefunden haben und ob sie zu den erwünschten Resultaten geführt haben.
Issue-Based Information Systems (IBIS) Es gibt viele andere Merkmale von Planungsinformationssystemen, die wir hier aber für die folgenden Überlegungen beiseite lassen können. In meinem Vortrag « Zur Planungskrise: Systemanalyse der ersten und zweiten Generation » habe ich spezifische Methoden der Systemforschung der zweiten Generation dargestellt, eine Gruppe davon wurde IBIS genannt, ein Issue-Based Information System. Ich möchte die Theorie dieses Systems etwas ausführen. Die Mittel und Wege, IBIS aufzubauen, bauen darauf auf, daß es fünf Arten von Wissen gibt, die ich oben erwähnt habe, und damit fünf Arten von Fragen, die in einem Planungsprozeß auftreten können. Diese Fragen können mit der verfüg baren Information nicht beantwortet werden. Wie wir schon gesehen haben, sind die Antworten auf diese Frage möglicherweise kontrovers. Wann immer die Antwort auf eine Frage für kontrovers gehalten werden kann, können wir von einem Issue sprechen, und wann immer die Antwort auf eine Frage unstrittig ist, sind wir bloß mit einer Frage konfrontiert. Auf einen Issue gibt es mindestens zwei A ntworten, die mindestens zwei verschiedene Parteien repräsentieren. Wenn ich jemanden frage, wie spät es ist, und er antwortet mir, ohne daß jemand widerspricht, 10.18 Uhr, dann ist das kein Issue, sondern bloß eine Tatsache. Aber wenn einer sagt, es ist 10.18 Uhr, und ein anderer 10.19 Uhr, und der Unterschied ist aus irgendeinem Grund entscheidend (z. B., weil Sie vielleicht eine Rakete zünden wollen), dann wird diese Frage über die genaue Zeit zu einem Issue. Die Antwort auf jegliche Frage kann bestritten werden; folglich kann jede Frage zu einem Issue werden. Nun zu den Mechanismen eines solchen Systems. Zu jedem Issue gibt es Posi tionen, die die verschiedenen Standpunkte repräsentieren, die zu diesem Issue eingenommen werden. Und zu jedem Issue gibt es Argumente, d. h. die Begründungen für diese Position. Planung ist ein sequentieller Prozeß: Für jeden aufgeworfenen Issue gibt es Positionen, die begründet werden (Argumente für und gegen diese Position werden gesammelt), und – auf verschiedenen Wegen, durch formale Ab-
162 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
stimmung oder Überzeugung – wird eine Entscheidung erreicht und so fort, bis ein neues Problem auftaucht, bei dem wiederum eine Diskrepanz zwischen dem « Ist » und dem « Soll » besteht, welche zu einem weiteren Issue führt, der wiederum verschiedene Positionen ermöglicht, die diskutiert werden können, bis die nächste Entscheidung erreicht ist, usw. Dies ist das Bild des Planungsprozesses der zweiten Generation, aus dem wir eine Methode gemacht haben, den IBIS-Ansatz. Zu deontischen Issues (z. B. sollten Privatfahrzeuge in Karlsruhe abgeschafft werden?) gibt es mindestens zwei mögliche Positionen: Eine « ja » - und eine « nein » Position. Die dritte mögliche Position ist, einen Issue als unwichtig, irrelevant oder falsch abzulehnen. Dies ist eine völlig legitime Position. Sie führt von dem Issue zu einer weiteren Frage, die als wichtiger angesehen wird. Für jede dieser Positionen gibt es Listen von Argumenten, die fortgeführt werden, bis es keine weiteren Argumente gibt oder bis die Zeit zu Ende ist; und wenn eine ausreichende Diskussion stattfand, muß im Falle der Uneinigkeit, eine Abstimmung durchgeführt werden. Entsprechend den verschiedenen Arten des Wissens, das angefochten wird, gibt es auch verschiedene Typen von Issues. Es gibt faktische Issues, für die es Argu mente dafür und dagegen gibt: Ist die Anzahl der Autos in der Innenstadt von Karlsruhe zu hoch? Dann gibt es deontische Issues: Sollte die Innenstadt von Karlsruhe von Fahrzeugen befreit werden? Dann gibt es explanatorische Issues: Warum ist die Innenstadt von Karlsruhe zweimal am Tag völlig überlastet? Da gibt es eine Vielzahl von möglichen Antworten: Aufgrund zu hoher Gewerbesteuern in den Außenbezirken, weil die Autos zu langsam sind, weil die Straßen zu eng sind, weil alle Geschäfte zur gleichen Zeit öffnen und schließen etc. Explanatorische Issues haben nicht nur zwei Positionen, sondern eine Liste von Positionen. Man kann eine gegebene Situation mit vielen Ursachen erklären. Dann gibt es instrumenteile Issues, die behandeln, was man tun sollte, um eine Diskrepanz zu beseitigen. Hier gibt es gewöhnlich ganze Listen von brauchbaren Möglichkeiten. Dasselbe gilt mehr oder weniger für konzeptionelle Issues, die behandeln, was darunter verstanden wird. Bevor man z. B. darüber diskutieren kann, ob die Produk tivität gesteigert werden soll oder nicht, sollte man sich zuallererst darüber einigen, was dieser Begriff überhaupt bedeutet. Das Ziel war, ein System darzustellen, das diese fünf Arten von Issues und ihre Beziehungen untereinander benutzt, und alle an der Planung Beteiligten dazu bringt, Issues beizutragen und sich in Form von Argumenten zu diesen Issues auszudrücken. Das ergibt ein Frage- und Antwortspiel, das für diese Art Planungsprozeß charakteristisch ist. Ein Beispiel dafür, wie ein IBIS eingesetzt werden kann, wird gerade ausgearbeitet: Ein Umwelt-Planungsinformationssystem für die Bundesregierung. Das Innenministerium ist der Geldgeber für die Einrichtung dieses Systems, und wir
STRUKTUR UND NÜTZLICHKEIT VON PLANUNGSINFORMATIONSSYSTEMEN 163
schlagen vor, wie es aufgebaut werden kann. Wir schlagen IBIS als zentrales Werkzeug für ein solches System vor. Standpunkte zu Umweltfragen sind niemals wissenschaftlich oder technisch. Sie sind sinnlos, wenn nicht deontische Fragen in das Planungssystem einbezogen sind. Umweltfragen sind politische Fragen und politische Fragen sind deontische Fragen. Daher schlagen wir solch ein IBIS-Sy stem in erster Linie dafür vor, um Umweltfragen aufzuwerfen. Denn die Erzeugung von Problemen ist auch ein Problem. Wer sagt, daß Quecksilber im Lachs ein Problem ist? Wer hat das Recht, solche Probleme aufzuwerfen? Daher ist in dem Umwelt-Planungsinformationssystem eine Art Subsystem notwendig, das die Erzeugung von Problemen unterstützt. Weitere Subsysteme müssen beispielsweise über die Prioritäten von Issues entscheiden, die Ressourcen dokumentieren, die zur Bewältigung von Umweltproblemen vorhanden sind (natürlich mit allen Pros und Kontras) und faktische Daten über den Erfolg von Maßnahmen erzeugen, wobei deontische Daten nötig sind, um « Erfolg » definieren zu können.
* Quelle: Bedriftsøkonomen, No. 8, October 1972, pp. 398–401. Der Text basiert auf einem Vortrag, gehalten auf dem « Systems Analysis Seminar » in Karlsruhe im Juni 1971, organisiert von der European Association of National Productivity Centres in Zusammenarbeit mit der Studiengruppe für System forschung in Heidelberg. ** Dieser Beitrag ist in dem vorliegenden Buch abgedruckt.
164 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Planungsinformationssysteme* mit Werner Kunz und Wolf D. Reuter
Ein Planungsinformationssystem (PLIS) sollte alle Eigenschaften aufweisen, die ein Planer von seinem Informationssystem erwartet. Bislang hat es kaum ein Informationssystem gegeben, dessen Entwurf tatsächlich das ganze Spektrum der Informationsbedürfnisse von Planern abdeckte; UMPLIS, ein Informationssystem zur Unterstützung der Umweltplanung, ist ein Prototyp für ein System, das die besonderen Informationsschwierigkeiten von Planern umfassend in Betracht ziehen soll. Worin diese Eigenarten bestehen, erklärt sich aus den besonderen Schwierigkeiten des Problemlösungs- und Informationsverhaltens bei der Planung. Sie sollen im folgenden skizziert werden, um die Unterschiede zwischen Planungsinformationssystemen und anderen Informationssystemen zu verdeutlichen. Die nachfolgende Liste ist weder vollständig, noch sind alle einzelnen Punkte logisch unabhängig voneinander. Es kommt indessen darauf an, die Eigenschaften der Planungsinformation von verschiedenen Seiten zu sehen, auch wenn sie sich bei näherem Betrachten als ähnlich oder teilweise überdeckend erweisen. 1. Der Planer braucht vier Arten von Wissen, nämlich fak tisches (F), deontisches (D), erklärendes (E) und instrumentelles (I) Wissen. Ein PLIS soll alle diese Informationsarten unterstützen. Faktisches Wissen beschreibt, was der Fall ist, war oder werden wird; deontisches Wissen bezieht sich auf das, was der Fall sein oder werden sollte; erklärendes Wissen erklärt, warum etwas der Fall ist oder werden wird; instrumentelles Wissen ermöglicht das, was der Fall ist, zu manipulieren (« Know-how »). Ein Planungsproblem ist eine Diskrepanz zwischen dem, was der Fall ist, und dem, was der Fall sein sollte (erfordert also faktisches Wissen und deontisches Wissen); um diese Diskrepanz aufzuheben, muß man sie erst einmal erklären, braucht also erklärendes Wissen; da Planung tatsächliche Veränderung herbeiführen will, ist Know-how (instrumentelles Wissen) erforderlich. Entweder « hat » der Planer dieses Wissen bereits, oder er bezieht es durch sein Informationssystem; er erhält es von anderen Personen, oder er sucht es in irgendwelchen Dokumenten, oder aber er « erzeugt » es durch Beobachtung, Messung und Erhebung. Der Zweck eines PLIS ist es, alle diese Informationsprozesse zu unterstützen. Hieraus folgt, daß ein nur Fakten (F-Wissen) und Erklärungen (E-Wissen) anbietendes Sy stem – wie etwa ein wissenschaftliches Dokumentationssystem oder Management-
PLANUNGSINFORMATIONSSYSTEME 165
Informationssystem – nicht den Ansprüchen an ein PLIS genügen kann. Es folgt weiterhin, daß ein PLIS nicht nur ein Dokumentationssystem sein sollte, obschon es ein solches als Teilsystem enthalten kann. 2. Planungsinformation läßt sich nicht sinnvoll nach einem starren System klassifizieren. Klassifikationssysteme sollen zusammengehöriges Wissen zusammenführen und zielstrebig aufzusuchen helfen. Planungsprobleme sind nicht nur keiner e inzelnen Fachdisziplin zuzurechnen (sie sind interdisziplinär), sondern notorisch antiklassi fikatorisch. Es lassen sich z. B. Umweltprobleme schon nicht einmal in die K lassen « Luft », « Wasser », « Müll », « Boden », « Lärm » usw. einordnen. Müllverbrennung verursacht Luftverschmutzung und beeinflußt die Grundwassersituation und die Boden qualität. Daß dies nicht nur theoretische Schwierigkeiten sind, zeigt sich in jeder Behörde, deren Referate nach einer solchen Klassifikation organisiert sind und die sich folglich ständigen Schwierigkeiten der Zuständigkeitsabgrenzung gegenübersieht, oder der – schlimmer noch – Planungsmaßnahmen unterlaufen, die sich infolge nicht realisierter Zusammenhänge kontraproduktiv auswirken. Viele UmweltPlanungsprobleme verdanken ihre Existenz gerade diesem Effekt. Die Konsequenz ist, daß Entwürfe für Klassifikationssysteme allen Umweltwissens nicht nur wenig nützlich sind, sondern auf irreführend sein können. Im besten Falle sind sie, wenn auch mit Schwierigkeiten, als Einordnungs- und Registraturhilfsmittel für Dokumente geeignet. Ein gutes PLIS sollte also ohne das sonst allbewährte Instrument der Klassifikation auskommen, um Probleme, Sachverhalte und Sollverhalte zu bestimmen und einzuordnen. 3. Planungswissen widersetzt sich der Erschließung durch standardisierte Thesauri. Eine Alternative zur Klassifikation ist die Beschreibung von Wissenselementen durch Deskriptorketten, die einem sogenannten Thesaurus entnommen werden, also einer für längere Zeit als verbindlich erklärten Wortliste. Planungsprobleme sind jedoch dadurch ausgezeichnet, daß über sie in einer Sprache geredet wird, welche sich rasch verändert. Um jedes Planungsproblem entwickelt sich ein besonderer Diskurs, der seine eigenen Begriffe und ein spezifisch angepaßtes Vokabular besitzt. Die Geschichte der Umweltplanung ist reich an Beispielen hierfür. So werden viele Begriffe wie « Umweltverträglichkeit », « Umweltmedien », « luftfremde Stoffe » in die Diskussion eingeführt; oder bereits bestehende Begriffe werden umweltrelevant, z. B. Ökologie, Frigen, Abwärme. Falls ein PLIS dennoch nicht auf die Kennzeichnung von W issenselementen durch Wortketten verzichten will, muß dafür Sorge getragen werden, daß die jeweils benutzte Wortliste ständig aufs laufende gebracht wird, und daß Begriffs
166 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
verfeinerungen und -verschiebungen sowie neue Begriffe ständig mit dem Bestand verknüpft werden – ein frustrierendes Unterfangen, da es natürlich dazu verurteilt ist, ständig hinter der tatsächlichen Sprachentwicklung zurückzubleiben. Jedenfalls läßt sich ein solcher « dynamischer Thesaurus » (was eigentlich eine contradictio in adjecto ist) nicht im voraus mit Gültigkeitsanspruch über längere Zeit erstellen. 4. Die meiste Information, welche in der Planung benötigt wird, ist noch nirgendwo dokumentiert. Die Erzeugung von Information ist eine besonders wichtige Teilfunktion eines PLIS. Das Wissen des Planers besteht zum Teil aus Allsätzen (« Rauchen begünstigt Lungenkarzinome »), zum Teil aus situationsspezifischen Sätzen (« Die CO-Konzentration betrug um … Uhr an Meßstelle … … ppm. »; « Das gegenwärtige Entsorgungssystem der Stadt … ist unzureichend und bedarf der Verbesserung »). Vor allem die letztgenannte Art der Information entstammt der jeweiligen Problemsituation und ist gewöhnlich noch nirgends dokumentiert. Ihre Aktivierung und Erzeugung ist ein gewichtiger Bestandteil des Planens, und ein PLIS sollte sie unterstützen. Dies bedeutet, daß in einem PLIS dem Information erzeugenden Teilsystem besondere Wichtigkeit zukommt. Es ist anzunehmen, daß 95 % der Information, die der Planer braucht, in keinem noch so perfektionistisch ausgestatteten PLIS dokumentiert vorhanden ist, sondern ad hoc aktiviert oder erzeugt werden muß. Diese – bis auf die Zahlenangabe – wohlgestützte Behauptung ist eine Absage an die Vorstellung, daß ein PLIS im wesentlichen eine Datenbank sein kann, d. h. eine gewöhnlich EDV-betriebene Sammlung von Objekt- und Situationsbeschreibungen « nach festem Schema », d. h. nach einem System von wohldefinierten Deskriptoren. Solch ein System mag ein nützlicher Teil eines PLIS sein, jedoch – wie behauptet – erstreckt sich der Bedarf nach solchen « harten Daten » auf ca. 5 % des Gesamtbedarfs (wobei die Zahlenangaben mehr symbolisch als präzise gemeint sind). 5. Planungsinformation ist notorisch kontrovers. In der Planung gibt es keine allgemein akzeptierten Prozeduren, um Behauptungen einem kritischen und verbindlichen Test zu unterwerfen, dessen Ergebnis alle Seiten anerkennen. « Ein Konzentrationsmaximum von … ppm. ist zumutbar » wird häufig gleichzeitig mit dem Gegenteil behauptet. Drastischer wird es mit deontischen Sätzen wie « Die Mineralölsteuer sollte erhöht werden ». Aber selbst faktisches Wissen ist oft kontrovers: Sätze der Form « Die Produktionsanlage … emittiert … Tonnen … pro Jahr in die Atmosphäre » werden je nach Interessenlage, Meßmethoden und dergleichen im konkreten Fall behauptet oder bestritten. Ein PLIS sollte so ausgelegt sein, daß es widersprüchliche Informationen aufnehmen und vermitteln kann.
PLANUNGSINFORMATIONSSYSTEME 167
Darüberhinaus sollte ein gutes PLIS sogar die Suche nach Widersprüchen und Einreden, Gegenargumenten und Zweifeln anregen und unterstützen. Denn viele Planungsfehler sind gerade die Folge von übersehenen Argumenten, die der Planer schon berücksichtigt hätte, wenn sie ihm nur gewärtig gewesen wären. Ein PLIS sollte dieses Feld der Standpunkte erschließen helfen, selbst wenn dies auf Kosten bequemer Problemlosigkeit und Einmütigkeit gehen sollte. 6. Planung ist argumentativ. Planungsprobleme sind « bösartig ».1 Ungleich wissenschaftlichen Problemen erlauben sie keine Trennung zwischen Problemstellung und Problemlösung. Die Planungsaufgabe besteht gerade darin, das Problem zu verstehen und im Felde der widersprüchlichen Problemverständnisse zu einem Entschluß zu kommen. Die Sorge der Planer ist es, wichtige Gesichtspunkte und Zusammenhänge zu vergessen, die sich erst später – meistens zu spät – als folgenschwer herausstellen. Planen besteht im Erwägen der Für und Wider erwogener Maßnahmen. Planung ist die Argumentation, welche zur Urteilsbildung führt. Ein PLIS soll demnach nicht nur diesen argumentativen Prozeß widerspiegeln und begleiten, sondern ihn auch anregen, indem es die jeweils kritischen Probleme aufzuspüren hilft sowie Zusammenhänge zwischen den auftretenden Problemen und den vorgebrachten Argumenten aufweist. 7. Planungsaufgaben sind politische Probleme. Obschon es eine beliebte Strategie ist, Probleme etwa der Umweltplanung als technische Fragen zu deklarieren, welche gemäß vorgegebenen politischen Richtlinien von einschlägigen Experten sachkundig gelöst werden können, zeigt ihre genauere Analyse das Gegenteil. Das, was « gesollt werden soll », wie die Für und Wider gegen einander abgewogen werden sollen, wie Kosten und Nutzen von Planungsmaßnahmen verteilt werden sollen, läßt sich nicht aus irgend jemandes Fachwissen ableiten. Es gibt keine Sachzwänge, aus denen sich deduzieren ließe, was getan werden sollte oder gar muß. Jede Entscheidung, z. B. über das zulässige Maß einer Umweltbelastung, die Eignung eines Standortes für umweltgefährdende Aktivitäten, eine Straßenführung oder einen Nahverkehrstarif, beruht auf gesellschaftspolitischen Urteilen, die bis in die letzten « technischen » Einzelheiten reichen. Es ist nicht möglich, eine strenge Arbeitsteilung zwischen der Aufstellung politischer Richt linien und deren fachmännischer Durchführung so zu organisieren, daß letztere lediglich auf neutrale, objektive und damit unpolitische Sachkenntnis b eschränkt bleiben könnte. Für den Entwurf eines PLIS hat dies zur Folge, daß die Aushandlung der politischen Zielsetzungen als zentraler Aspekt der Planung besonderes Gewicht haben sollte. In einem PLIS kommt es vor allem auf die Vermittlung, Erzeugung und Fortschreibung von Sollwissen (D-Wissen) an.
168 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Wenn oben gesagt wurde, daß Planungsprobleme interdisziplinär sind, muß man jetzt drastischer postulieren, daß sie « nicht-disziplinär » sind: Keine noch so umfassende Kombination von wissenschaftlicher und technologischer Expertise ist zureichend, um alles nützliche Wissen für ein Planungsproblem zu liefern. Denn das Sollwissen, das sicherlich den wesentlichsten und kritischsten Anteil der Planungsinformation ausmacht, ist nicht in der Expertise irgendeiner Disziplin, noch irgendeiner teamartigen Kombination davon enthalten. Es gibt keine Diszi plin dafür, was gesollt werden soll. 8. Ein PLIS kann nie alle Informationen schon gespeichert enthalten, die ein Planer braucht. Im Prinzip ist alles Wissen potentiell planungsrelevant. Selbst in einem scheinbar so speziellen Aufgabenfeld, wie in der Umweltplanung, gibt es keinen Bereich, der grundsätzlich als Informationsquelle ausgeschlossen werden könnte. Sogar die Archäologie hat nützliche Hinweise dafür geboten, daß der Gebrauch von bestimmten Glasuren und Metallen für Eßgeschirre in der Antike gesundheitsschädigende Wirkungen gehabt hat. Ein PLIS, welches nach dem enzyklopädischen Ideal aufgebaut werden soll, alle möglicherweise umweltrelevanten Dokumente und Daten zu speichern, müßte demnach ein Universal dokumentationssystem sein. Es gäbe keinen Grund, irgendein Datum oder Dokument als irrelevant auszuschließen. Ein Informationssystem jedoch, das alles speichern und liefern will, unter allen Gesichtspunkten, die sich im Verlaufe einer Planungsaufgabe ergeben, ist – abgesehen von seiner Aufwendigkeit – kein nütz liches Instrument, denn eine den Aufgaben angepaßte Selektion und Organisation ist ja gerade der Grund dafür, spezielle Informationssysteme zu entwerfen und einzurichten. Abgesehen davon, daß – wie oben postuliert – viel Information des Planers bislang überhaupt noch nirgends dokumentiert ist: Eine Universalbibliothek des Wissens wäre nichts weiter als eine Kollektion des in allen bisher vorhandenen Bibliotheken, Dokumentationen und Datenbanken vorhandenen Materials, ohne daß sich ein Organisationsprinzip abzeichnen würde, um diese Masse im Hinblick auf akute Planungsprobleme zu selektieren, ohne jedesmal eine totale sequen tielle und sachkundige Sichtung des ganzen Bestandes vornehmen zu müssen. Ein PLIS sollte nicht auf die Sammlung alles potentiell Relevanten ausgelegt werden, sondern – im Gegenteil – seine eigenen Bestände an Daten und Dokumenten zu minimieren versuchen. Es sollte im Prinzip keine Dokumente und Daten sammeln, die anderswo schon gesammelt und gespeichert wurden. Stattdessen sollte es Kooperationsformen und Vorgehensweisen anbieten, wie der Benutzer andere Informationssysteme finden und kontaktieren kann, die zu speziellen Planungsfragen Informationen beitragen könnten (referral-principle).
PLANUNGSINFORMATIONSSYSTEME 169
9. Ein PLIS soll offen für jegliches Informationsangebot sein. Das Wissen, welches die Planung ermöglicht, ist – wie die vorausgehenden Überlegungen zeigen – in nicht vorhersehbarer Weise verteilt, sofern es überhaupt schon für irgendjemanden existiert. Potentielle nützliche Informanten sind nicht nur Experten aus vielleicht entlegenen Fachgebieten, sondern sehr oft auch Laien und Praktiker ohne akademische Vorbildung. Eingabebeschränkungen verstärken beträchtlich das Risiko, wichtige Faktoren zu übersehen, die die Planer besser in Betracht gezogen hätten – was sie aber ungern erst post festum feststellen wollen. Das Bedürfnis der von einem Planungsprojekt Betroffenen nach Beteiligung an der Planung ist ein Indiz steigender Unzufriedenheit mit Expertenplanung; die Forderung nach Demokratisierung von Planungsprozessen begründet sich nicht zuletzt durch das epistemologische Argument von der a priori unbekannten Verteiltheit des in der Planung gebrauchten Wissens. Vor allem gilt dies für das Wissen darüber, wer in welcher Weise von einer ins Auge gefaßten Planungsmaßnahme betroffen werden wird. Hierfür gilt ganz besonders das Prinzip von der « Symmetrie der Ignoranz »: Keine Person A weiß – auf der Grundlage ihrer Expertise –, ob irgendeine andere Person B besser als A weiß, was gesollt werden soll. Und obschon A kein besonders guter Experte für die Folgen einer erwogenen Planungsmaßnahme für sein eigenes Wohlergehen sein mag, so gibt es doch niemand anderen, der es besser wissen könnte. Abermals zeigt sich: Besonders die Bestimmung des Soll wissens erfordert die Offenheit des PLIS. 10. Die Elemente der Planungsinformation sind Probleme. Wenn Planung ein Argumentationsprozeß ist (siehe 6.), stellt sie sich dar als ein Wechselspiel zwischen den an der Argumentation Beteiligten, die Probleme (faktische, deontische, instrumentelle und explanatorische) aufbringen, angesichts dieser Probleme Positionen entwickeln und für und wider diese Positionen Argu mente vorbringen. Im Verlaufe dieser Prozesse werden neue Probleme aufgebracht, sei es als Folgeprobleme, sei es als Detailfragen, die erst behandelt werden müssen, ehe eine Hauptfrage weiterverfolgt werden kann. Probleme können verallgemeinert oder auch spezifischer formuliert werden. Auf diese Weise entsteht ein Netzwerk, ein Relationsgefüge von Problemen und Argumenten. Die Entscheidungen bestehen in der Urteilsbildung angesichts des Feldes des Für und Wider. Die Entwicklung des Problemnetzes (der « Problemlandschaft ») und die Anreicherung des Feldes der Argumente von möglichst vielen Standpunkten her sind Hauptschwierig keiten und -aufgaben des Planers. Wenn ein PLIS die Planungsarbeit wirksam unterstützen soll, muß es diese Eigenarten des Problemlösungsverhaltens von Planern widerspiegeln. Es sollte also als organisatorische Einheiten Probleme verwenden und als Organisationsprinzip die Beziehungen zwischen den Problemen und die Zusammenhänge der
170 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
vorgebrachten Argumente benützen. Ein PLIS soll die Agenda der jeweils anhängigen Probleme dokumentieren und fortschreiben; es soll helfen, die Quellen zu aktivieren, welche Argumente zu den Problemen liefern können; es soll über den jeweiligen Stand der Argumentation informieren; es soll die jeweils nächsten Fragen stimulieren; es soll die Entscheidungsgeschichte durchsichtig dokumentieren und die Prüfung ihrer Konsistenz erleichtern.2 Die Beziehungen zwischen den Problemen treten neben die klassifikatorischen und anderen Ordnungsmittel, welche etwa in einem wissenschaftlichen Dokumentationssystem benutzt werden, um thematisch oder sachlich zusammengehörige Dokumente in organisatorische Nähe zueinander zu bringen. Ein Problem ist nicht zureichend durch sein Objekt charakterisiert; mindestens ebenso wichtig sind seine Beziehungen zu anderen Problemen. Ein PLIS soll um die jeweilige Problemlandschaft die – gewöhnlich kontroverse – Information aktivieren und erzeugen. Quellen sind dabei etwa die Literatur, aber vor allem das undokumentierte Wissen derer, die mit ähnlichen Problemen zu tun haben oder hatten, die jeweiligen Urteile der Betroffenen und Beteiligten, aber auch vorhandene oder noch zu erzeugende Daten aus Messungen und Beobachtungen sowie analytische Hilfsmittel wie formale Modelle, Planspiele und andere Simulationsmittel. 11. Jeder Benutzer eines PLIS ist eine potentielle Informa tionsquelle. Es gibt Planungsinformationssysteme, die für ein einzelnes Projekt, eine einzelne Planungsaufgabe entwickelt werden. Andere – wie UMPLIS – sollen einer ganzen Klasse von Planungsaufgaben dienen. Vor allem im zweiten Falle wird die herkömmliche Einteilung in die Quellen oder Lieferanten eines Informationssystems und seine Benutzer oder Konsumenten nicht nur schwierig, sondern auch unangebracht. Denn wer Information zu einem Planungsproblem beigetragen hat, ist wahrscheinlich mit ähnlichen oder verwandten Problemen befaßt. Es ist also nicht unwahrscheinlich, daß er sich seinerseits mit Fragen an das PLIS wendet, von dem er weiß, daß es Informationen zu Problemen sammelt und vermittelt, die den seinen verwandt sind. Zum anderen ist jede Person oder Institution, die sich an ein PLIS wendet, mit Problemen befaßt, die zu denen gehören, für welche das PLIS eingerichtet worden ist; sie ist also eine potentielle Quelle. In Systemen wie UMPLIS empfiehlt es sich demnach, die organisatorische Trennung zwischen Quellen und Benutzern aufzugeben und stattdessen von Partnern zu sprechen: Jeder wird ein Partner des PLIS, der mit ihm aktiv und/oder passiv in Verbindung steht.
PLANUNGSINFORMATIONSSYSTEME 171
12. Die Hauptaufgabe eines PLIS ist die Vermittlung von Kommunikation. Da Planungsinformation zum überwiegenden Teil nicht dokumentiert ist und erst ad hoc aktiviert bzw. erzeugt werden muß, besteht die Rolle eines PLIS vor allem in der Auffindung von Partnern, welche Gesichtspunkte und Argumente zu einem vorliegenden Problem beitragen könnten. Eine mögliche Strategie bestünde darin, daß das PLIS jeweils von den identifizierten Quellen die gewünschte Information einholte und an den Auftraggeber übermittelte. Häufig wird ein PLIS diesen Service erbringen müssen. Wirksamer ist indessen eine andere Strategie. Bekanntlich gewinnt Infor mation durch zwischengeschaltete Übermittlung nicht an Verläßlichkeit und Relevanz. Zudem ist die übermittelte Frage nicht immer so eindeutig und begriffsklar, daß ihr Empfänger ohne Rückfrage die passende Antwort geben könnte. Wahrscheinlicher ist, daß die übermittelte Antwort beim Empfänger das Bedürfnis nach Klärung und Ergänzung weckt. Deshalb ist es wünschenswert, den Kontakt zwischen den vermittelten Partnern, möglichst direkt und ohne Zwischenträger herzustellen. Das PLIS hat seinen Zweck erfüllt, wenn es direkte Kommunikation zwischen Personen und Institutionen mit verwandten Problemen initiiert hat. Es sollte sich als Katalysator für solche Beziehungen sehen und nicht erstrangig als deren Verwaltung oder als zwischengeschalteter Übermittler, selbst wenn dies auf Kosten der direkt, also anhand der Transaktionshäufigkeit gemessenen Erfolgsstatistik gehen sollte: Einmal geknüpfte Kommunikationsketten benötigen nicht mehr die « Schaltfunktion » des PLIS, und die Rückmeldung über den gestifteten Kommunikationserfolg an das PLIS bleibt mit hoher Wahrscheinlichkeit aus. Dieser Gesichtspunkt sollte bei der Bewertung der Leistung eines PLIS berücksichtigt werden. 13. Ein PLIS soll ein Referenzsystem sein. Die vorangehenden Ausführungen zeigen, daß es ein hoffnungsloses Unterfangen ist, ein PLIS auf das Ideal eines informationsversorgenden Systems ausrichten zu wollen, das alle erforderlichen Daten und Dokumente sammelt und bereitstellt, und das die nicht vorhandene Information im Bedarfsfalle von außen besorgt. Vielmehr sollte es ein Informationssystem 2. Ordnung sein, dessen häufigste Aufgabe es ist, ad hoc-Information zu vermitteln. Es liefert also meistens nicht direkte Antworten auf erhaltene Fragen, sondern Hinweise auf Personen und Institutionen, die zur Antwort beitragen könnten oder die andere Personen oder Institutionen kennen könnten, die eine Antwort beitragen könnten usw. Deshalb ist ein wesentlicher Bestandteil eines PLIS seine « Partnerdatei », in der die identifizierten, tatsächlichen oder potentiellen Partner unter verschiedenen Gesichtspunkten verzeichnet sind. Die Hauptschwierigkeit einer solchen Datei besteht darin
172 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
zu beschreiben, « was jemand weiß » – sei es « positives » Wissen, die Erfahrung mit Mißerfolgen oder die Vertrautheit mit bestimmten Problemen. Das Hilfsmittel für diese Funktion ist eine Art Branchenbuch (« Yellow Pages »). Es ist allerdings mit der Schwierigkeit behaftet, daß sich die « Branchen » nicht einfach g egeneinander abgrenzen lassen. In welche Rubrik gehören z. B. ein Physiker, der sich auf die Radioaktivität der Atmosphäre und ihren Einfluß auf die Leitfähigkeit von Ober flächen versteht, oder ein Verwaltungsbeamter, der sich um die Definition des Verursacherprinzips im Hinblick auf Papiermühlen bemüht, oder ein Bürgermeister, der sich einer Frage der Ansiedlung einer Fabrik in seiner Gemeinde gegenübersieht, wobei gleichzeitig Probleme des Landschaftsschutzes, des Gewerbesteueraufkommens und der Energieversorgung akut werden? Als Organisationsprinzipien bieten sich die von den jeweiligen Partnern behandelten Probleme und das Netzwerk ihrer Beziehungen an. 14. Ein PLIS soll mit seiner Benutzung wachsen. Angesichts der geschilderten Eigenarten der Planungsinformation ist es müßig, zu versuchen, ein PLIS zu « füllen », bevor es benutzt werden kann. Vielmehr kommt es beim Entwurf eines PLIS darauf an, die Struktur des Systems und seine Betriebs regeln festzulegen und die inhaltliche Füllung im Verlaufe der Benutzung des Sy stems vorzunehmen. Es hat wenig Sinn, einen Stichtag in der Zukunft festzusetzen, bis zu dem das System hinreichend mit aufbereiteten Dokumenten und Daten ausgestattet werden soll und an dem das System für die Benutzung freigegeben wird. Vorzuziehen ist eine Strategie, wonach die ersten Anfragen an das « leere » System Aktivitäten auslösen, welche nicht nur diese Anfragen (wenn auch schlecht und recht) befriedigen, sondern auch die inhaltliche Anreicherung des Systems in die Wege leiten. Nur auf diese Weise kann sichergestellt werden, daß sich das System an die Interessen seiner Partner ständig anpaßt und daß kein Ballast an Daten und Dokumentation im Hinblick auf ein für ein PLIS unangebrachtes Vollständigkeits ideal angehäuft wird und verwaltet werden muß.3 Allerdings erfordert dieses Vorgehen geduldige und verständnisvolle Partner, vor allem in seinen Anfängen. Eine andere besonders wichtige Voraussetzung ist, daß die Betreiber des Systems sachkundig sind, mit einem Gespür für anderer Leute Probleme und für potentielle Ressourcen bzw. Ressourcen, die andere Probleme oder Ressourcen kennen usw. Wenn die oben postulierte Behauptung zutrifft, daß in allen Planungsfragen die überwältigende Mehrheit des Informationsbedarfs ohnehin nicht aus bereits gespeicherten Dokumenten und Daten bezogen werden kann, erfordert der Betrieb eines PLIS ständig einen Service, den man als Information Scouting bezeichnen kann: Die Betreiber des Systems brauchen eine Qualifikation, in der Spürsinn mit Assoziationstalent verbunden ist, und die sie befähigt, sich im vorhandenen Kommunikationsnetzwerk zu orientieren und neue Kommunikationswege zu finden. In dieser Situation sind Dateien und Dokumen-
PLANUNGSINFORMATIONSSYSTEME 173
tationen nur Hilfsmittel und nicht der Zweck eines PLIS, auf den sich seine Betreiber konzentrieren sollten – in der Hoffnung, daß zukünftige Benutzer schon das von ihnen Gesuchte in diesen Einrichtungen finden würden. Dateien und Dokumentationen sind notwendig und nützlich – so wie auch eine unvollständige Landkarte für die Orientierung nützlich sein kann. 15. Der Gegenstandsbereich eines PLIS befindet sich in ständiger Fluktuation. Ein PLIS wird gewöhnlich um ein Syndrom von Planungsproblemen eingerichtet, das sich im Verlaufe seiner Behandlung begrifflich und in seinen Demarkationslinien verändert. « Umwelt » ist ein besonders gutes Beispiel dafür. Was ursprünglich Sorge um die Natur war, deren Veränderung durch die industrielle Zivilisation zum Gegenstand sozialkritischen Protests wurde, veränderte sich in den späten 60er Jahren zu einem Problembereich, der zunächst die Verknappung und Verseuchung von Ressourcen wie Luft, Wasser und Boden umfaßte, die bislang als unerschöpflich gegolten hatten. Inzwischen ist die Umweltproblematik mit der Energieversorgung und der des wirtschaftlichen Wachstums verflochten worden. Die nächste Verwandlung des Problembereiches « Umwelt » zeichnet sich ab: Die Umwelt der Verbrauchsgüter ist bereits mit der Umweltpolitik in Zusammenhang gebracht, und es dürfte nicht mehr lange dauern, bis auch die soziale und kulturelle Umwelt in der Tagespolitik mit den herkömmlichen Umweltfragen in Beziehung gesetzt wird – auch wenn vielleicht diese Entwicklung nicht mehr unter dem Schlagwort « Umwelt » stattfinden wird. Wenn ein PLIS nützlich bleiben soll, muß seine Struktur die Anpassung an den sich ändernden Gegenstandsbereich erlauben; es sollte auch den Diskurs anregen und unterstützen, welcher diesen Wandel des Problemverständnisses bewirkt und begleitet. 16. Ein PLIS soll nicht nur angebotene Probleme bearbeiten, sondern auch die Vorwegnahme und Früherkennung von Problemen unterstützen. Es soll seine Partner nicht nur auf Anforderung informieren helfen, sondern auch aktiv und gezielt auf die Entwicklung der Problemlandschaft hinweisen. Die Partner eines PLIS stehen keineswegs immer in antagonistischer Konkurrenz miteinander, vielmehr haben viele von ihnen die Schwierigkeit, nicht zu wissen, was andere tun, oder es kann vorkommen, daß sie etwas tun, was andere schon getan haben, oder daß sie Fehler wiederholen, die andere schon begangen haben, oder daß sie gar aus Unwissenheit Maßnahmen ergreifen, die den Maßnahmen anderer entgegenwirken, obwohl dies keineswegs die Absicht ist. Es ist die Aufgabe eines PLIS, die Wahrscheinlichkeit derartiger Vorkommnisse herabzusetzen. Ein
174 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
PLIS sollte von sich aus auch (sofern von seinen jeweiligen Partnern gewünscht) die mit ähnlichen Problemen befaßten Partner über die Entwicklungen orientieren, welche für ihr Problemverständnis relevant sein könnten.
1 2
3
Siehe Rittel, H.; Webber, M.; Dilemmas of a General Theory of Planning. (dt.: Dilemmas in einer allgemeinen Theorie der Planung)** In: Policy Science 4 (1973) S. 155–169. Ein System, welches diese Organisation aufweist, ist IBIS («Issue-Based Information System»). Es benutzt Probleme (issues) als dokumentarische Einheiten und ihre Verknüpfungsnetze als Ordnungs struktur. Vgl. Kunz, W.; Rittel, H.; Issues as Elements of Information Systems, (dt.: Issues als Elemente von Informationssystemen)** – Berkeley, CA: Center for Planning and Development Research of the Institute of Urban & Regional Development, University of California, CA, 1970. Vgl. Swanson, E. B.; A Methodology für IBIS Date Gathering and Development. – Heidelberg: Studiengruppe für Systemforschung e. V. 1974 (Arbeitspapier, unveröffentlicht).
* Quelle: Kunz, Werner; Reuter, Wolf; Rittel, Horst W. L; UMPLIS; Entwicklung eines Umwelt-Planungs- Informationssystems; Fallstudie. Band 8 der Reihe Informationssysteme; Grundlagen und Praxis der Informationswissenschaften, herausgegeben von Werner Kunz, Karl-Heinrich Meyer-Uhlenried und Horst W. J. Rittel. K. G. Säur, München 1980, S. 25–40. Dieser Text ist ein Auszug (Kapitel 2) aus dem o. g. Buch. Er wurde ausgewählt, da er in ü bersichtlicher Form die wichtigen Charakteristiken von Planungsinformationssystemen enthält, wie sie Rittel im Unterschied zu allen anderen Arten von Informationssystemen postuliert. Er hat sie im Rahmen s einer Veröffentlichung über UMPLIS (UMwelt-PLanungs-Informations-System) formuliert, welches, 1971 konzipiert, seit 1972 im Auftrag des Innenministers der Bundesrepublik Deutschland durch die Studiengruppe für Systemforschung, Heidelberg, entwickelt wurde. Daraus erklärt sich der häufige Bezug auf Umweltprobleme. ** Diese Beiträge sind in dem vorliegenden Buch abgedruckt.
PLANUNGSINFORMATIONSSYSTEME 175
Woher weiSS man, wer was weiSS: Zur Entwicklung von Kommunikationskrücken mit Werner Kunz (How to Know what is Known: Designing Crutches for Communication*)
Abstract: Information ist Änderung von jemandes Wissen. Die Probleme der Informations wissenschaft handeln von der Übermittlung von Wissen zwischen jenen, die es brauchen, und jenen, die es vielleicht besitzen, und vice versa. Informationssysteme sind Einrichtungen, um Kommunikation herzustellen. Entscheidende Probleme sind dabei die adäquate Repräsentation von Wissen und das « Erzeugen » geeigneter Kommunika tionsnetze. Einige Forschungs- und Entwurfsstrategien werden aufgezeigt.
Warum wissen? Manche wollen etwas wissen, was sie nicht wissen. Warum? Es gibt mehrere Gründe. Einer ist reine Neugier – in dem unbewußten Verdacht gegründet, daß die unbekannte Tatsache für manche zukünftige Situation, der man begegnen könnte, irgendwie nützlich sein könnte. Oder: Das fehlende Wissens-Partikel könnte helfen, einen Widerspruch im eigenen Weltbild zu beseitigen (und dadurch zum Seelen frieden beitragen) oder einen dunklen Fleck im Weltbild aufzuhellen (und dadurch wieder jemandes Seele besänftigen). Oder: Sie haben es einfach gern, neues Wissen zu erwerben, ohne die Absicht, es gleich für praktische Zwecke zu nutzen (reine, unterhaltsame Neugier). Andere wollen etwas wissen, weil sie ein Problem haben: Sie wissen nicht, was sie als nächstes tun sollen. Und – was immer sie als nächstes tun – es sollte basieren auf irgendeinem Wissen über den Zustand der Welt, über die Welt, wie sie sein sollte, darüber, wie die Welt funktioniert, und über Wege, die Welt (oder wenigstens einige ihrer Teile) zu verändern. Jene Prozesse, die zu dieser Änderung von jemandes Wissen führen, werden Information genannt. Information ist ein Ereignis, welches Wissensänderung zum Ergebnis hat. Sie ist nicht etwas, das in Papierdokumenten, in RAM-Datenblöcken oder ähnlichem « gespeichert » ist – obwohl Tintenkleckse auf Papier oder Löcher in einer Lochkarte oder phosphorisierende Muster auf einer Vakuumröhre – gelegentlich – Information auslösen können. Woher und wie erhält man diese Information?
176 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Es gibt mehrere Arten zu versuchen, sich erwünschtes Wissen anzueignen: • weiteres Nachdenken und Überlegen kann zu der gewünschten Sicherheit führen; • Sammeln unmittelbarer Beweise durch Augenschein (Beobachtung, Messung, Experiment); • jemanden fragen, von dem man annimmt, daß er etwas weiß; • jemanden fragen, ob er/sie jemanden kennt, der etwas wissen könnte; • eine Antwort finden, indem man « dokumentiertes Wissen » durchsieht, durchsucht, nachschlägt – in Bibliotheken oder in computerbasierten Datenbanken; • er/sie wagt vielleicht – mehr oder weniger « gebildet » – zu raten. Welcher dieser Kanäle in einer bestimmten Situation am geeignetsten ist, ist eine äußerst schwierige Frage und selbst ein wichtiges Informationsproblem. Nicht selten wird jemand informiert, der gar nicht danach gefragt hat (… Überraschung, irritierende Feststellungen, Verwirrung …). Die Informationswissenschaft ist dazu da, den Informationssuchenden zu helfen. Um anderen zu helfen, ihnen beizustehen, muß man wissen (und dies ist ein weiteres Wissens-/Informationsproblem), was die « Hilfesuchenden » wissen müssen. Wissen die Hilfesuchenden, was sie wissen müssen? Wenn nicht, wer dann? Der Helfende! Vielleicht nicht – wenn er/sie ehrlich ist. Wenn nicht, wie kann der helfende Informationswissenschaftler und Informationssystementwickler es herausfinden? Ein Informationssystem für jemanden (üblicherweise sogar: für eine große Anzahl unbekannter, potentieller Informationssuchender) zu entwerfen, erfordert Information über die Probleme jener zukünftigen (anonymen) « Benutzer ». Diese Aufgabe bedeutet nicht mehr und nicht weniger, als « sich den Kopf für zukünftige, unbekannte Benutzer mit unbekannten Problemen zu zerbrechen ». Eine schwierige Aufgabe. Wenn die Informationswissenschaft oder -technik diese Aufgabe nicht erkennt, wird sie ihren selbsterteilten Auftrag verfehlen. Diese Aufgabe stellt uns vor eine Reihe beträchtlicher epistemologischer und logischer Probleme – im Vergleich dazu sind Überlegungen zu Hardware und Software nahezu unbedeutend. Der Engpaß ist nicht so sehr die Größe und Geschwindigkeit von Computern oder die Effizienz von Programmen, sondern das Verständnis von Wissen und Denkweise. Es ist nicht ein Problem der Software-Technik, sondern der Informationstechnik – « infware » vor « Software ».
ZUR ENTWICKLUNG VON K OMMUNIKATIONSKRÜCKEN 177
Die Hauptfragen, mit denen wir zu tun haben, sind: • Was ist Wissen? Welche Arten von Wissen sollten unterschieden werden? Was ist ihr logischer Platz in den DenkProzessen, bei den verschiedenen Arten von Problemen? • Wie wird Wissen vermittelt, « externalisiert », um es über die Zeit zu bewahren oder einer anderen Person zu übermitteln? Kommunikation ist nichts anderes als der Versuch von jemandem, den Wissensstand eines Anderen zu beeinflussen, d. h. « Information auszulösen ». • Wie wird Wissen in geeigneter Weise codiert, um eine richtige Decodierung sicherzustellen? • Was sind die Schwächen natürlicher Intelligenz? Wo – wenn überhaupt – kann sie unterstützt werden und wie? • Wie kann man eine potentielle Wissensquelle erkennen? Wie kann man den « Inhalt » eines Gehirns, einer Bücherei, eines Buches beschreiben? Woher weiß man, wer was weiß? Wo, wenn überhaupt, kann man dieses Wissen finden? • Von welchen Vorgängen des Denkens kann ein Modell gebildet werden, so daß sie an einen externen algorithmischen Mechanismus « delegiert » werden können? Der theoretische Kern der Informationswissenschaft besteht weitgehend aus dem Wissen, das diese Fragen beantwortet. Was immer praktisch erreicht werden kann, ist durch den Stand ihrer Behandlung begrenzt. Auch wenn sie noch so bescheiden sein mögen, es gibt doch einige Werkzeuge und Methoden, um Problemlösungsverhalten zu analysieren und zu beschreiben.1 Die epistemologische Position der Informationswissenschaften wird durch eine weitere Tatsache weiter kompliziert: Informationswissenschaft selbst ist ein Informationsprozeß; daher wird sie zum Bestandteil jener Prozesse, die sie studieren, unterstützen, entwickeln soll. Die klassische Trennung zwischen Forscher und Objekt läßt sich nicht aufrechthalten. Die Konsequenz ist der Verlust jener Neutralität und Immunität, die der « normale » Wissenschaftler oder Technologe so hoch schätzt. Der Informationswissenschaftler wird damit nur zu einem weiteren Mitwirkenden in einem Feld zahlreicher, oft kontroverser Interessen. Er ist eine Partei auf diesem Feld, die wissen will, « um zu … » – mit der Intention, damit Änderungen zu bewirken, die andere beeinflussen, welche ihrerseits natürlich auf dieses Bestreben reagieren: Wissen ist Macht.2 Diese Situation hat methodologische Implikationen. Sie erfordert eine geradezu symmetrische Beziehung zwischen Helfer und Hilfesuchendem. Sie werden Verbündete – möglicher- und normalerweise gegen andere. Die ethischen Implikationen sind offensichtlich.
178 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Das Handwerkszeug der Informationswissenschaftler besteht weitgehend aus Kommunikationshilfen – häufig als « Systemforschung », « Nutzeranalyse », Folgen-Abschätzungs-Methoden, Organisationsmittel usw. bezeichnet – und das ist genau das, was sie ihren Kunden verkaufen wollen.
NI versus KI Eine Brille soll die Sehfähigkeit verbessern. Ein Auto erhöht die Mobilität. Die Brille sieht nicht an unserer Stelle oder für uns. Und das Auto befreit uns auch nicht vom Reisen. Sie sind « prothetische » Werkzeuge, die irgendeine Fähigkeit oder Aktivität unterstützen, stärken, erhöhen. Genauso sind Informationssysteme prothetische Hilfen – Werkzeuge, um die Aktivitäten des « unbewaffneten Geistes » zu unterstützen. Mit anderen Worten, sie sind nichts als Krücken für die Intelligenz. Sie sind keine Substitute für natürliche Intelligenz (NI), sondern Verstärker. Viele der Aktivitäten unter dem Namen Künstliche Intelligenz (KI) sind von einem anderen Ehrgeiz motiviert. Sie zielen darauf ab, intelligentes Verhalten nachzuahmen, ihr Ideal ist es, eine Maschine zu entwerfen, die die Fähigkeiten von NI sogar noch übertrifft (wie ein Schachspieler, der den Weltmeister schlägt). Erfindungen dieser Art sind Substitute und nicht Prothesen. Gelegentlich kann man Aussagen hören oder lesen wie « eines Tages wird der Computer imstande sein, seine eigenen Probleme zu finden », oder « wenn wir erst einmal die Arbeitsweise des Gehirns verstanden haben, werden wir imstande sein, ein besseres zu entwerfen ». Mit anderen Worten: Das ist der Ehrgeiz, den Golem zu konstruieren, den synthetischen Homunculus, Zeichen für den blasphemischen Wunsch, « die Schöpfung zu übertreffen ». So manches Projekt zum Entwurf sogenannter Expertensysteme « heuristischer Problemlösungsverfahren » läßt auf diese Einstellung schließen. Natürlich: Ein wirklicher Homunculus sollte imstande sein, ein Urteil zu fällen, zu urteilen wie ein Mensch (oder anstatt seiner) – vielleicht wie die richtige, objektive, neutrale Person. Leider – oder glücklicherweise – scheint das eine reale und grundlegende Grenze dafür zu sein, was jemals an einen Computer oder irgendein anderes « algorithmisches System » delegiert werden kann. Was gut, wünschenswert, relevant und wichtig ist, entzieht sich – grundsätzlich – jedem Versuch, einen objektiven und definitiven Algorithmus zu finden, der jene Prozesse nachahmt, die menschliche Urteile hervorbringen. Eine kleine Überlegung deckt den Grund auf: Der Versuch, ein Urteil zu « fundieren », durch Überlegung zu einem Urteil zu gelangen, beruht letztlich und notwendigerweise auf « Spontanurteilen », d. h. Urteilen, die « aus dem Ärmel geschüttelt werden », und daher nicht (durch Überlegung) gerechtfertigt oder rechtfertigbar sind und sich daher einer Algorithmisierung widersetzen (die wiederum eine Voraussetzung zur computergerechten
ZUR ENTWICKLUNG VON K OMMUNIKATIONSKRÜCKEN 179
Aufbereitung ist). Um einen menschlichen Problemloser zu simulieren, müßte ein Programm die Gesamtheit seiner Erfahrungen, seines Wissens, seiner Absichten berücksichtigen, da es sie nachahmen soll. Hinzu kommt eine zusätzliche epistemologische Schwierigkeit: Der Versuch, den persönlichen Wissensstand von jemandem zu erforschen, beeinflußt das persönliche Wissen dieser Person. Daher wird alles, was nachgeahmt werden soll, bereits durch den Versuch, es nachzuahmen, verändert. Die Zahl grundsätzlicher Hindernisse gegen das Golem-Ideal kann noch w eiter ausgedehnt werden – insbesondere, da die Verfolgung dieses Ideals von Teufels kreisen und unendlichen Regressen begleitet ist. Computer sind zu algorithmischen Prozeduren verurteilt und an sie gebunden – auch wenn diese « heuristisch » genannt werden. Bei genauer Betrachtung: Wer will oder braucht einen Golem – zur automa tischen Indexierung oder Übersetzung, oder um die optimale Lösung für ein prak tisches Problem zu finden, oder zur Identifikation relevanter Probleme? Vielversprechender, freundlicher und realistischer als dieses Ideal von KI scheint ein weniger zweischneidiges Programm zu sein. Anstatt menschliche Intelligenz, Urteile und Emotionen zu ersetzen, sollten wir lieber versuchen, NI zu verbessern, zu verstärken, zu steuern. Es scheint sich zu lohnen, etwas zu tun, damit NI weniger wahrscheinlich ihren « natürlichen » Schwächen zum Opfer fällt, wie z. B. der Tendenz, nicht wahrzunehmen, was mit den eigenen Lieblingsideen und Vorurteilen in Widerspruch steht, unangenehme Neuigkeiten abzulehnen, die Suche nach langfristigen Folgen zu vernachlässigen, wenn der kurzfristige Gewinn Vorteile verspricht, usw., usw. Unglücklicherweise stellen einige Krücken – und das sind gewöhnlich die guten und bequemen – für ihre Benutzer eine gefährliche Versuchung dar. Da es Spaß macht, sie zu benutzen, oder weil sie für eine begrenzte Menge von Zielen sehr leicht einzusetzen sind, oder weil ausgetretene Denkpfade die leichte sten, bequemsten und damit « wirtschaftlichsten » Wege sind, um irgendwohin zu gelangen, ist der Benutzer oder Anwender der Krücke versucht, die Krücke ihren eigenen Weg gehen zu lassen, ihren gewohnten, leichtesten Pfad. Je anpassungsfähiger und größer die « Lernfähigkeit » der Krücke ist, desto größer ist der Aufwand, das hilfreiche Werkzeug « umzuschulen » und daher auch die Neigung, mit dem zufrieden zu sein, was die Krücke bereits leicht kann – anstatt mit der Krücke zu ringen, damit sie hilft, das zu erreichen, was man will. In diesen Fällen sind die Krücken zu einem Automaten geworden. Oft bemerken die Besitzer diese Veränderung nicht einmal, oder – wenn sie sie wenigstens unbewußt bemerken – leugnen sie vehement, daß diese Entwicklung sonderbar, störend oder folgenreich sei. Im Gegenteil: Es gibt viele triumphierende Behauptungen über den Erfolg von KI, z. B. für die Substituierung von NI durch eine synthetische Maschine. Und wenn einige schüchterne Einwendungen gemacht werden, ob die neue Technologie nicht vielleicht zu einer zu starken Vereinfachung der zu behandelnden Probleme füh-
180 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
ren könnte oder auch zur Behandlung unangemessener Probleme (weil sie eben so leicht zu behandeln sind!): Wenn die Probleme nicht auf die Methode passen – umso schlimmer für die Probleme! Die neuere Geschichte der Informationswissenschaften ist reich an Beispielen für diesen Effekt. Informationssysteme, die als dein freundlicher Intelligenzersatz benutzt werden, gibt es in Hülle und Fülle.
Verstärkung der NI durch Informationssysteme Was sind die typischen Eigenschaften eines Werkzeuges, das geeignet ist, NI zu verstärken und zu erweitern? Wenn wir über ein « Werkzeug » oder ein « System » sprechen, meinen wir nicht ein Stück Hardware. Es muß nicht einmal viel oder überhaupt irgendeine Hardware enthalten. Jedoch immer sind es Konstrukte von Regeln und Prozeduren, die dem gewünschten Zweck dienen sollen. Sie können auch Hardware beinhalten, wie z. B. Bücher, Telefone, Briefkästen, Computer. Zusätzlich gibt es vielleicht menschliche Operateure, die das System « bemannen » (Telefonisten, Dokumentare, Postboten, Programmierer, Kontrolleure, Reparaturarbeiter, die mit ihren eigenen Informationsproblemen konfrontiert sind). Der Zweck eines Informationssystems (IS) ist es, die Information einer Person zu verstärken, d. h., ihren Wissensstand zu verändern • durch die Bestätigung dessen, was der Betreffende schon weiß, ihn dadurch sicherer machend, • durch Erweitern seines Wissens, • durch Schwächung seines Wissens, ihn dadurch verunsichernd, • durch Löschen einzelner Teile seines Wissens, dadurch seine Unwissenheit vergrößernd. Die meisten heutzutage entworfenen Informationssysteme gehören zum ersten und/oder zweiten Typ. Sie sind Konfirmationssysteme. Sie sind sehr beliebt und bekannt, weil sie das Ego ihrer Benutzer und Entwerfer bestärken. Manche Informationswissenschaftler würden sogar soweit gehen, zu fordern, daß alle Informationssysteme so beschaffen sein sollten, daß sie Unsicherheit verringern. Nichtsdestoweniger ist die Nützlichkeit von Konfirmationssystemen in Hinblick auf die Verstärkung von NI eher begrenzt. Informationssysteme, die – wenigstens gelegentlich – Überraschungen hervorrufen, Verwirrung stiften, Wissen durcheinanderschütteln, mitteilen, was man nicht erwartet oder sogar nicht wissen will, können ausgesprochen nützliche NI-Verstärker sein.
ZUR ENTWICKLUNG VON K OMMUNIKATIONSKRÜCKEN 181
Zweifel ist die Mutter (der Vater?) der Erfindung. Und geringere Sicherheit führt zu weniger sorglosem Planen und Handeln. Etwas zu sehen, was man sonst nicht sehen würde, hilft, Konsequenzen erwogener Handlungen in Betracht zu ziehen, die man andernfalls nicht berücksichtigt hätte. Wenn man auf einen Fehler in seiner Lieblingsidee aufmerksam gemacht wird, wird der Enthusiasmus geringer und motiviert vielleicht zur Suche nach anderen Ideen. Über Unwissenheit informiert zu werden, ist eine Voraussetzung zur Anregung der Suche nach neuem Wissen. Nur die Konfrontation mit gegensätzlichen Ansichten führt zu fruchtbarer neuer Überlegung. In diesem Zusammenhang spielt es keine Rolle, wo die Information herstammt. Sie kann das Ergebnis unmittelbarer Kommunikation zwischen Personen sein. Sie kann auch mittelbare und aufgeschobene Kommunikation über ein Dokument sein. Und, am allerwichtigsten, sie kann auch Kommunikation einer Person mit sich selbst sein: Die Konfrontation mit den eigenen Ideen von gestern, das Bewußtwerden von Inkonsistenzen, Widersprüchen und Trugschlüssen, die Erinnerung an das, was man sonst vergessen hätte, die Erkenntnis dessen, was man nicht weiß (aber wissen sollte): Das Informationssystem als ein (etwas verfremdeter) « Spiegel » des eigenen Verständnisses.3 In vielen Fällen ist es überhaupt nicht klar und eindeutig, wer der Nutzer und wer der Anbieter des Systems ist. Häufig (und dies sind die interessanten Fälle) gibt es keine klare Trennungslinie zwischen Gebern und Empfängern. Wer immer etwas « durch » das System erfahren will, wird nicht selten ein potentieller zukünftiger Informant. Offensichtlich brauchen die NI-Verstärker etwas, was sie verstärken. Auch der leistungsfähigste Verstärker wird aus einer Null-Einspeisung keinen meßbaren Strom erzeugen können. Und NI-Verstärker können Dummheit nicht in Weisheit verkehren. Idealerweise resultiert eine dauerhafte Steigerung von NI aus intelligenter Nutzung intelligenter NI-Verstärker.
Einige Entwurfsprinzipien Diese Überlegungen zeigen, daß die « Übertragung von Wissen » nicht ein simpler Transportvorgang von Daten ist. Daher kann ein Informationssystem, das als NIVerstärker dienen soll, nicht ausreichend beschrieben und entworfen werden wie ein « klassisches » Datenverarbeitungssystem (wie z. B. ein Polizeiarchiv, ein bibliographisches Dokumentationssystem oder ein computergestütztes Simulations modell). Es ist eher ein Kommunikationshilfsmittel, das einer Anzahl von Entwurfs prinzipien unterworfen ist.
182 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
P 1: Wenn immer möglich, sollte das System eine direkte Kommunikation zwischen Personen herstellen. In dieser Rolle wird das System zu einem Referenz-Werkzeug. Es sollte Netze von Kommunikationsverbindungen zwischen Benutzern erzeugen, die ähnliche Probleme haben. P 2: Anstatt zu versuchen, Nutzer und Quellen in klar getrennte begriffliche Kategorien zu unterteilen, sollten Abläufe der Art « wer kennt jemanden, der vielleicht jemanden kennt, der … » angewendet werden. P 3: Man sollte nicht versuchen, sämtliches Wissen, das einmal nützlich sein könnte, im voraus zu « speichern ». Jedweder Inhalt des Systems sollte mit seiner Nutzung wachsen. P 4: Was auch immer durch nicht-menschliche Komponenten eines solchen Systems « gespeichert » und verarbeitet wird, sind Daten, nicht Wissen oder Information. P 5: Wann immer Kommunikation durch dieses System vermittelt wird, ist ein Code (eine « Repräsentation ») nötig, der erlaubt, Daten zu formulieren, die das entsprechende Wissen in einem Empfänger « auslösen », und zwar mit angemessener Klarheit und Präzision. P 6: Welche Daten auch immer in einem System « enthalten » sind, sie sollten nicht in eine rigide hierarchische Klassifikation gepreßt werden. Stattdessen sollten sie durch Netzwerke von Beziehungen verbunden sein, die den verschiedenen Typen von Ähnlichkeitsrelationen entsprechen, die assoziative Prozesse steuern. Im Idealfall erzeugt das System « externalisierte Erweiterungen des Assoziationsrepertoirs des Benutzers ».4 P 7: Das System sollte ein Logbuch seiner Benutzung führen. Insbesondere sollte es die Probleme aufzeichnen, in deren Zusammenhang es benutzt wurde. Die Suche nach vorangegangenen ähnlichen Problemen und Antworten kann zu Hinweisen für den Umgang mit einem aktuellen Problem führen. P 8: Das System kann nicht besser sein als das Wissen seines Konstrukteurs über die Struktur und Dynamik des Wissens, mit dem umgegangen werden soll. Hier liegt die zentrale Aufgabe der Informationswissenschaft: Methoden zu ent wickeln, um das Wissen und die Denkweisen ihrer Nutzer zu erforschen d. h. die Sy stemanalyse der Logik des Problemlösens und der Information! Dies sind Voraussetzungen für eine « Theorie geistiger Krücken » und den Entwurf besserer geistiger Krücken oder anders gesagt, von NI-verstärkenden Informationssystemen.
ZUR ENTWICKLUNG VON K OMMUNIKATIONSKRÜCKEN 183
1 2 3
4
Kunz, W.; Rittel, H. J. W.; A Systems Analysis of the Logic of Research and Information Processes – Reasoning Patterns in Organic Chemistry. Verlag Dokumentation, München (1977). Kunz, W.; Rittel, H. J. W.; Information Science: On the Structure of its Problems. In: Information Storage and Retrieval 8, Pergamon Press, London (1972), pp. 95–98. Kunz, W.; Rittel, H. J. W.; Issues as Elements of Information Systems. (Issues als Elemente von Informationssystemen)**, Report No. 131 of the Center for Planning and Development Research, University of California, Berkeley, CA (1970). Vgl. Anmerkung 1.
* Originalfassung in: H. J. Dietschmann (Hrsg.): Representation and Exchange of Knowledge as a Basic of Information Processes. Elsevier Science Publishers B. V., North-Holland 1984. ** Dieser Beitrag ist in dem vorliegenden Buch abgedruckt.
184 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Architekten und Computer* Abstract: Ob Computer im Wirtschaftszweig Architektur eine Rolle spielen, ist eine müßige Frage. Auch in der BRD haben schon hunderte von Büros die EDV in irgendeiner Form eingeführt, ohne viel Aufhebens und fast unbeachtet von der Fachdiskussion. Selbst mancher renommierte Vertreter der Postmoderne läßt – wenn auch etwas ver legen – einen Computer im Hinterzimmer seines Büros für sich arbeiten. Seit kurzem gibt es jedoch offizielle Unruhe unter der Architektenschaft. Standesorganisationen, Fakultäten, Publikationen und Kultusministerien fragen, wo diese Entwicklung hingeht, und wie man sich darauf einrichten soll.
Architekten und Kalküle Architekten und Computer? Architektur wird heute gern als « transrationale » Aussage, als kultureller Mehrwert über das bloß Zweckhafte hinaus charakterisiert. Andererseits gilt der Computer als Inkarnation des Logischen, Rationalen, Zweckhaften, Gefühlsfreien. Polare Gegensätze! Manch ein Architekt kokettiert geradezu mit seiner Ignoranz bezüglich mathematischer und logischer Denkweisen. Das war nicht immer so. Noch im 18. Jahrhundert verstand sich ein Architekt selbstverständlich als kalkulierender Ingenieur (den es als eigenen Beruf noch gar nicht gab), und eine architektonische Kompositionslehre war ein strenges, kalkülartiges Regelwerk. Erst seit einigen Jahrzehnten sind Anti-Rationalismus, E rchitekturdiskurs klektizismus und die Berufung auf das Unsagbare im offiziellen A zugelassen oder gar dominant. Es ist nicht ohne Ironie zu verzeichnen, daß seit den archaischen Zeiten des Computers gerade Architekten maßgeblich an der Exploration dieser Technik beteiligt waren. Schon bei den ersten Konferenzen über AI (artificial intelligence) am MIT waren Architekten beredte Wortführer, nicht etwa um den Computer lediglich als Dienstmagd für inferiore Aufgaben in die Pflicht zu nehmen, sondern mit dem erklärten Ziel einer « Architekturmaschine » (N. Negroponte). Seitdem gibt es unzählige Forschungsprojekte über « shape grammars », « generating algorithms » und « expert systems », welche Architektur erzeugen sollen. Viele Techniken der Computergraphik und manche Einsichten der AI-Forschung entstammen diesen Anstrengungen.
ARCHITEKTEN UND COMPUTER 185
Zur Lage Die plötzliche Aktualität des Themas ist nicht etwa einem Durchbruch jener hero ischen Bemühungen zu verdanken: Die Architekturmaschine ist nicht in Sicht. Anlaß ist vielmehr die rapide Ausbreitung des Massenprodukts Mikrocomputer, dieser besonders erfolgreichen Anwendung der Mikroelektronik. Noch vor wenigen Jahren galt EDV als etwas Großes, sehr Teures, Zentralistisches und Infrastrukturartiges, dessen Hohepriester einen furchtbar komplizierten Geheimkult beherrschen müßten. Die unternehmerische Phantasie einiger Außenseiter hat bewirkt, daß EDV klein, handlich, billig, ubiquitär verfügbar und persönliches Gerät sein kann, und vor allem, daß dessen Manipulation keine Geheimwissenschaft erfordert. Einmal entmystifiziert, zeigt sich, daß der Umgang mit Computern einfach ist, daß jeder in der Lage ist, sich dieses Gerät zuhanden zu machen. Man braucht noch nicht einmal viel von Mathematik zu verstehen, um es zu programmieren. Und man braucht fast nichts über die technische Wirkungsweise von Computern zu wissen, um sie – mit Hilfe äußerst benutzerfreundlicher Programme – für seine Zwecke dienstbar zu machen. Anfänglich vom EDV-Establishment als Spielzeug und Denksportgerät belächelt, haben sich die Mikrocomputer zur Technik gemausert, die ein Zeitalter prägt. In millionenfacher Ausführung sind sie präsent: Als Heimgerät neben dem TV, als Kommunikationsmaschine neben dem Telephon, als Geräte zur Prozeßsteuerung, als hilfreiches Werkzeug am Arbeitsplatz und auch als « Kollege » Roboter, der die Arbeit früherer Kollegen übernommen hat. Es sind die letztgenannten Funktionen, welche Anlaß zum Nachdenken geben: Was sind die Implikationen für Berufsstand, Praxis, Ausbildung in der Architektur? Gibt es gar Konsequenzen für die Theorie?
Was Computer leisten und was nicht Entgegen populärem Verständnis sind Computer recht primitive Apparate. Der beträchtliche technische Aufwand, der mit ihrer Produktion verbunden ist, dient vor allem dazu, Geschwindigkeit und Verläßlichkeit der primitiven Operationen zu gewährleisten. Es sind deterministische Maschinen, welche Kombinationen von Nullen und Einsen (intern als Signalfolgen « Strom/kein Strom » repräsentiert) nach den Regeln binärer Logik in andere Kombinationen der gleichen Art transformieren. Diese Kombinationen sind entweder Operanden oder Operatoren. Programme bestimmen, welche Operationen auf die Operanden – welche auch Daten genannt werden – ausgeführt werden. Die Art der jeweils nächsten Operation kann vom Ergebnis (den Daten) früherer Operationen abhängig gemacht werden. Daten können eingelesen, ausgegeben, gespeichert, verglichen, in andere Daten transformiert werden. Vielfältige
186 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
« interfaces » übersetzen diese Kombinationen in Buchstabenfolgen, Bilder oder Töne und ermöglichen dem Benutzer den Dialog in Medien, die er gewohnt ist. Nichts, was sich nicht in dieser Form artikulieren läßt, kann von einem Computer ausgeführt werden. Grundsätzlich kann ein Computer nichts, was man nicht auch selbst – wenn auch langsamer – nach vorgegebenem Schema « zu Fuß » tun könnte. Computer haben etwas vom Soldaten Schwejck: Sie führen alle Befehle buchstäblich und exakt aus – unnachgiebiger, fast subversiver Dienst nach Vorschrift. Was aus einem Computer herauskommt, ist ein Spiegelbild dessen, was sein Mei ster hineingesteckt hat, eine Reflexion seines Problemverständnisses. Computer haben keine Intelligenz, kein Urteilsvermögen, keine Ideen. Man kann nur mehr oder weniger intelligente Programme schreiben. Allerdings: Die Anzahl und Vielfalt menschlicher Denkleistungen, die sich aufgrund dieser simplistischen Logik in Programme abbilden lassen, ist beeindruckend. Was Computer für Architekten leisten können, hängt von deren Verständnis ihrer Probleme und der Algorithmisierbarkeit dieses Verständnisses ab.
Warum sollten Architekten Computer benutzen wollen? Es gibt eine Reihe von Gründen, welche selbst einem dem Kalkülhaften abgeneigten Architekten die Benutzung von Computern erwägenswert machen. Er möchte mit Hilfe dieser Technik: • schneller, verläßlicher, billiger erledigen lassen, was er ohnehin tut (M 1): Raumbuch führen, Ausschreibungen machen, « ins Reine zeichnen » … • Tätigkeiten übertragen, die er nur ungern und mühsam ausführt, (M 2): Einen Finanzierungsplan aufstellen, eine Wendel treppe dimensionieren, Verschattung untersuchen, … • Dinge tun lassen, die er eigentlich tun möchte, aber gewöhnlich nicht ausführt, weil sie zu aufwendig, zeitraubend wären, oder weil er vergessen hat oder nicht weiß, wie man sie ausführt (M 3): Eine realistische Perspektive zeichnen, die Kosten überschlagen, alternative Beleuchtungsanordnungen durchspielen, … • neue Aspekte in seine Arbeit einbringen, die erst durch diese Technik praktisch ermöglicht werden (M 4): Die dynamische Simulation der Verkehrsflüsse in einem Gebäude, die systematische Suche nach Entwurfskonzepten innerhalb festgelegter Bedingungen, die Suche nach Analogien in der Baugeschichte, …
ARCHITEKTEN UND COMPUTER 187
Es sind zwei Motive wirksam. Einmal ist es das Bedürfnis nach Steigerung der Produktivität, nach Rationalisierung der Architektenarbeit, andererseits nach Verbesserung der Produkte.
Heutige Anwendungen Es ist nicht verwunderlich, daß die überwältigende Mehrzahl der heutigen Anwendungen vom ersten Typ ist. Der Markt bietet ein reichhaltiges Sortiment von Programmen, « Paketen » und Systemen, welche der Produktivitätssteigerung (M 1) dienen sollen. Ein Blick in die Honorarordnung zeigt die übliche Verteilung des Aufwandes über den zeitlichen Verlauf eines Projektes. Auf die frühen Phasen eines Projektes, in denen es um die schwerwiegendsten und folgenreichsten Entscheidungen und um die Entwicklung eines Konzeptes geht, entfällt nur ein geringer Teil des Gesamtaufwandes (und des Honorars), obschon sie gewöhnlich von den Mitarbeitern mit den höchsten Stundenlöhnen bearbeitet werden. Jede weitere Stufe wird teurer: Ausarbeitung der Details, Spezifizierung, Erstellung der Zeichnungen, Ausschreibung. Routinen, Details, Verwaltung und Redundanz (« 80 mal das gleiche Fenster zeichnen ») kosten den Löwenanteil. Die heute in der Architektur am weitesten verbreitete Software ist nicht architektur-spezifisch, aber sehr effizient. So haben sich Textprozessoren bald ausgezahlt, da Architektur von sehr viel Schriftlichem begleitet wird und Standardtexte mit nur wenigen situationsspezifischen Angaben eine große Rolle spielen. Änderungen werden einfach, das « immer wieder Abtippen » entfällt, jeder kann seine Texte selbst eintippen. Ähnlich prosaisch und kostenwirksam sind Programme für Buchhaltung, Rechnungswesen, Dateiverwaltung und Ablaufplanung, die immer « benutzerfreundlicher » auch auf Mikrocomputer laufen. Die ältesten eigens für den Architekturbetrieb entwickelten kommerziellen Programme waren wohl AVA-Pakete. In der letzten Zeit mehrt sich die Zahl der Programme für spezifische Aufgaben (Typen (M 2) und (M 3)): Energiebedarfsberechnung, Beleuchtungsauslegung, die Analyse von Besonnung und Verschattung, … Daneben gibt es kaum kommerzielle Software, welche die entscheidenden Frühphasen von Architekturprojekten betreffen. Eine Ausnahme sind die verbreiteten « Spreadsheets » (wie VISI-CALC): Sie ermöglichen das « Eben-Mal-Durchrechnen » etwa der Wirtschaftlichkeit eines Projektes oder der Auswirkung einer Wärmedämmungs-Maßnahme. Es ist einfach, mit Hilfe solcher Programme « WasWenn »-Überlegungen anzustellen: Die Folgen einer Änderung pflanzen sich sofort durch das ganze Rechenwerk fort. Varianten können im Nu durchgespielt werden.
188 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
CAD oder CADD? Architekten sind Augenwesen. Deshalb haben die graphischen Anwendungen des Computers für sie eine besondere Faszination. Immer mehr Programme – auch der genannten Arten – sind durch eindrucksvolle visuelle Effekte angereichert (farbige Fenster, graphische Darstellung, piktographische Menüs usw). Die Krone ist natürlich CAD: Computer-Aided Design. Es gibt eine große Zahl von Systemen, die unter dieser Bezeichnung angeboten werden. Sie sind beeindruckend und die Attraktion jeder Messe. Entwerfen am Bildschirm, vom schematischen Konzept bis zur Werkzeichnung, mit der Möglichkeit zur sofortigen Kontrolle durch perspektivische Darstellungen, wobei ständig die Konsistenz der Entscheidungen überwacht wird, die Konsequenzen von Änderungen automatisch durch alle Teile und womöglich noch im Hintergrund alle möglichen Programme mitlaufen, die Statik, Bauvorschriften, Kosten, u. dgl. überprüfen – das wäre das Ideal. Aber auch diese bescheidenere Version der Architekturmaschine gibt es nicht – nicht nur aus Gründen der Maschinenkapazitäten, sondern aus Mangel an theoretischem Verständnis. Deshalb ist es in Fachkreisen üblich geworden, bescheidener von CADD zu sprechen: Computer-Aided Design and Drafting (wobei die Betonung auf dem zweiten D liegt). Die heute üblichen Anwendungen in der Architektur sind nämlich von zweierlei Art. Einerseits gibt es die biedere, imposant komfortable « elektronische Zeichenmaschine », die Änderungen einfach macht, Maßketten aufrechnet und einträgt, redundante Arbeiten abnimmt, wiederkehrende Details aus Bibliotheken abzurufen erlaubt – ein recht wirksames Mittel zur Rationalisierung der teuren Zeichenarbeit. Die andere Anwendung besteht in der Herstellung von bildlichen Darstellungen, vor allem von perspektivischen Ansichten. Man « baut » eine räumliche Kon figuration aus geeignet dimensionierten Standardelementen (Quadern, Keilen, Zylindern, …) zusammen, um dann von einem beliebigen Augpunkt aus in beliebiger Blickrichtung eine Perspektive erzeugen zu lassen. Man kann die Objekte einfach ändern, verschieben drehen – in interaktiver Rückkopplung über den Bildschirm. Bessere Systeme bilden verdeckte Teile des Objektes nicht ab, erlauben farbige Darstellungen, Ausschnittvergrößerungen und anderes. Diese Anwendungen (vom Typ (M 3)) sind der üblichen Praxis, Perspektiven – wenn überhaupt – vom Augpunkt eines Hubschraubers und « mit zwei Fluchtpunkten » zu zeichnen, überlegen. Sie helfen der Veranschaulichung und bieten somit ein Beispiel für eine Computeranwendung, die die Produktqualität verbessern kann. Leider hapert es an der Verschmelzung beider Ansätze. Ein Programm, das es erlaubt, zwischen der städtebaulichen Gesamtansicht und dem Fensterdetail « hinund herzuzoomen » gibt es nicht.
ARCHITEKTEN UND COMPUTER 189
Computer und Kapital Große Architekturfirmen in den USA benutzen EDV schon seit 20 Jahren. Skidmore, Owings and Merril’s BOP (Building Optimization Program) hat schon damals potentielle Kundschaft beeindruckt, weil es ein Bürohochhaus auf der Stelle « optimal » konzipieren konnte. Daß diese Gebäude Kistenform hatten, auf sehr starre Planungsgrundlagen und einen einzigen Konstruktionstyp fixiert waren, daß die Optimierung sich auf einen recht vordergründigen Wirtschaftlichkeitskalkül beschränkte, galt damals als – sicher bald zu kurierende – Kinderkrankheit. Inzwischen sind die Ansprüche bescheidener und realistischer geworden. Das heute von dieser Firma benutzte CADD-System ist im Hause entwickelt worden. Das hat 4 Fachleute 12 Jahre lang beschäftigt. 50 Mannjahre bedeuten mehr als 4 Mio. Dollar. Jede Installation in einer der Filialen kostet bald eine Million Dollar: Sehr leistungsfähige Minicomputer, sehr teure Ein- und Ausgabegeräte wie großflächige Farbmonitore, Plotter, Digitalisierer sowie große F estplattenspeicher sind erforderlich. Das Resultat ist imposant. Selbstverständlich wird ein besonders geschulter Operateur gebraucht. Das System zeichnet mindestens fünfmal schneller als ein fixer Zeichner. Allein der Kapitaldienst für die Hardware einer solchen Anlage erfordert 25 000 $/Monat (Zinssatz 15 %, Lebensdauer 5 Jahre). Das will verdient sein. Erst in der Nähe von 8-stelligen jährlichen Bauvolumen werden derartige Investitionen wirtschaftlich vertretbar. Und erst im D reischichtenbetrieb werden die Kapitalkosten auf ca. 50 $/Stunde gedrückt. Es gibt auch serienmäßige billigere Systeme auf Mini-Computerbasis, die – einschließlich Software – einige Hunderttausend Dollar kosten. Zur Erleichterung der Überschlagsrechnung: Unter obigen Bedingungen betragen die Standkosten etwa 1,25 $ pro Arbeitstag und 1000 $ Kapitaleinsatz. Das andere Extrem: Es gibt Mikrocomputer schon für einige hundert Dollar, eine ganz komfortable « persönliche Arbeitsstation » mit Drucker und Massenspeicher kostet typisch 1500–3000 $; Software der oben beschriebenen Art höchstens ein paar hundert Dollar; ein DIN A3-Plotter vielleicht 1000 $ usw.
Folgen für den Berufsstand Im Jahre 2000 werden bis zu 80 Prozent der Architekten durch Computer erübrigt. Dies ist die Aussage von H. Mileaf vor dem Technology Assessment Board des US-Kongresses im September 1984. Er rät den Architekten zur « Diversifizierung »: Sie seien wohlberaten, sich nach neuen Aufgaben umzusehen. Mileaf ist Director of Technology der Sweets Division von McGraw Hill Information Services Inc. und Vorsitzender des Coordination Council for Computer in Construction (CCCC) mit 4000 Mitgliedern. Diese Aussage ist nicht ohne Gewicht. Der vielbändige Sweets
190 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Catalog der Produkte der US-Bauindustrie steht in jedem Architekturbüro, und McGraw Hill ist ein großes Verlagsunternehmen, das zahlreiche computer-gestützte Informationsdienste auch für das Bauwesen anbietet. Sicherlich muß man diese Prognose nicht als unabwendbares Schicksal hinnehmen. Der « Erübrigungsanteil » könnte auch 0 % oder 90 % betragen. Denn eine ganze Reihe von Zukünften ist vorstellbar: • Es kommt zu einer Konzentration der Architektur-Industrie auf große Firmen mit großem Kapitaleinsatz; kleine Firmen bleiben auf der Strecke oder müssen mit Mini-Jobs ihr Dasein fristen. • « Discount Architecture »: Wettbewerb durch flexible Honorare gilt nicht mehr als unfein (wie es bei Anwälten und Ärzten in den USA schon der Fall ist). • Es kommt zu einer Welle der « Architekturisierung », also einer Steigerung der Nachfrage nach Architektenleistungen, die noch mehr – dann vielleicht selbstverständlich mit Computern operierenden – Architekten als heute schon Brot und berufliche Erfüllung bietet. • « Garantiert handgemachte Architektur » wird zum Verkaufsschlager: Der Architekt verspricht, keine « höhere Technologie » als Zeichenmaschine, Auto und Telephon zu benutzen (« Human is humane, and small is beautiful »). • Eine Ausweitung des Leistungsspektrums erschließt neue Märkte: Architekten als Renovierungsberater, Planungsadvo katen, Computerkundige, … • Es zeigt sich, daß Computer gar keinen Produktivitätsvorteil bringen: So wie Trockenkopierer lediglich die Papierumlaufmenge erhöht haben, vermehrt Computereinsatz lediglich die Anzahl der Tabellen, Aktennotizen, Aufstellungen, Zeichnungen – sonst bleibt alles, wie es ist. Welches Scenario (weitere sind denkbar) tatsächlich eintreten wird, hängt von der wirtschaftlichen, politischen und kulturellen Entwicklung ab. Aber auch die Attitüden der Architekten, die Politik ihrer Standesvertretungen und ihr Ausbildungssystem können einen maßgeblichen Einfluß haben. Jedem Architekten ist anzuraten, sich alert und sachkundig an diesem Geschehen zu beteiligen.
ARCHITEKTEN UND COMPUTER 191
Das kleine Büro Welche Strategien bieten sich angesichts dieser Offenheit der Entwicklung vor allem für kleine und mittlere Büros? Offenbar wäre es nicht sehr klug, souveräne Mißachtung zu üben oder sich in den Schmollwinkel zu begeben. Ebensowenig ratsam wäre es, größere Summen in den Erwerb eines Fortschrittlichkeitssymbols zu investieren, von dem man nicht weiß, wie man es ausnutzt. Traditionell gehören Architekten (wie Anwälte oder Steuerberater) zu den Professionen, die ohne sehr große Investitionen eine Praxis eröffnen können (im Gegensatz zu Fachärzten oder Apothekern). Die Einführung der EDV als übliches Arbeitsgerät könnte das ändern. Mit jeder Investition erhöht sich der Mindestumsatz, der zur Deckung der fixen Kosten erforderlich wird (der Kapitaldienst muß auch während – vielleicht unfreiwilliger – Betriebsferien geleistet werden). Die Marktsituation erlaubt eine Strategie, die auch Kapitalschwachen die vorsichtig explorierende Einführung von Computern gestattet. Für etwa 1500 bis 3000 $ werden Grundausstattungen oder « Startersysteme » auf der Grundlage von Mikrocomputern angeboten, welche die meisten der oben skizzierten prosaischen, aber nützlichen Anwendungsmöglichkeiten gestatten. Die entsprechende Software kostet jeweils höchstens einige hundert Dollar. Selbst wenn eine solche Anlage unbenutzt herumsteht, kostet das weniger als 1 $/Stunde bei 40-stündiger Arbeitswoche – vergleichbar mit den Ausgaben für das Telephon und wesentlich weniger als etwa die Miete für die Büroräume. Es gibt ganze Industrien, welche den Ausbau solcher Grundsysteme für professionelle Bedürfnisse anbieten. Hardware-Erweiterungen wie Festplattenspeicher, Plotter, Modems u. dgl. lassen sich additiv (ohne Ersatz der Grundausstattung) für einige Hundert oder wenige Tausende von Dollars hinzufügen. Software für ganz komfortable CADD-Systeme, die für die Bearbeitung von Projekten mittlerer Größenordnung hilfreich sein können, werden für 1000 bis 3000 $ angeboten. Und so weiter, und so weiter. Mit anderen Worten: Die Nutzung dieser Technik erfordert nicht eine Alles-oder-Nichts-Entscheidung; sie ist in angepaßten Stufen möglich. Eine weitere Strategie besteht im Verzicht auf Perfektion. Ein Beispiel: Ein Programm, das rasch und exakt eine « Drahtperspektive » der wichtigsten Bezugspunkte und -linien einer räumlichen Anordnung erzeugt und ausdruckt (also auf Unterdrückung verdeckter Linien u. dgl. verzichtet), kostet höchstens ein paar hundert Dollar. Das Ergebnis kann einfach, schnell und einfühlsam mit Hilfe des 6B oder des Farbkastens zu einer Darstellung « geschönt » werden, die ohne Mikrocomputer viele Tage gekostet hätte und – folglich – nicht hergestellt worden wäre. Mit dieser Strategie kann man vielleicht 80 % der Leistung teurer Systeme mit weniger als 5 % des Kapitaleinsatzes erreichen, ohne sich eine teure Überkapazität aufzubürden. Es lohnt sich, über weitere Möglichkeiten dieser Art nachzudenken. Es gibt noch eine andere Antwort auf diese Marktlücke. In den USA haben sich in den
192 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
letzten Jahren zahlreiche Servicebüros aufgetan, welche über kostspielige CADDAnlagen verfügen. Sie bieten eine ganze Reihe von Dienstleistungen an. Im Extremfall braucht der Architekt nur seine Bauaufgabe und seine Konzeptvorstellungen einzubringen. Das übrige – von der Erarbeitung des detaillierten Bauprogrammes über alle möglichen zeichnerischen Leistungen bis zur Endabrechnung wird termingerecht geliefert. Der Architekt kann sich derweilen der Kommunikation und der Akquisition widmen.
Ausbildung Die Architektenschaft der BRD sorgt sich um die Angemessenheit der Ausbildung angesichts der neuen Umstände. Es gibt Manifeste, Syllabi, Vorschläge für Revisionen der Prüfungsordnungen. Man darf indessen gelassen sein. Alles deutet darauf hin, daß Computer bald so selbstverständliche Bestandteile der Volkskultur werden wie das Automobil. Auch bei Architekturstudenten gibt es kaum Akzeptanz-Hindernisse gegen die Computertechnik. Vor 20 Jahren war es ein Statussymbol einiger graduate students der Architektur, mit dem Computer-Ausdruck unter dem Arm über den Campus zu laufen. Während noch vor 10 Jahren höchstens 10 Studenten eine « Einführung in die EDV für Architekten » auf sich nahmen, sind es heute 100 – mit gemischten Motiven. Einerseits mag man sich angesichts der Verbreitung dieser Technik bessere Job-Chancen erhoffen. Andererseits ist es die Faszination und intellektuelle Herausforderung dieser Maschine. Es lohnt sich nicht, neue Pflichtfächer einzuführen. Höchstens für eine Übergangszeit von wenigen Jahren sind Lehrangebote wie « Einführung in die EDV für Architekten » sinnvoll (früher gab es einmal Kurse zur « Rechenschieberpraxis für Architekten »). Man wird die erforderlichen Kenntnisse voraussetzen können wie jetzt elementare Mechanik oder Autofahren. Computer sind auf die Dauer kein Gegenstand der Architektenausbildung, sondern ein Werkzeug (« Denkzeug ») für Ausbildung und Praxis. In allen Fächern ist eine profitable Benutzung dieser Technik denkbar: In Bauphysik, Konstruktionslehre und dergleichen, aber auch in Baugeschichte, Darstellungsmethoden und – vor allem – in der Entwurfs- und Projekt arbeit. Allerdings sollte die Exploration der Benutzungsmöglichkeiten von Computern in der Architektenarbeit ein legitimer Vertiefungsschwerpunkt im Studium der Architektur sein. Die Entwicklung dieses Hilfsmittels für die Belange dieses Faches sollte nicht von außen – etwa der Informatik – als Import erwartet werden, sondern von Vertretern des Faches entwickelt werden, die dessen Eigenarten und Schwierigkeiten kennen (« Das bißchen Informatik kann man immer noch dazu lernen »).
ARCHITEKTEN UND COMPUTER 193
Wieviel sollte ein Architekt von der EDV verstehen? Ist es zureichend, wenn er ein vorgegebenes System bedienen kann, sollte er in der Lage sein, eigene Programme schreiben zu können? Manche Firmen stellen gern Operateure ein, die nichts vom Programmieren verstehen, aber nach einigem Training in der Lage sind, das System zu bedienen. Der Vorteil: Solche Operateure spielen nicht herum. Aber Systeme veralten rasch, und damit auch die Experteneigenschaft ihrer Bediener. Man ist einer Technik sicherlich weniger « ausgeliefert », wenn man sie beherrscht und nicht nur bedient. Einige Fähigkeit zum Programmieren kann diese Souveränität bestärken.
Aussichten Man merkt es heutzutage einem Gebäude nicht an, ob zu seiner Entstehung CADD oder andere Computeranwendungen beigetragen haben. Gottseidank? Einige Effekte hat vielleicht der Bauherr und/oder sogar der Benutzer oder Bewohner wahrgenommen: Durchdachtere Pläne, weniger Pannen, geringere Ko sten. Und das wäre ja nicht wenig. Bemühungen zur systematischen Unterstützung der Frühphasen des Entwerfens sind wenig entwickelt. Sie könnten zur Verbesserung der Architekturprodukte führen – oder mindestens zur Diskussion darüber, was unter einer solchen Verbesserung zu verstehen ist. Computerhilfen für die Frühphasen des Planes und Entwerfens sollten sicher keine « Expertensysteme » sein, die Antworten für die auftretenden Fragen andienen. Eher sollten sie helfen, die jeweils nächste Frage zu artikulieren, die das Problemverständnis anreichert. Programme dieser Art würden das Planen nicht einfacher machen, sondern eher komplizieren. Dieser Effekt wäre nicht notwendig nachteilig – obschon sicherlich mit einer Erhöhung des Planungsaufwandes verbunden: Die meisten Fehlplanungen sind die Folge nicht gesehener Faktoren und Effekte. Deshalb wäre es ratsam, einen gehörigen Anteil der Einsparungen durch die Rationalisierung der Spätphasen der Architekturprojekte für die Intensivierung der Anfangsphase des Planens und Entwerfens umzuwidmen. Und die Architekturmaschine? Sie sollte ein lebendiges Thema von Forschungsvorhaben und Dissertationen bleiben. Denn – wie oben gesagt – bietet der Computer ein Spiegelbild des Verständnisses seines Programmierers. Diese Bemühungen können deshalb zum theoretischen Bild von dem beitragen, was Architektur « eigentlich » sein soll. Schon einige bisherige Befunde sind nicht uninteressant: Es ist nicht sehr schwierig, eine « Mies-Maschine » oder einen « Palladio-Simulator » zu programmieren. Nicht aussichtslos ist die Programmierung eines « Bauschäden- Experten-Systems ». Nicht überzeugend gelöst ist z. B. das Problem, ein Programm zu schreiben, das die Anzahl der diskreten Objekte in einer Bildfläche ermittelt – eine scheinbar einfache Aufgabe der Gestalterkennung.
194 INFORMATION FÜR PLANEN, ENTWURF, DESIGN
Es gibt zwei verschiedene Strategien. Die eine zielt auf Systeme, welche Tätigkeiten, wie die des Planens und Entwerfens, übernehmen können, und die womöglich ihre menschlichen Vorbilder an Intelligenz und Kreativität übertreffen sollen. Dieses Golem-Ideal von der künstlichen Intelligenz ist populär, stößt aber – zum Glück – auf grundsätzliche theoretische Hemmisse. Die andere, bescheidenere Strategie zielt auf die Entwicklung « intellektueller Prothesen », von Denkzeugen, welche die natürliche Intelligenz vertäten und unterstützen. Auch in der Architektur liegt hier ein reiches Feld der Exploration und Entwicklung. Dies erfordert die zielstrebige Verbesserung der Theorie des Planens und Entwerfens – was eine Voraussetzung zur Verbesserung der Praxis der Architektur ist. Jedoch: Die sozialen Folgen der Computer in der Architektur können verheerend für die Architekten sein. Es ist an der Zeit, darüber nachzudenken, wie sie das verhindern wollen. Die Überschätzung der Möglichkeiten dieser Technik ist ebenso gefährlich wie die esoterische Arroganz des Musensohns.
*
Quelle: ARCH + 78, Dezember 1984, S. 73–77. Rittel hat zwei Jahre später einen in dieser Thematik weiterführenden Aufsatz mit dem Titel « Über den Einfluß des Computers auf die zukünftige Rolle und das Berufsbild von Architekten » geschrieben. Er findet sich in: Ehlers, W.; Feldmann, G.; Steckeweh, C. (Hrsg.); CAD: Architektur automatisch? Vieweg Verlag, Braunschweig 1986.
ARCHITEKTEN UND COMPUTER 195
Planung und Politik
Instrumentelles Wissen in der Politik* Abstract: Instrumentelles Wissen verknüpft Sachverhalte mit Handlungsweisen im Hinblick auf die Erreichung von Zielen. Die Bezugsklasse instrumentellen Wissens ist durch die Eigenart der Entscheidungssituation gekennzeichnet und nicht durch die des Objektes der Entscheidung.
1. 1.1 Der Allianz zwischen Politikern, Wissenschaftlern und Beamten auf dem Felde der politischen Praxis stehen Hemmnisse entgegen. Nicht ohne resignierten Spott und leise Schadenfreude vernimmt man, daß Wissenschaftler, die als « Entscheidungsgehilfen » nach Washington gehen, nicht viel ausrichten und keineswegs zu den glücklichen Menschen zählen. Denn wenn der Wissenschaftler seinen Prinzipien treu bleibt, kann er dem Politiker wenig direkte Hilfe bieten. Wenn er hingegen politisch relevante Ratschläge erteilt, verläßt er die Basis seiner Qualifikation: Nichts zeichnet dann seinen Rat vor dem « gewöhnlicher » Menschen aus. Sein Handwerk ist es nämlich, verläßlich und systematisch zu ergründen, was der Fall ist – und nicht das, was der Fall sein sollte. Weder in der Politik noch sonstwo gibt es eine « wissenschaftlich richtige » Entscheidung, die aus irgendeiner « objektiven » Theorie gefolgert werden könnte. 1.2 Gleichzeitig demonstriert der Zustand der Welt die hoffnungslose Unzulänglichkeit der politischen Entscheidungspraktiken. Während die Menschheit gelernt hat, in vielen anderen Bereichen ihre Geschicke zu mei stern, ist die Politik nach wie vor ein trügerisches Terrain. Es könnte sein, daß es eine Eigenart der politischen Entscheidung ist, auf vager, irrationaler Basis beruhen zu müssen. Es wäre denkbar, daß Politik notwendig ein Glücksspiel mit schlechten Chancen ist, bei dem obendrein noch gemogelt wird. Dann hätte man sich damit abzufinden, daß zwar gelegentlich Weitblick und Weisheit, aber auch immer wieder Zufall, Dummheit, Vorurteil und Gewalt regieren. Wenn es also mit Hilfe der Wissenschaft nicht geht, ist es dann p rinzipiell unmöglich, politische Institutionen und Praktiken zielstrebig und rational zu verbessern?
198 PLANUNG UND POLITIK
1.3 Zum Glück braucht diese Frage heute nicht affirmativ beantwortet zu werden: • Bislang hat sich keine obere Grenze für die Rationalisierbarkeit menschlichen Verhaltens abgezeichnet. • Die beobachtete Untauglichkeit des Wissenschaftlers als politischer Entscheidungsgehilfe könnte die Folge von Mißverständnissen und Fehlorganisation sein (etwa durch falsche Vorstellungen des Politikers von den Kompetenzen des Wissenschaftlers; oder durch unrealistische Ideen des Wissenschaftlers von der Eigenart der politischen Entscheidung; oder durch Konfusion der Verantwortungen usw.). • Es ist denkbar, daß lediglich die heutigen Typen des Wissenschaftlers und des Politikers, wie sie sich im Arbeitsteilungsgefüge unserer Kultur entwickelt haben, wenig geeignet sind, die politischen Entscheidungssysteme zu verbessern. Auch Wissenschaft und Politik sind der « selbsttätigen » wie der bewußt geplanten Veränderung unterworfen. Es wäre kurzsichtig, ihre heutigen Formen als invariant oder gar als denknotwendig anzusehen. Es kann also nicht als bewiesen gelten, daß es unmöglich ist, bessere politische Entscheidungssysteme zu entwerfen und zu installieren. Und folglich sollte man es ruhig versuchen. 1.4 Meine Ausführungen sollen einige Aspekte und Schwierig keiten eines solchen Programms beleuchten. Dazu ist vorab zu klären, was u nter der « Verbesserung » eines Entscheidungssystems verstanden werden soll. Ich möchte eine pragmatische, gewissermaßen technologische Definition vorschlagen: Ein Entscheidungssystem ist um so besser, • je besser die getroffenen Entscheidungen zu den erstrebten Wirkungen führen, • je seltener die Entscheidungen unerwünschte Nebenwirkungen zeigen, • je größer die Anzahl der möglichen Entscheidungen ist, die zu erwünschten Wirkungen führen. Dieses Konzept ist schwach und sehr neutral, da es keine expliziten Normen für die Beurteilung eines Entscheidungssystems angibt – höchstens eine Vorschrift zur jeweiligen Bestimmung dieser Normen im konkreten Fall (etwa dadurch, daß man
INSTRUMENTELLES WISSEN IN DER POLITIK 199
dem System zusammen mit seiner Entscheidung eine Prognose über die zu erwartenden Konsequenzen der Entscheidung abverlangt, mit der dann die später eintretenden Ereignisse verglichen werden). Wenn man noch die Betriebskosten des Systems berücksichtigt, ist es eher die « Effizienz », die auf diese Weise bestimmt wird: Auch ein Polizeistaat kann in diesem Sinne in den Augen seiner Machthaber ein « gutes » System darstellen. An den Absichten und Präferenzen des Akteurs wird die Qualität des Systems gemessen. Trotzdem ist diese schwache Begriffsbestimmung nicht ungerechtfertigt. Man braucht nur auf den Schaden hinzuweisen, der im Verlaufe der Geschichte durch Ignoranz und Kurzsichtigkeit angerichtet worden ist – also durch « schlechte » Entscheidungssysteme, nämlich ohne bösen Willen –, ohne daß man die Folgen gewollt hätte.
2. 2.1 Politisches Handeln beruht wie alles verantwortliche Handeln auf der Abschätzung und Beurteilung der möglichen Konsequenzen: Ein poli tisches Entscheidungsproblem besteht darin, die Tunlichkeit der relevanten Ak tionsmöglichkeiten im Hinblick auf ihre Auswirkungen abzuwägen und daraus die Entscheidung abzuleiten. Um dieses Problem zu lösen, braucht man Wissen: Ein Bild der gegenwärtigen Situation (des « Istzustandes »), Erwartungen hinsichtlich zukünftiger Entwicklungen, Kenntnisse der Kausalzusammenhänge, durch welche Wirkungserwartungen mit möglichen Maßnahmen verknüpft werden, und – vor allem – Vorstellungen von « Sollzuständen ». Es lohnt sich zu fragen, welcher Art diese Wissensbasis in der heutigen politischen Entscheidungspraxis ist. 2.2 In einer Studie zu einer ähnlichen Fragestellung entwik kelt Kenneth E. Boulding 1 eine Klassifikation des Wissens nach dem Grad seiner Systematik. Er unterscheidet fünf Stufen: 1. die Kategorie des empirischen Wissens. Dies ist die Kenntnis von Zusammenhängen, die man aus der Erfahrung oder von anderen gelernt hat, ohne die Frage nach dem Warum ihrer Richtigkeit gestellt zu haben oder gar beantworten zu können. Es sind die Automatismen und Faustregeln, mit denen wir die Mehrzahl unserer täglichen Aufgaben meistern. Hierher gehört das Wissen des Kraftfahrers – aber auch das des Professors in der Fakultätssitzung. 2. mechanisch konstruktives Wissen, das es ermöglicht, nach einem Plan, nach « Zeichnung », ein Haus zu bauen, eine V erordnung
200 PLANUNG UND POLITIK
auszulegen und anzuwenden. Es ist die Fähigkeit, Symbole als Instruktionen zu verstehen und diese dann auszuführen. 3. technisches Wissen, das den Ingenieur zum Entwurf einer Maschine befähigt, also zur Herstellung einer Zeichnung. Hierzu braucht man noch nicht notwendig theoretisches Wissen: Man kann eine Pendeluhr ohne Kenntnis der Pendelgesetze konstruieren. 4. erst auf der Stufe des theoretischen Wissens wird erläutert, wie ein Satz von Wahrheiten oder Handlungsregeln aus einem allgemeinen Prinzip folgt. Theorien erklären Zusammenhänge « hinter » den Phänomenen. 5. schließlich nennt Boulding noch die Stufe der Theorien der Theoriekonstruktion, des Wissens über Systeme von theoretischen Systemen. Von ihr aus kann man Wissen auf eine höhere Stufe heben, höheres Wissen planen und kritisch kontrollieren. Boulding beurteilt diese Stufe als noch unterentwickelt. Die Wissensgrundlage für verschiedene menschliche Tätigkeitsbereiche erreicht auf dieser Skala verschiedene Stufen. Das naturwissenschaftliche Innovationssy stem hat auf einigen Gebieten die vierte Stufe erreicht, gelegentlich sogar die fünfte. Das technologische System reicht bis zur dritten, wobei seine Prinzipien gelegentlich auf der vierten Stufe verankert sind. Verwaltung und Management verfügen durchaus über Wissen der dritten Stufe: Das Ausarbeiten von Verordnungen und gewisse Planungsaufgaben in Wirtschaftsunternehmen haben häufig Ingenieurwissen zur Grundlage. 2.3 Politische Entscheidungssysteme beruhen hingegen fast durchweg auf Wissen der ersten Stufe. « Staatsschiffe werden … im großen und ganzen gelenkt wie Automobile » (Boulding) – wenn auch mit höherem Risiko. Es gibt kaum Ingenieurwissen, geschweige denn theoretisches Wissen über soziale und politische Systeme, aus dem sich Handlungsanweisungen für ihre Steuerung ableiten ließen. Diese Disparität der Wissensgrundlagen wird allgemein beklagt; ihre Ursache ist umstritten. Die einen sagen, das naturwissenschaftlich-technologische Innovationssystem sei dem übrigen Geschehen davongelaufen und habe angefangen, den Gang der Dinge unverhältnismäßig stark zu beeinflussen. Andere argumentieren, daß die Sozialwissenschaften sich in unnützen Reibereien über akademische Doktrinen verzettelt hätten, anstatt zielstrebig den harten Weg zu besseren Theorien sozialer Phänomene zu verfolgen. Was ihnen fehle, sei nicht ein Newton oder ein Darwin, sondern ein Galilei oder ein Pasteur.2
INSTRUMENTELLES WISSEN IN DER POLITIK 201
2.4 Mit guter Evidenz darf man postulieren, daß man ein Phänomen um so besser meistern kann, je besser man es versteht.3 Denn mit gründlicherem Verständnis kann man sicherer prognostizieren, kann man seine Entscheidungen zielsicherer treffen. Je höher die Wissensgrundlage eines Entscheidungssystems auf der Skala reicht, um so besser kann es funktionieren. Es könnte allerdings sein, daß die Bouldingsche Skala irrelevant ist oder vielleicht auch nur unvollständig: Daß nämlich die Weisheit des Regierens ein Sub strat erfordert, über das nur der Begnadete verfügt, eine Art « sechsten Sinn » jenseits aller rationalen Durchdringung. Es gibt indessen wenig Evidenz zugunsten dieser Vermutung. Die Herren des einsamen Entschlusses, die Anbeter der Irrationalität haben wenig Gutes gestiftet. Der Anti-Rationalismus hat vorerst abgewirtschaftet, und das Bedürfnis nach besseren politischen Systemen, in denen umfassendere Sicherungen gegen menschliche Schwächen und Zufälle vorgesehen sind, ist universell.
3. 3.1 Diese Einsicht ist nicht neu, und in unserem Jahrhundert gibt es zwei große prototypische Versuche, rationalere politische Systeme zu etablieren. Der eine ist der Planungsapparat der Sowjetunion seit den zwanziger Jahren. Dieser wurde auf der Grundlage einer sehr allgemeinen Theorie von Gesellschaft und Geschichte konstruiert, die mindestens an der vierten Stufe der Bouldingschen Skala anzusetzen wäre. Der lange Weg von der Neuen Ökonomischen Politik zu den Fünfjahresplänen, die Geschichte des Generalplans, die Auseinandersetzungen um die Primate verschiedener Wirtschaftsgruppen waren eine Folge schmerzhafter Fehlschläge, grausamer Maßnahmen, von Katastrophen und ausdrücklichen Planrevisionen. Es erwies sich als unmöglich, konkrete Entscheidungen durch bloße Exegese aus der ideologischen Ausgangskonstruktion abzuleiten. Das Planungsmodell enthielt « freie » politische Entscheidungsparameter, deren jeweilige « richtige » Werte keineswegs algorithmisch aus der Theorie abzuleiten waren. Vielmehr wurden sie zu Objekten politischer Auseinandersetzung selbst zwischen denen, die das Grundmodell akzeptierten. Das Planungsmodell war der Kompliziertheit des zu steuernden Geschehens nicht angemessen; es beschrieb nicht alle Faktoren, die sich als relevant herausstellen sollten, und viele vorausgesetzte Kausalzusammenhänge erwiesen sich als falsch. Die Konsequenz nicht jedes Entscheidungsmodells, das die formale Struktur der vierten Stufe ausweist, ist schon deshalb gut. Dennoch war dieses Experiment letzten Endes erfolgreich: Trotz aller Rückschläge und schrecklichen Begleitumstände, trotz des Zweiten Weltkrieges und des Rückfalls in den Geniekult ist die Sowjetunion heute [1964, d. Hrsg.] eine füh-
202 PLANUNG UND POLITIK
rende Industriemacht, ein Musterbeispiel erfolgreicher sozialistischer Planwirtschaft – wenn auch die Planungstechniken inzwischen weitgehend verfeinert worden sind, etwa durch « kybernetische » Vorkehrungen. 3.2 Das andere große Experiment findet in den USA statt. Hier sind Politik, Wissenschaft und Technik auf vielfältige Weise miteinander verflochten – wenn auch keineswegs miteinander verschmolzen oder gar versöhnt. Sie sind zusammengespannt, um zielstrebig und in großem Maßstabe politisch und militärisch relevante Innovation zu produzieren, aber auch um akute Aktions probleme zu lösen. Diese Symbiose ist nicht das Produkt eines aus einer Theorie hergeleiteten klaren Entwurfes. Vielmehr hat sie « sich » in den letzten beiden Jahrzehnten entwickelt, weil sie sich halbwegs bewährt hat und weil kein anderer Weg zu finden war. Als ideologische Basis läßt sich allenfalls die im Hintergrund stehende Überzeugung identifizieren, daß Wissenschaft und Technik die Schrittmacher und Garanten des Fortschrittes und folglich nützlich sind. In dieser Symbiose finden sich Wissenschaftler und Ingenieure in verschiedenen Rollen: • als Forscher auf seinem eigentlichen Gebiet, der sein Problem vielleicht sogar selbst angeregt und ausgewählt hat. Dennoch fügt sich dieses Problem in den Rahmen eines großen Regierungsprojektes ein – etwa des Raumfahrtprogrammes; • als Ingenieur, der Systeme für vorgegebene Zwecke entwirft und installiert: Ein Raketenabwehrsystem, eine Marssonde, ein Datenverarbeitungssystem für die zentrale Steuerbehörde, eine Strafvollzugsreform oder eine Methode zur Guerillakriegsführung; • als sachverständiger Berater, der dem Politiker hilft, sich seine Meinung zu bilden, der aber auch politische Maßnahmen vorschlägt, das Weltgeschehen analysiert und interpretiert (« Kreml-Astrologen ») oder Strategien ausarbeitet; • als Manager und Administrator von Forschung und Entwicklung, der Projekte plant und programmiert, « brain-power » und Geld zuteilt. Keine dieser Rollen steht im Einklang mit dem reinen Gelehrtenideal des 19. Jahrhunderts, obwohl dieses dem Selbstverständnis vieler der so Engagierten zugrundeliegt. In allen Fällen ist – zumindest der Theorie nach – dem Wissenschaftler die Funktion des abhängigen Handlungsgehilfen zugedacht, während der politische Mandatsträger sich die Festlegung der Ziele, die Entscheidungsgewalt und die Verantwortung vorbehält. Eine klare Trennung zwischen « Entscheidungsvorbereitung » und « Entscheidungsfällung » ist aber aus naheliegenden Gründen nicht
INSTRUMENTELLES WISSEN IN DER POLITIK 203
möglich. Denn wer eine Entscheidung vorbereitet, steckt auch den Handlungsspielraum ab, und er gewichtet das Für und Wider der einzelnen Alternativen. Was bleibt da noch als Freiheit der Entscheidung übrig? Oder: Wie soll der nichtsachverständige Politiker seinen Experten kontrollieren? Er kann ihm nur trauen. Alle diese Diskrepanzen sind Ursachen des Mißbehagens und der Sorge um die demokratische Kontrolle des politischen Entscheidungssystems. Die Ausmaße dieser Symbiose sind gigantisch. Ein Großteil der amerikanischen Innovations kapazität ist dadurch gebunden. Ganze Landstriche leben von Forschung und Entwicklung im Staatsauftrag. Es gibt zahlreiche Institutionen, welche « für die Regierung denken ». Der Streik jener Intellektuellen würde die USA paralysieren. Dieser Versuch, ein politisches System durch Kopplung mit dem Innovationssystem zu verbessern, ist noch nicht abgeschlossen, und auf keinen Fall sollte man ihn als gescheitert betrachten. 3.3 Was folgt aus diesen beiden « Experimenten »? Jedenfalls haben sie und ihre Nachahmungen die Welt irreversibel geprägt. Das wissenschaftlich-technische Innovationssystem ist ein dominierender politischer Faktor geworden; in Ost und West sind Wissenschaftler in die politische Praxis verstrickt, und niemand läßt sie wieder gehen. Man hat sie geholt, weil die politischen Probleme für den « gesunden Menschenverstand » zu kompliziert wurden; vielleicht sind sie aber gerade deshalb noch komplizierter geworden. Die Rückkehr zur Idylle der genialischen Entscheidung ist verwehrt; die Naivität des Regierens ist unwiederbringlich dahin. Geblieben ist die Naivität jener Wissenschaftler, die glauben, a llein mit dem Dienst an der Erkenntnis die Welt zu verbessern; geblieben ist der Opportunismus jener Wissenschaft, die nach Brot geht; geblieben ist die allgemeine Unsicherheit über die Rolle der Wissenschaft in der modernen Gesellschaft. Weiterhin besteht die Frage, ob und wie man politische Entscheidungssy steme verbessern kann, wie sich eine Anhebung ihrer Wissensbasis auf eine höhere Stufe erreichen läßt und wer diese Aufgaben bewältigen könnte. 3.4 Ganz sicher sind zur Schaffung solchen Wissens die traditionellen Wissenschaften nicht geeignet. Denn jede Wissenschaft ist mit einem bestimmten Aspekt befaßt, mit einer Teilrealität, die sich durch einen standardisierten, ziemlich stabilen Satz von deskriptiven Parametern beschreiben läßt. Die Verläßlichkeit des Wissens wird mit der Einengung seiner Geltungsbreite bezahlt. Genau das Gegenteil ist charakteristisch für die politische Realität. Die Probleme verändern ständig ihren Bezugsraum; keine Situation ist zureichend durch dieselben Variablen zu beschreiben wie irgendeine andere (es gibt höchstens vage und verfängliche Analogien); jede Situation enthält für sie typische Faktoren. Folglich kann es keine fachwissenschaftliche Modelle geben, die alle relevanten Faktoren eines Entscheidungsproblems erfassen. Ökonomie, Soziologie und politische Wissenschaft können nur Teilwahrheiten beitragen, die der Politiker in das Mo-
204 PLANUNG UND POLITIK
saik seines Entscheidungsmodells, seines « Images » von der Situation, einbauen kann. Aber selbst die Summe solcher wissenschaftlicher Bauelemente reicht im allgemeinen nicht aus, um ein vollständiges Situationsmodell zu konstruieren; überdies ist es im konkreten Fall durchaus nicht immer klar, ob eine bestimmte wissenschaftliche Erkenntnis anwendbar ist, d. h., ob die Voraussetzungen für sie gegeben sind. Je nach Interpretation der Lage werden andere Theorien möglich und relevant.
4. 4.1 Diese Tätigkeitsmerkmale rücken den Politiker eher in die Nähe des Ingenieurs als in die des Wissenschaftlers. In der Tat sind die oben erwähnten Rollen des Wissenschaftlers im politischen Engagement in der Erfahrung eines Ingenieurs gar nichts Besonderes. Und es ist nicht unrealistisch, den Entwurfscharakter politischen Handelns herauszustellen: Das Objekt sind « soziale Systeme », d. h. Institutionen, Regeln und Beziehungen, die ihren « Benutzern » als Mittel zur Meisterung ihrer Situation dienen. Im politischen Prozeß finden sich Analogien zu einer ganzen Reihe typischer Ingenieuraufgaben, wie Wartung, Reparatur, Modifikation, Neukonstruktion, Programmierung etc. Die meisten Systeme, mit denen der Politiker zu tun hat, sind gewachsen und nicht auf dem Reißbrett geplant. Deshalb besteht die Hauptarbeit des Politikers in ihrer Erhaltung, Weiterentwicklung und ständigen Verbesserung. Aber gelegentlich kommt es auch zur Neukonstruktion: Solon, Jefferson und Lenin waren « PolitIngenieure », die gründliche Neukonstruktionen konzipiert und realisiert haben. Auch Popper vergleicht die Aufgaben des Politikers mit denen des Ingenieurs und analysiert den Begriff des « social engineering ». Er unterscheidet zwischen « piecemeal engineering » und « utopian engineering ». Jenes ist die Politik der kleinen Schritte, deren jeder aus gutem Grunde eine überschaubare Veränderung herbeiführen soll.4 Dabei können diese Schritte durchaus an Fernzielen orientiert sein. Im Gegensatz dazu will der utopische Sozialingenieur « das Ganze von Grund auf neu entwerfen », wobei er seine Maximen aus irgendeinem Mechanismus bezieht, den er dem Ablauf der Geschichte unterlegt hat und der ihm anzeigt, welcher Zustand der Welt der absolut richtige ist. Er fühlt sich bestimmt, dieses Geschick erfüllen zu helfen, indem er der ohnehin unabwendbaren Notwendigkeit unter die Arme greift. Nach Popper ist ein solches Unterfangen schon aus logischen Gründen zum Scheitern verurteilt. Andererseits biete – so Popper – das Gebiet des bescheideneren « piecemeal engineering » ein reiches Feld für die Entwicklung besserer, rationalerer Vorgehensweisen. Dabei komme es darauf an, « soziale Technologien » zu entwickeln, welche die Fußangeln des « Scientismus » vermeiden, d. h. der unzulässigen Übertragung naturwissenschaftlicher Analogien auf soziale Phänomene.5
INSTRUMENTELLES WISSEN IN DER POLITIK 205
Es mag hier dahingestellt bleiben, wie weit jegliche vernünftige Entscheidung « inkrementell », also lediglich modifizierend sein kann.6 Greifen wir jedoch die Frage auf, welcher Art das Wissen sein sollte, auf das der « piecemeal engineer » seine Aktionen abstützt. 4.2 Zu diesem Zweck empfiehlt sich eine weitere (wenn auch nicht sehr klar ausgeprägte) Klassifizierung des Wissens: Nämlich nach faktischem oder Sachwissen und nach instrumentellem Wissen. Beide Arten gibt es auf allen Stufen der Bouldingschen Skala, und beide Arten können spezifische oder sehr allgemeine Geltungsbereiche haben. Sachwissen bezieht sich auf das, was der Fall ist. Es ist das Wissen über Sachverhalte. (« Gestern fiel der Dow-Jones-Index um 3,4 Punkte. » « Kraft ist Masse mal Beschleunigung. ») Sachwissen kann situationsspezifisch sein oder eine allgemeine Regel beinhalten. Instrumentelles Wissen hingegen verknüpft Sachverhalte mit Handlungsweisen im Hinblick auf die Erreichung von Zielen. Es besteht aus Rezepten, Heuristiken, Regeln, Techniken und Methoden, mit deren Hilfe man seine Situation manipuliert. Instrumentell ist z. B. das Wissen darüber, wie man Informationen sammelt, wie man ein Situationsmodell konstruiert, wie man mit Risiko und Unsicherheit umgeht – aber auch die Regeln der Diplomatie gehören dazu oder die Technik von Wahlkampagnen. Die Grundlage dieser Art von Wissen ist natürlich immer « Sachwissen » über Kausalzusammenhänge, erweitert durch die Kenntnis von Handlungsmöglichkeiten und erwünschten oder wenigstens akzeptablen Situationen. Instrumentelles Wissen hat im einfachsten Fall die Form « Wann immer das und das der Fall ist und das und das erreicht werden soll, ist die und die Aktion angebracht ».7 Es bezieht sich ebenfalls auf Klassen von Situationen; gerade das wurde aber soeben als Einwand gegen die praktische Nützlichkeit einzelwissenschaft licher Erkenntnisse vorgebracht. Es besteht indessen ein markanter Unterschied: Die Bezugsklasse instrumentellen Wissens ist durch die Eigenart der Entscheidungssituation gekennzeichnet und nicht durch die des Objektes der Entscheidung. « Entscheidungsmodelle » sind charakterisiert durch Art und Ausmaß der Informiertheit des Akteurs, durch seine Haltung gegenüber Unsicherheit und Risiko sowie durch die « allgemeine Mechanik » des Objektsystems (wie Konflikttyp, Grad der Determiniertheit, Struktur von Verhaltensmustern) – nicht dagegen durch dessen phänomenologische « natürliche » Klassifikation. Damit werden solche Entscheidungsmodelle für sehr verschiedene Objektsysteme anwendbar. 4.3 Jene oben für erstrebenswert und nicht unmöglich befundene Verbesserung politischer Entscheidungssysteme ist gleichbedeutend mit der Schaffung « höheren » instrumentellen Wissens. Denn gerade darin, daß signifikante Parameter der speziellen Situation mit Zielen und « relevanten » Handlungsalternativen verknüpft werden müssen, liegt die Schwierigkeit der Entscheidung.
206 PLANUNG UND POLITIK
Es werden Verfahren gebraucht, die es erlauben, eine größere Anzahl von besser kontrollierten Variablen und Bedingungen zu berücksichtigen und mit besser verstandenen Prinzipien zu manipulieren.8 Hierher gehören das Operations Research, die Systemforschung, die Planungsund Entscheidungstheorie. Ihr Ziel ist die Entwicklung von Aktionsmodellen, in denen Situationsparameter, Zielvariable und Handlungsalternativen miteinander verknüpft werden, so daß dann mit Hilfe geeigneter Verfahren akzeptable oder gar optimale Objektsituationen erreicht werden können. Die Nützlichkeit dieser Ansätze ist unbestritten. Vor allem auf der Ebene des niederen und mittleren Managements und für die Rationalisierung der repetitiven Entscheidung nach festem Schema haben sie ihren unmittelbaren praktischen Nutzen vielfältig bewiesen.9 Trotzdem kann man mit einiger Berechtigung kritisieren, daß sie bislang in wirklich wichtigen und einmaligen Entscheidungen kaum eine Hilfe geboten haben. So werden bislang der « Mehr-Personen-Spiel-Charakter », die Komplexität der Ziele einer Institution, die Problematik verschiedener Reichweiten der Voraussicht kaum verstanden und berücksichtigt. Die heute verfügbaren Modelle sind psychologisch dürr, weil sie die bunten Facetten interessanter Entscheidungssituationen nicht einzufangen vermögen. Dieser Einwand ist indessen sowenig stichhaltig wie beispielsweise ein Vorwurf gegen Newton, er habe eine allgemeine Lösung des Dreikörperproblems nicht explizit angeben können. So bescheiden die bisherigen Ergebnisse der Entscheidungstechnik im Hinblick auf die politische Entscheidungspraxis sein mögen, so nützlich sind sie für die Klärung der Struktur von Entscheidungsprozessen gewesen. So ist etwa die Bedeutung des instrumentellen Charakters der erforderlichen Wissensgrundlage klargeworden.
5. 5.1 Nehmen wir an, daß diese – hier nur skizzierten – Über legungen stichhaltig sind, und versuchen wir, einige der Hauptschwierigkeiten und Mängel bestehender politischer Aktionssysteme zu identifizieren, die auf das Fehlen von geeignetem instrumentellem Wissen zurückzuführen sind. Die Behebung dieser Mängel dürfte zur Verbesserung der Systeme im technischen Sinne beitragen: Zum Entwurf besserer Institutionen, zu wirksameren Prozeduren, zu klareren Zielen. Für die meisten dieser Fragen ist keine Lösung in Sicht, obwohl viele von ihnen von verschiedenen Seiten her systematisch behandelt werden. 5.2 Es beginnt mit der Problemidentifikation: Wie wird ein Sachverhalt zum Gegenstand politischen Handelns? Politische Probleme präsentieren sich keineswegs selbstverständlich und zwangsläufig. Zu jedem Zeitpunkt gibt es eine « Agenda », deren Länge wegen der begrenzten Kapazität zur Behandlung von
INSTRUMENTELLES WISSEN IN DER POLITIK 207
Problemen sehr beschränkt ist. Auf eine solche Agenda wird der Gegenstand permanenter politischer Auseinandersetzung gesetzt. Probleme werden kreiert, ausge wählt, sozialisiert, ausgehandelt, lebendig erhalten, verändert und gelegentlich gelöst. Dabei bleibt es nicht aus, daß häufig die falschen Probleme auf die Agenda geraten – wie sich nachträglich herausstellt. Um ein Bild von Hans Paul Bahrdt zu verwenden: Während der Wissenschaftler einem Hasen seiner Wahl nachlaufen mag und sich – falls er ihn nicht kriegt – einen anderen suchen darf, kann es dem Politiker geschehen, daß er einem Hasen nachläuft, ohne zu merken, daß er einen Löwen im Rücken hat. Diese Prozesse werden noch kaum durchschaut und überblickt und entziehen sich häufig der demokratischen Kontrolle. Es fehlt an Vorkehrungen für die frühzeitige Erkennung und Diagnose von Problemen, und es gibt noch kein Verfahren, die Folgen abzuschätzen, die sich aus der Nichtbeachtung eines Problems ergeben.10 5.3 Eng damit verwandt ist das Problem des angemessenen Diskurses über politische Sachverhalte. Um jedes politische Problem bildet sich eine Sprachregelung, eine Art und Weise, es begrifflich zu strukturieren und in einen Kontext zu verankern. Diese problem-spezifischen Diskurssysteme sind die Vehikel der Diskussion und Erörterung; sie sind die Bezugsräume, in denen die verschiedenen Standpunkte und Positionen gegeneinander abgegrenzt werden. Ich bin weit davon entfernt, die Lösbarkeit aller Probleme durch bloße semantische Manipulation zu predigen; aber die begriffliche Strukturierung eines Sachverhaltes spiegelt die Möglichkeit des Denkens wider und setzt damit die Möglichkeit des Handelns.11 Das « Gefängnis der Begriffe » engt das Unterscheidungsvermögen (Ch. S. Peirce) und somit das Situationsverständnis ein.12 Es gibt Beispiele dafür, wie wissenschaftlich erarbeitete begriffliche Unterscheidungen Eingang in das geläufige Vokabular des politischen Diskurses gefunden haben. So sind « Failsafe », « Minimaxstrategie », « Overkill » landläufige Begriffe geworden; die traditionelle Alternative « Krieg oder Frieden? » ist durch eine feinabgestufte Skala von Begriffen ersetzt, die es ermöglichen, die Relationen zwischen zwei Staaten nuanciert zu beschreiben – ein Verdienst von Institutionen wie der Rand-Corporation. Hier handelt es sich nicht um spontane oder « gewachsene » Begriffsbildungen, sondern um bewußte Konstruktionen, die das begriffliche Unterscheidungsvermögen und damit den Handlungsspielraum erweitern sollen. 5.4 Eine weitere Schwierigkeit liegt in der Aufstellung geeigneter Situationsmodelle, die alle signifikanten Faktoren in ihrer Verknüpfung enthalten und die relevanten Handlungsalternativen mit ihren mutmaßlichen Folgen darstellen. Die Fähigkeit des Gehirns, sich gleichzeitig mehrfach verflochtene funktionale Beziehungen zu vergegenwärtigen, ist sehr beschränkt. Die Stärke formaler Modelle liegt darin, daß sie komplexere und umfänglichere Zusammenhänge zu umfassen vermögen, als es dem « unbewaffneten Verstand » möglich ist. Diese Mo-
208 PLANUNG UND POLITIK
delle müssen nicht notwendig alles quantifizieren; es lassen sich auch l ogische und topologische Variable einbeziehen. An solchen Konstruktionen ist gar nichts My stisches, noch müssen sie unzulässige Vereinfachungen enthalten: Sie sind lediglich Abbilder unseres Situationsverständnisses, die uns helfen sollen, a lternative Zukünfte abzuschätzen. Unsere Fähigkeit zur Manipulation solcher Modelle ist trotz langer Bemühungen immer noch sehr begrenzt, insbesondere was die Suchverfahren in wohl definierten, aber komplizierten Entscheidungsspielräumen angeht.13 5.5 Die Konstruktion verläßlicher Situationsmodelle setzt ausreichende und zuverlässige Informiertheit voraus. Das Problem liegt darin, festzustellen, welche Daten man gerne hätte, wie man sie bekommt, wie man ihre Zuverlässigkeit abschätzt und wie man sie interpretiert. Das beste statistische Amt und der tüchtigste Geheimdienst können diese Fragen nicht ein für allemal lösen. Denn zur Datensuche braucht man eine leitende Hypothese – ein Modell der Situation, das die Suche leitet; und politische Entscheidungsprobleme sind – wie bereits erörtert – gerade durch die Einmaligkeit der jeweils relevanten Kategoriengruppe ausgezeichnet. Andererseits kommt man erst durch motivierende Informationen zu einer Situationshypothese. Dieser Zirkularität entgeht man nicht dadurch, daß man einfach « alle » Informationen für jeden eventuellen Bedarf zu sammeln versucht: Das perfekte universelle Nachrichtensystem kann es schon aus theoretischen Gründen nicht geben, und jeder Versuch, es anzustreben, führt unweigerlich zu ungeheuren unstrukturierten Datenmengen ohne praktischen Wert. Obendrein verstößt der Staat, der « alles » wissen will, gegen das demokratische Prinzip der Garantie maximaler Privatheit. In diesen Zusammenhang gehört eine ganze Reihe verwandter Schwierigkeiten. Wie kann der Politiker die Glaubwürdigkeit von fachmännischen B eratern überprüfen? Wie soll er die vieldeutigen Interpretationsmöglichkeiten « faktischer » Daten werten? Wie kann man dafür sorgen, daß bei einem politischen Problem die verschiedenen Kontrahenten gleichberechtigten Zugang zu den relevanten Daten erhalten? Wie kann man komplizierte Sachverhalte zum Gegenstand des öffent lichen Diskurses machen? 5.6 Damit ergibt sich die Frage nach der Klarheit und Plausibilität des politischen Diskurses für diejenigen, die von seinen Folgen betroffen werden. Wie kann man in einem demokratischen System garantieren, daß die politische Entscheidungsmaschinerie so Rechenschaft ablegt, daß ihre Auftraggeber die Argumente kritisch nachvollziehen können? Diese « Sozialisierung der Einsicht » ist kein müßiges Problem, das allenfalls bei Wahlen akute Bedeutung erlangt. Das beweisen die vielen Beispiele irregeleiteter Begeisterung und gläubiger Plebiszite, wo das verführte Volk seine eigene Katastrophe herbeizuführen geholfen hat. Wie kann man aber Vereinfachungen und Vergröberungen vermeiden und trotzdem Klarheit und Durchsichtigkeit des Situationsmodells gewährleisten?
INSTRUMENTELLES WISSEN IN DER POLITIK 209
Läßt sich ein Weg finden, die verschiedenen Standpunkte einer politischen Kon troverse klar gegeneinander abzugrenzen und vor allem ihre immer wieder vorhandene gemeinsame Basis klar herauszustellen? Bis zu welchem Grad ist es möglich und sinnvoll, die unausgesprochenen Grundüberzeugungen der Kontrahenten zu identifizieren und in den Diskurs einzubeziehen? Lassen sich bessere Formen der Debatte entwickeln, welche die Austragung der Konflikte kultivieren und den Weg zur Einigung durch höhere Rationalität ebnen? 5.7 Viele politische Ziele sind wenig klar formuliert oder zu « grob » für die notwendige Nuancierung der Sollzustände der Welt. Besonders solche Ziele und Werte, die aus ideologischen Konstruktionen abgeleitet werden, erweisen sich als unzureichend, da sie sowohl zu unspezifisch sind als auch keinerlei Hinweise darauf geben, auf welchem Wege sie zu erreichen sind. Selbstverständlich will jeder den « Wohlstand für alle »; das sagt aber noch nichts darüber, wie dieser Wohlstand beschaffen sein soll oder welche Mittel und Wege als zulässig erachtet werden, um ihn herbeizuführen. Offenbar sind politische Ziele und Werte keine Invarianten. Sie sind Objekte der allmählichen Veränderung, aber auch der bewußten Manipulation. Diese Veränderungen müssen nicht den Praktiken « geheimer Verführer » überlassen bleiben. Die Dynamik der Ziele und Werte ist nicht notwendig das Produkt unterschwelliger Pawlowscher Konditionierung. Sie kann und sollte das Resultat der artikulierten Auseinandersetzung und der Einsicht sein, der Überzeugung und nicht der Überredung. Dazu muß jedoch eine permanente Kontroverse lebendig erhalten werden, in der versucht wird, über die Angemessenheit der jeweiligen Ziele, Prinzipien und Werte dadurch Klarheit zu erhalten, daß sie zunächst systematisch in Frage gestellt werden. Wie kann man einen Konflikt darüber in Gang setzen, ob das Gartenlaubenidyll vom Eigenheim, dem eigenen Auto, etwas Fernsehen und ein paar Volksaktien den geeigneten Archetyp für die Sozialpolitik darstellt? Falls man das bejaht, zu welcher Art von Kultur würde das führen? Welche Alternativen lassen sich finden? Wie sollen wir leben? Wie können wir leben wollen? Unsere Gesellschaft ist schlecht gerüstet für die Freiheit zu wollen, was sie will. 5.8 Falsche und unzulängliche Situationsmodelle führen häufig zu Nebeneffekten, an die man vorher nicht gedacht hat. Diese sind entweder auf die Einwirkung « vergessener Faktoren » oder auch auf die kumulative Wirkung vieler individueller Verhaltensweisen zurückzuführen, die zwar je für sich akzep tabel sein mögen, aber in der Summe zu unerwünschten Effekten führen. So ist etwa die Stadt Los Angeles eine gigantische Ansammlung je für sich g roßartiger, komfortabler Einfamilienhäuser. Ihre Gesamtheit ergibt indessen eine amorphe vorstadtähnliche Landschaft, deren Zirkulationssystem täglich zweimal zusammen bricht und die in Gefahr ist, von ihrem eigenen Metabolismus vergiftet zu werden. Das hat niemand gewollt. Die Beispiele sind Legion: Hegels « List der Idee », die von
210 PLANUNG UND POLITIK
einer unvermuteten Ecke her plötzlich alles in ein ganz anderes Licht setzt, ist häufig nichts als die Folge vernachlässigter Effekte. 5.9 Ähnlich liegt das Problem der langfristigen Wirkungen olitischer Entscheidungen jenseits des Horizonts der aus dem bisherigen Geschep hen extrapolierbaren Ereignisse. Dabei kommt es häufig zur langfristigen Planung wider Willen: Obwohl sich bei einiger Sorgfalt gewisse Konsequenzen hätten berücksichtigen lassen, wird nur im Hinblick auf den unmittelbaren Nutzen gehandelt. Wahlgeschenke, Raubbau an natürlichen Ressourcen, Blindheit gegenüber wachsenden sozialen Spannungen sind an der Tagesordnung. Ein gutes Beispiel ist auch die Bildungspolitik der Bundesrepublik, deren katastrophale Folgen unschwer abzusehen sind: Die heutige Planung bestimmt, was « jenseits des Horizonts », d. h. in 10 bis 15 Jahren, sein wird.
6. 6.1 Diese Liste von offenen Problemen ließe sich verlängern. Es kam hier indessen nur darauf an, einige Mängel bestehender politischer Entscheidungssysteme aufzuzeigen, deren Milderung zu Verbesserungen im oben de finierten « technologischen » Sinne führen würde, wonach ein Entscheidungssy stem um so besser ist, je seltener es nach seinen eigenen Maßstäben versagt. Jedes dieser Beispiele soll einen Bereich umreißen, in dem es lohnt, « höheres » instrumentelles Wissen zu entwickeln. Man mag einwenden, daß dieser Versuch utopisch ist. Denn die Liste präsentiere nichts anderes als verschiedene Facetten der « condition humaine », diverse Erscheinungsformen menschlicher Beschränktheit und Unzulänglichkeit. Es sei folglich unrealistisch, die Probleme so allgemein zu formulieren, geschweige denn ihre Lösung auch nur zu versuchen. Natürlich wäre die Welt besser, wenn ihre Bewohner besser wären. Davon abgesehen: Was hülfe es, wenn man idealtypische Entwürfe zur Lösung der genannten Schwierigkeiten hätte – es wäre aussichtslos, sie realisieren zu wollen. Denn die bestehenden Praktiken und Institutionen seien wohletabliert; wolle man sie ändern, könne das nur mit ihnen und durch sie erfolgen. Damit seien aber Widerstände zu erwarten, die genau den geschilderten Verhaltensmustern entsprechen. Folglich sei die erfolgreiche Durchsetzung solcher Ideen äußerst unwahrscheinlich. Gegen diese Resignation kann man nur « aktivistisch » argumentieren: Bis zum Beweise der Unmöglichkeit hat man zu versuchen, jene « condition humaine » zu verbessern. Daß dies nicht so aussichtslos ist, belegt die Geschichte menschlicher Institutionen. Innovationen wie die Erfindung der parlamentarischen Demokratie, die Gründung der Vereinten Nationen, die Schaffung der Sozialgesetzgebung haben politische und soziale Systeme planvoll verbessert. Zweifellos wären
INSTRUMENTELLES WISSEN IN DER POLITIK 211
idealtypische « Lösungen » zu obigen Fragen keine Lösungen; jede Korrektur muß im Hinblick auf die bestehenden Verhältnisse konzipiert werden. Ihr Erfolg zeigt sich erst nach ihrer Durchführung. 6.2 Wenn man diesen Gedankengang akzeptiert, ergibt sich die wichtige Frage, wer solche Aufgaben des « social engineering » ausführen kann und soll. Der Politiker? Es ist eine Grundannahme der Demokratie, daß die Fähigkeit zum Regieren die bestverteilte Sache der Welt sei (so, wie es Descartes vom gesunden Menschenverstand behauptet). Prinzipiell kann jeder Bürger zum Regieren aufgefordert werden, und jeder kann und soll beurteilen, wer zum Regieren bestimmt werden soll. Es gibt jedoch keine Fachausbildung für das politische Handwerk.14 Dieses Problem ist keineswegs trivial. Es könnte sein (und dafür gibt es viele Anzeichen), daß ein auf hoher Stufe des Wissens agierendes politisches Entscheidungssystem Politiker mit solchen Qualifikationen erfordert, die auch dem geriebensten Fuchs nicht in die Wiege gelegt sind. Die aristokratische Annahme von der vererbbaren Fähigkeit zum Regieren ist genauso absurd wie die Idee Platons vom Philosophenkönig oder die naive Vorstellung, daß ein gewählter Vertreter seinen gesunden Menschenverstand durch fachmännische Beratung ergänzen könnte, ohne daß er damit einen Teil seiner Verantwortung und seiner Kontrollmöglichkeiten preisgibt. 6.3 Kann andererseits der Wissenschaftler die Rolle des « Politingenieurs » übernehmen? Sicher nicht, wenn er den Prinzipien seiner Subkultur treu bleiben will. Abgesehen davon, daß ihm das Mandat fehlt (man könnte natürlich ein Parlament von Professoren wählen – wovor uns das Schicksal bewahren möge!): Er würde die Basis aufgeben, auf der seine Qualifikation beruht (und der er sein beachtliches Prestige in unserer Gesellschaft verdankt). Denn alle jene Probleme sind insofern politisch, als jede Lösung vom Engagement ihres Bearbeiters abhängen muß. Trotzdem handelt es sich um die systematische Erzeugung von Wissen. Und die wirksamste Institution zur Produktion von systematischem Wissen ist bislang die Wissenschaft gewesen. Wissenschaftsartige Vorgehensweisen (wie sie ja auch vom Ingenieur übernommen wurden) scheinen die einzige Möglichkeit für die Erzeugung jenes erstrebenswerten instrumentellen Wissens höherer Stufe zu bieten. Hierbei meine ich mit « Wissenschaft » nicht ein soziales Gefüge von Professoren, Institutionen, Leuten, Publikationen, Kongressen und Standesregeln. Ich meine jene kritische und rationale Denkweise, der auch die heutige Institution Wissenschaft ihre Existenz verdankt, jene zielstrebige und vorsichtige Taktik zur Schaffung von verläßlicherem Wissen. 6.4 Jeder Wissenschaftler, der sich in ein solches Unterfangen verwickeln läßt, muß sich vergegenwärtigen, daß er entweder seine Mitglied-
212 PLANUNG UND POLITIK
schaft in der Gemeinde der Gelehrten aufgibt oder aber, daß diese ihren Charakter grundlegend verändern muß. « Eine Wissenschaft, die so weit geht, gibt sowohl ihre Objektivität als auch ihre Immunität auf. … Die Wissenschaft von morgen wird nicht objektiv sein … Die Dichotomien « objektiv-subjektiv », « voreingenommen- unvoreingenommen » werden ihre gegenwärtige Bedeutung einbüßen … Die Wissenschaft der Zukunft wird nicht politisch immun sein. »15 Es gibt viele Beispiele für « abtrünnige » Wissenschaftler, so etwa jene Zehntausende, die in den USA in die politisch relevante Innovation verwickelt sind. Trotzdem bin ich nicht sicher, ob jene Politingenieure die gleichen Leute sind, die jetzt die Wissenschaft machen. Wer auch immer jenes Wissen erzeugen wird: Er muß sich bewußt sein, daß Wahrheit – wie auch in der Institution Wissenschaft – Gegenstand eines « Sozialkontraktes » ist, daß die Diskussion über Werte und Ziele nicht objektiv und ein für allemal auf « letzte » Prinzipien verankert werden kann, daß jedes Wissen instrumentell werden kann, daß die Flucht in die gehegten und abgeschirmten Subkulturen esoterischer Wissenschaften und Künste nicht von der sozialen Verantwortung entbindet. Er hat allerdings eine Wahl zu treffen: Entweder kann er sich als Techniker des Regierens sine ira et studio dem jeweiligen Machthaber zur Verfügung stellen; oder aber – und das scheint der angemessenere Standpunkt zu sein –, er kann als Mitspieler mit seinen eigenen Vorstellungen in die Auseinandersetzung um die Sollzustände und die zu ihnen hinführenden Wege eingreifen. Eine solche Verwissenschaftlichung der Politik hätte unabwendbar die Politisierung der Wissenschaft zur Folge – ein Zustand, der im heutigen Selbstverständnis der etablierten Wissenschaft nicht vorgesehen ist. 6.5 Kommen wir zurück auf die eingangs gegebene Definition der Verbesserung eines Entscheidungssystems. Sie ist insofern relativistisch, als sie nicht normativ angibt, was als gutes Entscheidungssystem gelten soll. Das war Absicht. Denn das sollte eine offene Frage bleiben, ein Gegenstand der permanenten Auseinandersetzung, der gleichwohl nicht beliebiger Spekulation anheimgegeben ist. Es gibt etablierte Wertsysteme und Zielvorstellungen sowie Institu tionen, die sie zu verwirklichen trachten. Jeder, der sie ändern will, muß sich mit ihnen auseinandersetzen. Wenn ich hier den « instrumentellen Charakter » des politisch nützlichen Wissens, das « Know-how », so stark betont habe, dann nur, um zu unterstreichen, daß solches Wissen in den Dienst vieler verschiedener Absichten gestellt werden kann. Ein Hammer kann benutzt werden, um einen Nagel einzuschlagen oder um jemandem auf den Kopf zu schlagen; und Atomenergie kann in Haushaltsstrom oder nukleare Explosionen transformiert werden. Die einzige Möglichkeit zur Verbesserung der « condition humaine » liegt in der Gewinnung von instrumentellem Wissen jeder Stufe. Der Preis ist die Gefährlichkeit solchen Wissens. Wir müssen lernen, mit solchen Werkzeugen zu leben, die Bürde ihrer Entwicklung selbst in die Hand zu nehmen.
INSTRUMENTELLES WISSEN IN DER POLITIK 213
1 Kenneth E. Boulding: Political Implications of General Systems Research; General Systems, Yearbook of the Society for General System Research. VI, 1961, S. 1–7. 2 Karl R. Popper: The Poverty of Historicism; New York, Evanston, 1961. 3 Trotzdem scheint hier einige Zurückhaltung angebracht: Die Kenntnis der Kreisel-Gesetze hilft dem Radfahrer wenig; sie kann sogar hinderlich sein. 4 Popper, S. 58 ff. 5 Häufig wird in diesem Zusammenhang der Erfolg der Keynes‘schen Theorie für die Praxis der Wirtschaftspolitik der dreißiger Jahre erwähnt. 6 Eine Strategie des «disjointed incrementalism», eine Entscheidungstheorie marginaler Modifikation bestehender Systeme ist entwickelt in D. Braybrooke und Ch. E. Lindbloom: A Strategy of Decision; The Free Press, Glencoe, III, 1963. 7 Das Musterbeispiel einer Sammlung von instrumentellem Wissen für den Politiker liefern die Schriften von Machiavelli. Daß im allgemeinen so wenig politisches instrumentelles Wissen e xplizit dokumentiert wird, liegt einerseits daran, daß viele heuristische Regeln im Vorbewußtsein bleiben und nie formuliert werden, andererseits aber auch daran, daß die Formulierung solcher Regeln und ihre Veröffentlichung taktische Nachteile mit sich bringen kann. 8 Tatsächlich war gerade dieses Bedürfnis nach «höherem» instrumentellem Wissen für Militärs, P olitiker und Manager der Anlaß zur Entstehung jener hybriden «Wissenschaftstechniken», die man unter der Bezeichnung «Entscheidungstechnik» zusammenfassen kann. 9 Es ist jedoch auch auf einige Erscheinungen hinzuweisen, die ihre Nützlichkeit häufig herabsetzen: Seitdem in den USA das Operations Research ein reguläres Studienfach ist, treffen die Absolventen in der Wirtschaft auf erhebliche Hemmnisse, wenn es um die Durchführung der von ihnen v orgeschlagenen Maßnahmen geht. Einerseits haben sie nicht gelernt, wie man eine Lösung «verkauft»; andererseits scheinen diese Spezialisten der verständlichen, aber verhängnisvollen Neigung zu verfallen, eher die Realität ihren Modellen anzupassen, als umgekehrt Modelle der Situation nach Maß zu konstruieren. Es ist einfacher, ein Problem des Management in ein «gelerntes», wohletabliertes Problem der Lagerhaltung zu deformieren als die Zusammenhänge zwischen Vertreterorganisation, Auftragseingang und Produktionsmöglichkeiten zu untersuchen und zu modellieren. 10 Wie wenig sorgsam mit «dem Gesetz des Handelns», also der Freiheit, die Probleme zu setzen, umgegangen werden kann, zeigt sich, wenn etwa die Wiedereinführung der Todesstrafe oder die Notstandsgesetzgebung die politische Kapazität strapazieren, während der Ausgleich mit den östlichen Nachbarn oder der Bildungsnotstand nur an untergeordneter Stelle auf der Agenda plaziert sind. 11 Vgl. Benjamin Lee Whorf: Sprache, Denken, Wirklichkeit; herausgegeben und übersetzt von P. Krausser, Reinbek bei Hamburg, 1963. 12 Als Beispiel eines zu groben Diskurses mag der Ost-West-Konflikt dienen, der erstens als dichotomisch, zweitens als dominierend und drittens als unveränderlich verstanden wird. Die stark vereinfachende Formel «Kommunismus = Weltrevolutionsstreben = Inkarnation des Bösen» vermittelt zwar ein bequemes, dichotomes Weltbild, in dem sich gut und böse klar abgrenzen lassen; aber man begibt sich durch den Verzicht auf Unterscheidungen zwischen «Kommunismus 1» und «Kommunismus 2» eines nützlichen Differenzierungsvermögens, das der Aufweichung des verhärteten Dualismus sicher nicht abträglich wäre. Dabei weiß man doch mindestens seit Hegel, daß festgefahrene Alternativen über kurz oder lang «dialektisch» überspielt zu werden pflegen, und daß dann gewöhnlich derjenige, welcher dies zuletzt merkt, das Nachsehen hat. Es fragt sich, ob man solche dialektischen Umschläge nicht ihrerseits überspielen kann, indem man ihnen «unter die Arme greift». 13 Von besonderer Bedeutung sind Simulationsmodelle, die es erlauben, Konsequenzen verschiedener Verhaltensweisen unter verschiedenen Annahmen durchzuspielen. Hier wird keine optimale Entscheidung nach einem vorher eindeutig gegebenen Bewertungsverfahren gesucht. Man probiert vielmehr verschiedene Alternativen aus, um zu sehen, ob die resultierende Situation tatsächlich den Erwartungen entspricht. Das Vorbild dieser Methode sind die Sandkastenspiele des Generalstabes. Ihr Vorteil ist offensichtlich: Wenn sich etwa ein Konflikt unter einem breiten Spektrum von Annahmen als nicht aussichtsreich erweist, braucht man ihn gar nicht erst in «hardware» auszutragen. Diese Kunst der lebendigen, anschaulichen, flexiblen und komplexen Abbildung des Geschehens in einer harmlosen Laborsituation befindet sich in rascher Entwicklung. Ihre Nützlichkeit für außenpolitische und militä rische Zwecke ist vielfältig sondiert worden. 14 Über die Eignung der bisherigen politischen Wissenschaft als Basis des politischen Handwerks vergl. O. Morgenstern: Strategie – heute; Frankfurt, 1962 (deutsche Ausgabe von: The Question of National Defence). 1969, 8, 240 ff.
214 PLANUNG UND POLITIK
15 C. W. Churchman: Prediction and Optimal Decision; Prentice Hall Inc. Englewood Cliffs, NJ, 1961, S. 209 ff.
*
Quelle: Stadtbauwelt, Heft 21,1969, S. 20–25. Der Text basiert auf einem Beitrag zum Symposion « Forschung, Staat und Gesellschaft », das von der Studiengruppe für Systemforschung vom 22. bis 26. Juni 1964 in Berlin veranstaltet wurde. Der Aufsatz in der Stadtbauwelt ist der von Helmut Krauch herausgegebenen Veröffentlichung « Beiträge zum Verhältnis von Wissenschaft und Politik », Heidelberg 1966, entnommen.
INSTRUMENTELLES WISSEN IN DER POLITIK 215
Zur wissenschaftlichen und politischen Bedeutung der Entscheidungstheorie*
Vorbemerkung Die folgenden Ausführungen sind ein Versuch, die verschiedenen Ansätze, die unter der Bezeichnung « Entscheidungstheorie » zusammengefaßt werden können, auf ihre Gemeinsamkeit zu untersuchen und ihre Beziehungen zum System der Wissenschaft sowie zur Praxis der politischen Entscheidung festzustellen. Dabei ergeben sich grundsätzliche Bemerkungen zum Wissenschaftsbegriff, zur Beziehung zwischen Theorie und Praxis und zur Rolle von Forschung und Entwicklung in den modernen sozialen Systemen. Ein großer Teil der folgenden Darstellung ist diesen Grundsatzproblemen gewidmet. Bei der Schilderung der Eigenarten der Entscheidungstheorie ist das Hauptgewicht auf die Schwierigkeit gelegt, die eine solche Wissenschaft mit sich bringt. Die vorhandenen Teiltheorien und speziellen Modelle werden nur am Rande erwähnt. Es wurde aber Wert darauf gelegt, daß das hier Gesagte diese Ergebnisse widerspruchslos enthält oder wenig stens zuläßt. Es wurde darauf verzichtet, die mathematischen Formulierungen und die empirischen Prozeduren zu schildern. Im jetzigen Stadium der Untersuchung ist nur eine Skizze der Überlegungen möglich. Es liegt in der Natur der Sache, daß terminologische Schwierigkeiten auftreten (besonders bei einer Darstellung in deutscher Sprache, weil es hier noch kaum eine Sprachregelung gibt): Es ist zuzugeben, daß die hier gegebenen Formulierungen durchaus noch der Schärfung und Klärung bedürfen.
I. Die in den letzten beiden Jahrzehnten entstandenen Wissenschaften des Operations Research, der Kybernetik, der Informationstheorie, der Spieltheorie, des Sy stem Engineering – um nur die wichtigsten zu nennen – haben viele gemeinsame Ansätze und Überschneidungen. Das ist nicht verwunderlich, wenn man an ihre Entstehung denkt. Sie sind sämtlich Kinder des Zweiten Weltkrieges. Es begann mit der « Dienstverpflichtung » von Wissenschaftlern für die Lösung neuartiger organisatorischer und technischer Aufgaben der modernen Kriegsführung, die die Kompetenz der Militärs und Ingenieure überschritten. Die Entwicklung des R adars, die Versorgung von kontinentalen Kriegsschauplätzen und die Planung von Strategien stellten Entwurfs- und Entscheidungsprobleme, die nach herkömmlicher Art nicht mit hinreichend hoher Erfolgssicherung gelöst werden konnten. Die Er-
216 PLANUNG UND POLITIK
gebnisse dieser wissenschaftlichen Kooperation sind nicht nur neue Technologien – etwa der Nachrichtentechnik, der Datenverarbeitung oder Astronautik: Jene ersten Bemühungen haben zu neuen, eigenständigen Wissenschaften geführt, die nicht nur in zunehmendem Maße auch ihre « friedlichen Anwendungen » finden, sondern auch zu wichtigen und notwendigen Werkzeugen der Planung, der Politik, der Entwicklung geworden sind. In den USA z. B. zählen die auf diesen Gebieten tätigen Wissenschaftler heute bereits nach Zehntausenden, jährlich werden e inige hundert Millionen Dollar für die Förderung und – vor allem – die Anwendung dieser Techniken ausgegeben. Die Gemeinsamkeiten der genannten Disziplinen erklären sich aus ihrem Entstehungsanlaß: Sie sind erfunden worden für Situationen unter konkretem Handlungszwang, in denen der Wissenschaftler nicht nur als Berater im herkömmlichen Sinn fungiert, sondern als mitverantwortliche « Entscheidungshilfe ». Dafür gibt es folgende Motive: • es steht zuviel auf dem Spiel; die Kosten von Fehlentscheidungen sind so hoch, daß es sich lohnt, die Entscheidung mit den besten verfügbaren Mitteln zu begründen und abzusichern oder sogar erst neue Methoden für die Absicherung der Entscheidungen zu entwickeln (z. B. bei Problemen der Verteidigungsstrategien, der Förderung der Entwicklungsländer, bei Projekten der Atomtechnik und Raumfahrt); • man kann das Problem auf herkömmliche Weise nicht bewältigen; es ist zu umfangreich und komplex (z. B. ein Weltraumprogramm); • man möchte es rationeller und billiger haben (z. B. durch Automatisierung); • man möchte ein System gegen Katastrophen durch Unzulänglichkeiten und Fehler sichern (z. B. ein Verteidigungssystem gegen Herostraten und den Zufall, ein Wirtschaftssystem gegen Krisen); • man möchte wissen, welche Ziele sinnvoll anzustreben sind; es stellt sich heraus, daß die politischen und ideologischen Zielvorstellungen zu grob und zu pauschal sind, um aus ihnen Handlungsanweisungen für eine konkrete und weitreichende Entscheidung abzuleiten: Geschichtsphilosophische Programme erweisen sich immer seltener als praktikable Normen für die politische Entscheidung (z. B. in der Entwicklungsplanung oder in der Verteidigungspolitik).
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 217
Hinzu kommt die Überzeugung, daß wissenschaftliches Vorgehen angesichts dieser Schwierigkeiten sinnvoll und erfolgversprechend ist. Im Zeitalter der « Szientifikation » liegt diese Vermutung nahe – obwohl sie selbst wieder in den Verdacht einer positivistischen Geschichtsphilosophie gerät: Wissenschaftlichkeit mit dem Anspruch auf die Objektivität einer letzten Instanz gerät in die bedenkliche Nähe der ungehemmten Fortschrittsgläubigkeit. Die Rechtfertigung der Szientifikation ist an ihren Wirkungen abzulesen: Die wissenschaftliche – insbesondere die naturwissenschaftliche – Methode ist das wirksamste Werkzeug zur Prägung der Reali tät geworden (« scientific method » ist leider im Deutschen ohne Entsprechung; die hier gemeinten Methoden sind natürlich nicht allein « natur »-wissenschaftlich, gemeint ist die spezifische Vorgehensweise, nicht ihr Objekt): « Die Wissenschaft (‹ science ›) frißt sich wie eine Krankheit weiter … Exakte Methoden lassen sich kaum jemals wieder abschütteln. » (O. Morgenstern) « Diejenige Haltung, welche die rationalen Wissenschaften und die Technik in den Mittelpunkt des Denkens stellt, bietet viel bessere Chancen des Überlebens als das verdrossene Ärgernis über die Technik, welche den westlichen Intellektuellen oftmals kennzeichnet! » (K. Steinbuch)
Die « scientific method » ist die moderne Entsprechung zum Programm von Spinoza, die Welt « more geometrico » zu ergründen. Die neue Tendenz zur « engagierten Wissenschaft » ist jedoch nicht ohne Folgen für die Wissenschaft und ihre Ideologie geblieben. Das klassische Ideal der Wissenschaft weist ihr die einzige Aufgabe zu, Erkenntnisse zu erringen, da neue Erkenntnisse Fortschritt in einem absoluten Sinne bedeuten und damit « um ihrer selbst willen » als erstrebenswert gelten müssen. Die Anwendbarkeit dieser Erkenntnisse gilt kaum noch als Problem der Wissenschaft; sie wird sich schon erweisen. Die Wissenschaft bildet eine eigene Realität, eine autonome Provinz neben der « außerwissenschaftlichen » Welt. Dieses Ideal hat sich als recht wirksam erwiesen. Die Institution Wissenschaft als ein von den Wechselfällen des Geschehens isolierter Generator von « Innovation » ist ein wichtiges Element der modernen sozialen Systeme. Die hier zur Diskussion stehenden neuen Disziplinen stellen jedoch einen Wissenschaftstyp dar, der sich nicht in dieses Programm einfügen läßt: • sie sollen Erkenntnisse nicht mehr um ihrer selbst willen gewinnen – ohne Rücksicht auf ihre spätere Nutzung –, sondern im Hinblick auf konkrete Aktionsaufgaben; • ihre Resultate sollen Empfehlungen zum Handeln sein; • der Wissenschaftler ist Partner (« Mitspieler ») bei der Planung und Entscheidung.
218 PLANUNG UND POLITIK
Damit wird der Entscheidungsvorgang selbst zum wissenschaftlichen Objekt. Man kann bezweifeln, ob eine derartige Aktivität überhaupt noch als Wissenschaft bezeichnet werden soll. Tut man es dennoch, ist damit eine Revision des Wissenschaftsbegriffes verbunden, die das herkömmliche Ideal zum Extremfall macht. Die Grundlage einer solchen Wissenschaftstheorie kann nicht nur eine « Erkenntnis theorie » sein, denn Erkennen ist nur eine Komponente des Handelns. Aber auch eine sprachanalytische Wissenschaftstheorie kann diese Rolle nicht erfüllen. Vielmehr brauchte man eine « Handlungslehre » zur Grundlage, die das Erkennen als Voraussetzung des Handelns betrachtet. Allerdings würde eine Wissenschaft in diesem weiteren Sinne viele der für sie bislang typischen Merkmale verlieren: « Eine Wissenschaft, die so weit geht, gibt sowohl ihre Objektivität als auch ihre Immunität auf … Die Wissenschaft von morgen wird nicht objektiv sein … die zukünftige Wissenschaft wird nicht politisch immun sein. » (Churchman)
Durch einen solchen Wissenschaftsbegriff wird die oben geäußerte Befürchtung eines getarnten Positivums entkräftet – oder doch wenigstens gemildert. Wenn die Institution Wissenschaft ihren apodiktischen Objektivitätsanspruch aufgibt, und wenn sie sich einschließlich ihrer Ziele und Werte als dem historischen Wandel und dem Wechselspiel der Kräfte unterworfen versteht, dann verliert sie den Charakter der Patentideologie und der starren, absoluten Instanz.
II. Es fehlt nicht an Versuchen, daraus die Konsequenzen zu ziehen und die eingangs erwähnten neuen Disziplinen nach ihren Gemeinsamkeiten und Eigentümlichkeiten zu systematisieren und das Ganze zum System der herkömmlichen Wissen schaften in Beziehung zu setzen. Es gibt eine ganze Reihe von Vorschlägen für Dachbegriffe und Sammelbezeichnungen, von denen sich jedoch bislang keiner durchgesetzt hat. Im Gegensatz zu der Spezifizierung nach Objektbereichen, wie es in den traditionellen Wissenschaften üblich ist (Physik, Volkswirtschaftslehre), sind die neuen Disziplinen gerade durch eine große Beliebigkeit der Objekte ausgezeichnet (kybernetische Betrachtungen sind sowohl für ökonomische als auch für biologische Sachverhalte angebracht), weshalb sich eher eine Klassifizierung nach Methoden und Ansätzen empfiehlt. Es steht zu vermuten, daß sich als Oberbegriff eine Bezeichnung wie « Allgemeine Methodologie », « Systemwissenschaft » oder « Praxeologie » (Kotarbinski, Lange) durchsetzen wird. Man mag diese Frage der Benennung als nebensächlich ansehen und der Meinung sein, daß nur die Resultate interessant seien. Aber Begriffe sind Programme. Der Name steckt das Benannte ab. Und von der Benennung dieser « Handlungslehre » hängt ihre Rolle
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 219
ab. Ein negatives Beispiel möge erwähnt werden: Wenn es im deutschen Sprachgebrauch üblich geworden ist, « operations research » mit « Unternehmensforschung » zu übersetzen, so ist das zwar im Verlaufe einer Wirtschaftskonjunktur verständlich, aber diese Bezeichnung legt die nichtbetriebswirtschaftlichen Möglichkeiten dieser Disziplin zumindest nicht nahe, wenn sie nicht sogar ausgeschlossen werden (etwa die Anwendung auf die Stadt- und Regionalplanung, die Forschungsplanung, die Politik). Die hier zur Diskussion stehende Wissenschaft ist also eine Wissenschaft vom Handeln, insbesondere vom « zweckrationalen » Handeln (Max Weber). Eine solche Wissenschaft ist gleichzeitig • deduktiv (wie die Mathematik), indem sie aus axiomatischen Systemen Folgerungen ableitet und Modelle für Handlungs typen konstruiert, • induktiv (wie die Physik), indem sie empirische Befunde über Verhaltensweisen zu Hypothesen verarbeitet, welche die Grundlage für Theorien bilden, • instrumentell (wie das Ingenieurwesen), indem sie die Mittel und Methoden für die Anwendung in konkreten Situationen entwickelt, • pragmatisch, indem sie diese Anwendbarkeit ständig berücksichtigt und bei der Anwendung selbst beteiligt ist (wie die Medizin). Eine solche Wissenschaft hat « metawissenschaftlichen » Charakter, da sie • keiner der bestehenden Wissenschaften zuzurechnen ist, • viele der bestehenden Wissenschaften betrifft, • auch die Vorgehensweisen der Wissenschaften zum Gegenstand haben kann, • neue Methoden entwickelt, • eine adäquate Sprache vermittelt, um über Wissenschaft zu sprechen und über Forschung Forschungen anzustellen, • es gelegentlich erlaubt, Indikationen von einer Wissenschaft in eine andere zu übertragen, • Strukturverwandtschaften verschiedener Wissenschaften auf deckt, • Zusammenhänge zwischen Forschung, Entwicklung und Realisation untersucht, die Verbindung von Wissenschaft und Anwendung vermittelt, den polaren Gegensatz von Theorie und Praxis aufhebt.
220 PLANUNG UND POLITIK
Eine derartige Wissenschaft ist naturgemäß interdisziplinär. Bei allen diesen neuen Disziplinen sind von Beginn an Vertreter der verschiedensten Fachrich tungen beteiligt gewesen: Ingenieure, Mathematiker, Biologen, Ökonomen, Sozio logen, Politologen, Physiker und Philosophen. Abgesehen von « graduate programs » in Operations Research gibt es heute noch kaum eine Ausbildung für diese neuen Wissenschaften, so daß sie nach wie vor von den verschiedenartigsten Spezialisten gemeinsam getragen und weiterentwickelt werden. Optimisten und Enthusiasten mögen in dieser Tatsache eine Chance für eine Wiederherstellung der vielbetrauerten universitas litterarum sehen.
III. Wie schon angedeutet, gibt es heute noch nicht eine derartige Metawissenschaft in strenger und geschlossener Form. Es gibt nur Versuche und Tendenzen. Der bisherige Stand der Entwicklung läßt im wesentlichen zwei Hauptrichtungen oder Schwerpunkte erkennen, die man unter den Bezeichnungen « Systemforschung » und « Entscheidungstheorie » subsumieren kann. Das Objekt der Systemforschung ist das Verhalten von Systemen. Ein System ist eine multivariable Gegebenheit (ein Nachrichtensystem, ein Produktionsprozeß, eine Ökologie, ein biologischer Organismus, eine militärische Organisation). Das Verhalten der Systeme ist beschrieben durch die zeitliche Abfolge ihrer Zustände. Systeme zerfallen in Komponenten, die miteinander gekoppelt sind, d. h. Wirkungen abtauschen. Diese Wirkungszusammenhänge stellen sich dabei nicht als Material- oder Energieflüsse dar: Im Gegensatz zum klassischen physikalischen oder technologischen System werden « Informationsflüsse » betrachtet. Information ist das Substrat, das transportiert und transformiert wird (z. B. die Nachricht über einen Energiefluß). Diese Eigenart ergibt sich aus der Absicht, vorwiegend die Organisation, die Steuerung, Kontrolle und Regelung irgendwelcher Systeme betrachten zu wollen. Die Systemforschung beschränkt sich nicht auf die Beobachtung existierender Systeme. Ihre Hauptabsicht besteht in dem Entwurf von Systemen, die einen bestimmten Zweck oder eine Mission zu erfüllen haben. Besonders wichtig sind dabei die sog. « Mensch-Maschine-Systeme », für die es eine geeignete Arbeitsteilung zwischen menschlichen und mechanischen Komponenten zu ermitteln gilt. Die Kategorien der Systemtheorie wie « Determiniertheit », « Stabilität », « Rückkopplung », « Komplexität », « Selbstorganisation », « Lernen » usw. sind so beschaffen, daß sie in der Tat die verschiedensten Systeme zu charakterisieren erlauben. Zur Systemtheorie gehören auch Theorien des Entwerfens und der Heuristik. Sie umfaßt große Teile der Kybernetik, des Operations Research, die Kommuni kationstheorie und auch Teile der Spieltheorie – neben Ergebnissen des Human Engineering, der Psychologie, der Nachrichtentechnik und der modernen Statistik.
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 221
Daneben lassen sich als Entscheidungstheorie alle diejenigen Aktivitäten zusammenfassen, welche das Problem der Auswahl einer geeigneten Maßnahme untersuchen, die eine gegebene Situation in eine andere Situation überführt, welche den Zielen und Absichten eines « Akteurs » möglichst gerecht wird. Die Klasse der somit zu betrachtenden Entscheidungssituationen reicht von der des Politikers über die des Wirtschaftlers oder des Militärs bis zu der des Forschers oder auch des Schachspielers. « Risiko », « Strategie », « Nutzen », « Rationalität », « Erwartung », « Ziel » sind Begriffe, die für alle diese Situationen relevant sind. Diese Dichotomie des heutigen Standes der « Praxeologie » bezeichnet, wie erwähnt, nur Schwerpunkte der Entwicklung. Selbstverständlich kann ein « decision maker » samt seinem Gegenüber auch als System aufgefaßt werden; und andererseits stellt sich der Entwurf eines Systems auch als Sequenz von Entscheidungen dar. Im folgenden soll hauptsächlich auf das eingegangen werden, was hier als Entscheidungstheorie bezeichnet wurde.
IV. Das Phänomen der Entscheidung war bislang eine Domäne von Philosophie, Theologie und Geschichtswissenschaft, in gewissem Maße auch der Psychologie. Dabei hat die Frage nach dem « Wesen » der Entscheidung das Problem der Technik und der Praxis der Entscheidung weitgehend in den Hintergrund gedrängt. Die Philosophie der « praktischen Vernunft » hat in den letzten Jahrzehnten nur wenig Interesse gefunden. Das Zustandekommen einer Entscheidung ist selten der Gegenstand wissenschaftlicher Betrachtung gewesen. Die Befähigung zur schwierigen Entscheidung gilt als Privileg der begnadeten Persönlichkeit. Man könne sie kaum erlernen; es gebe keine Regeln und Rezepte dafür. Weitblick, Besonnenheit, Verantwortungsbewußtsein seien Faktoren, die nicht näher zu beschreiben seien. Entscheidungsregeln, wie sie etwa von Machiavelli angegeben wurden, seien unmoralisch und zynisch; die Maximen der Moralphilosophen gelten als trivial und selbstverständlich. Für den täglichen Gebrauch sei der « gesunde Menschenverstand » durchaus zureichend. Und der Athlet der folgenreichen und schweren Entscheidung, der Held des einsamen Entschlusses, genießt hohe Verehrung, und die « entscheidungsfreudige Persönlichkeit mit jahrzehntelanger Erfahrung » ist äußerst begehrte Mangelware, wie die Stellenangebote in den großen Tageszeitungen beweisen. Jeder, der angesichts dieser Meinungen das Phänomen der Entscheidung mit wissenschaftlichen und obendrein « naturwissenschaftlichen » (scientific!) Mitteln behandelt, gerät in den Verdacht, etwas als Entscheidung zu bezeichnen, was keineswegs dem « Eigentlichen » oder dem « Wesen » der Entscheidung entspricht. Selbstverständlich kann es sich nicht darum handeln, naturwissenschaftliche Begriffe und
222 PLANUNG UND POLITIK
Vorstellungen einfach zu übertragen – auch wenn sich verlockende Analogien bieten. Allzu leicht käme man sonst zu unerlaubten Biologismen. Begriffe wie « Kampf ums Dasein », « natürliches Wachstum » usw. sollten zumindest aus den grundlegenden Betrachtungen ferngehalten werden. Übertragen und benutzt werden sollte lediglich die Denk- und Schlußweise der Naturwissenschaft, wie oben bereits erörtert. Man darf jedoch die Frage, ob die Objekte einer derartigen Betrachtung denn nun wirklich Entscheidungen im landläufigen Sinne sind oder auch nur sein können, nicht als unwesentlich abtun. Nicht selten bringt die naturwissenschaftliche Benutzung eines Begriffes wesentliche Begriffsverschiebungen und Begriffsverengungen mit sich (man denke etwa an die Präzision des Kraft- und des Energie begriffes im vorigen Jahrhundert). Die Begriffserklärung ist aber notwendig, schon um endlose Diskussionen darüber zu vermeiden, ob denn das Eigentliche nun wirklich erfaßt sei. Tatsächlich bringt das Objekt « Entscheidung » eine Reihe merkwürdiger Konsequenzen für seine wissenschaftliche Betrachtung. Zunächst einmal: Jede wissenschaftliche Tätigkeit ist selbst eine Sequenz von Entscheidungen. Diese Entscheidungen beruhen auf Wertsystemen, die der Wissenschaft eigentümlich sind. Schon die Auswahl von Forschungsobjekten als « wissenschaftlich interessant », die Aufstellung von Begriffen, die Festlegung von Normen für wissenschaftliche Richtigkeit beruhen auf Konventionen und Traditionen « vorwissenschaftlichen Charakters », die nichts weiter sind als etablierte Wertsysteme. Da eine Wissenschaft von der Entscheidung notwendig auch eine Wissenschaft der Werte enthält, kann man dann ein spezielles Wertsystem, nämlich das der Wissenschaft, methodisch auszeichnen? Teilt man dann nicht – unausgesprochen oder gar uneingestanden – diesem speziellen Wertsystem eine nach eben diesen eigenen Maßstäben der Wissenschaft nicht gerechtfertigte Superiorität über alle anderen Wertsysteme zu? Ohne diese Paradoxie aufzulösen: Der « wissenschaftlich angemessenere » Standpunkt ist derjenige, der auch die wissenschaftlichen Wertsysteme in die Betrachtung einbezieht und auf ihren absoluten Objektivitätsanspruch verzichtet. Auch das wissenschaftliche Wertsystem ist der Veränderung unterworfen, es hat seinen Platz im Widerstreit der Wertsysteme, und der Wissenschaftler ist nolens volens ein politischer Mitspieler der resultierenden Auseinandersetzung. Das gilt für jede Wissenschaft, aber in besonderem Maße für eine Wissenschaft von der Entscheidung. Angesichts der jüngeren politischen Entwicklung wird viel über den zunehmenden Einfluß der Wissenschaftler auf die Politik diskutiert. Insbesondere der Einfluß der « Berater » bei den weltpolitischen Entscheidungen der USA gab den Anlaß zu manchen kritischen Bemerkungen über akademische Besserwisser. Trotzdem wird diese Entwicklung sich fortsetzen, da sich keine Alternative für sie bietet. Die Institution Wissenschaft hat ihre Rolle geändert. Die unabweisbare Folge der Verwissenschaftlichung der Politik ist die Politisierung der Wissenschaft.
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 223
V. Bevor man sich der Frage zuwendet, was unter einer Entscheidung verstanden werden soll, muß man sich für einen der beiden folgenden Standpunkte entscheiden: a) den Standpunkt des externen Beobachters, der das Verhalten eines Entscheidungen fällenden Systems « von außen » und ohne Beteiligung studiert; b) den Standpunkt des « decision makers » : Der Wissenschaftler hat sich selbst zu entscheiden, oder er hat sich auf die Seite eines decision makers zu schlagen. In beiden Fällen geht es um die Determinierung eines Objektsystems (O-Systems); im ersten Falle will man das Verhalten des Entscheidungen fällenden Objektes verstehen, d. h. voraussagen können. Im Falle b) soll das Objekt durch aktives Verhalten in einem erstrebten Sinne verändert werden. Determinierung bedeutet den Abbau von Ungewißheit. Das kann durch Verbesserung der prognostischen Fähigkeiten oder durch aktiven Eingriff erfolgen. Im Falle a) sollen also Regeln über das Entscheidungsverhalten eines O-Sy stems empirisch ermittelt werden. Das geschieht, indem man ein Modell des betreffenden Objektes aufstellt, welches das Wissen über dieses Objekt beinhaltet. Dieses Modell ist zureichend, wenn es erlaubt, das Verhalten des Objekts aus der Kenntnis vergangener Situationen für eine zukünftige Situation abzuleiten, d. h. zu prognostizieren. Zu diesem Zweck muß man die Determinanten suchen, die das Verhalten des O-Systems steuern. Nimmt man den behavioristischen Standpunkt – oder neutraler: den verhaltenstheoretischen Standpunkt – ein, kann diese Information allein aus dem beobachteten Verhalten bezogen werden. Wann ist es unter diesen Umständen möglich, ein Verhaltensmuster als entscheidungsgesteuert zu bezeichnen? Ist Entscheidung nicht ein aus der Introspektion gewonnener Begriff, der nur durch Analogieschluß auf Subjekte übertragen werden darf, die wir als « unseresgleichen » anzusehen gewöhnt sind? Es gibt leichte und schwere Entscheidungen, aber trotzdem ist der Energieverbrauch für eine Entscheidung gering und damit für den externen Beobachter kaum observabel. Die energetische Bestimmung von Entscheidungsakten ist so gut wie ausgeschlossen; es bleibt die kommunikationstheoretische Betrachtungsweise übrig. Entscheidungsprozesse müssen sich also aus der Ordnung und Struktur der das Objektverhalten beschreibenden Zuständefolge, der sog. Verhaltenstrajektorie, bestimmen lassen. Wenn man sich die Mannigfaltigkeit der möglichen Zustände des Systems als geome trischen Raum vorstellt, bildet sich das Verhalten des Systems als Pfad in diesem Raum ab. Den einzelnen Stationen dieses Pfades sind als Parameter die Zeitpunkte angeheftet, in denen diese Zustände eingenommen werden. Es ist klar, daß – retro spektiv betrachtet – dieser Pfad einen einfachen Weg ohne Verzweigungen bildet.
224 PLANUNG UND POLITIK
Das ist aber anders, wenn die Verhaltenstrajektorie in die Zukunft extrapoliert werden soll. Dann werden sich die zu erwartenden Verlängerungen der bereits realisierten Trajektorie auffächern. Dieser Fächer wird um so enger sein, je genauer die Kenntnis des beobachteten Systems ist. Diese Bündel möglicher und erwarteter Trajektorien sind mit zunehmendem Abstand vom Ausgangspunkt, also mit wachsender Länge des Zeitintervalls, über das prognostiziert wird, immer divergenter. Diese prognostischen Fächer sind die Folge imperfekter Determinierung. Daneben aber gibt es Fälle, in denen der prognostische Fächer nur aus einigen wenigen Trajektorien besteht, die wohlunterscheidbar sind, und die als alternative Verzweigungen der bisherigen Trajektorie betrachtet werden können. Während im vorigen Falle die verschiedenen Trajektorien mit verschiedenen Graden der Erwartung gewichtet werden konnten (es gibt einen « wahrscheinlich sten » Pfad), hat jetzt jeder Pfad eine hohe Erwartung für sich. Es ist dem Experimen tator oder Beobachter nicht möglich, die Wahl des Pfades aus dem bisherigen Verhalten abzuleiten. Solche Verzweigungsstellen zukünftiger Trajektorien wird man als Situationen der Entscheidung bezeichnen. Sie sind also singulare Stellen im Modell des Objektverhaltens. Wenn man diese Interpretation akzeptiert, dann fällen auch der Spielwürfel und die Ratte im Labyrinth des Psychologen Entscheidungen. Denn ihre Verhalten zeigen solche Singularitäten der Auswahl aus diskreten Mengen von Alternativen. Das ist nicht verwunderlich. Denn der Würfel ist mit Vorbedacht so eingerichtet, daß er sechs stabile Gleichgewichtszustände besitzt, zu denen je große Mannigfaltigkeiten von Trajektorien führen, die jedoch in so komplizierter Weise labil von den Anfangsbedingungen eines Wurfes abhängen, daß man die allerschlechtesten Voraussetzungen für eine Prognose hat. Aus diesem Grunde eignet sich ein Würfel auch besonders gut als synthetischer Mitspieler in Gesellschaftsspielen oder auch als Orakel. Und ein Labyrinth ist absichtlich so eingerichtet, daß es der eingesperrten Ratte diskrete Alternativen aufzwingt. Der Biologe spielt gegen die Ratte. Er geht gewissermaßen eine Wette auf ihr Verhalten ein. Die Ratte verliert die Eigenschaft des Entscheidungen fällenden Systems, sobald sie ihre Aufgabe gelernt hat, also sich voraussagbar verhält. Es gibt eine Reihe von Behavioristenwitzen zu diesem Sachverhalt: Die Ratte kann nämlich « von ihrem Standpunkt aus » nach gelernter Aufgabe sagen, daß sie den Experimentator konditioniert habe. Denn dann « hat sie ihn endlich so weit gebracht », daß er sie jedesmal nach Durchlauf des Laby rinths mit Futter versorgt. Die Stellen der Entscheidung des Objektsystems sind also durch das Modell des Beobachters festgelegt: Es sind die Stellen alternativer Verhaltenserwartungen. Enthält das Modell solche Stellen, so programmiert jede Entscheidung des Objektsystems ein Stück seiner Verhaltenstrajektorie, indem unter den vom Beobachter angebotenen oder für möglich erachteten Trajektorien eine einzige realisiert wird. Die Entscheidungstheorie vom Standpunkt a) aus sucht nach Motiven für dieses Verhalten, d. h. nach Determinanten, um das Objektmodell zu korrigieren.
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 225
Je besser das gelingt, umso mehr verliert das Objekt für den Beobachter in der betrachteten Situation die Eigenschaft, « sich zu entscheiden ».
VI. Im Falle b) liegen die Verhältnisse anders. Ein « Akteursystem » (A-System) befindet sich in der Lage, angesichts eines « Objektsystems » (O-System) sein Verhalten programmieren zu müssen. Es steht unter « Handlungszwang », wenn man auch das Nichthandeln, das « Passen », als Verhalten betrachtet. Eine Entscheidungssituation liegt dann vor, wenn unter verschiedenen alternativen Verhaltensmöglichkeiten eine ausgewählt werden muß. Wann das der Fall ist, hängt abermals vom A-System ab; es kann in jedem Augenblick innehalten und nach Alternativen suchen oder aber sich der Trägheit seines bisherigen Verhaltens überlassen. Psychologisches Merkmal dieses Entscheidungsprozesses scheint zu sein, daß er « bewußt » vollzogen wird und nicht blind. Sind die alternativen Verhaltensmöglichkeiten erst einmal erschlossen, könnte man die Entscheidungslast einem Mechanismus übertragen, etwa einem Würfel oder einem Orakel. Das ist aber nur selten ratsam, nämlich nur dann, wenn es gar keinen Grund gibt, einer bestimmten Alternative den Vorzug zu geben. Sonst sucht man so lange nach Argumenten und wägt sie ab, bis die Symmetrie der Ratlosigkeit angesichts der Alternativen zugunsten von einer von ihnen abgebaut ist. Es ist geradezu ein Charakteristikum der bewußten Entscheidung, daß ihre Vorbereitung im Abbau der Entscheidungsproblematik besteht. Dieser Prozeß der « Motivation » wird solange fortgesetzt, bis es klar ist, daß die schließliche Wahl so und nicht anders zu treffen ist. Es wäre « irrational », dann eine andere als diese Alternative zu wählen. Die Entscheidung ohne Motiv scheint es kaum zu geben. André Gide läßt in den « Verliesen des Vatikans » seinen Helden Lafcadio vergeblich den « act gratuit » versuchen. Das Unterfangen, ein unmotiviertes Verbrechen in die Welt zu setzen, mißlingt. Solange kein Täter entlarvt ist, sucht die Gesellschaft nach Motiven, bis sie einen plausiblen Täter findet – wenn es auch nicht der « wahre » Täter ist. Er gilt so lange als der wahre Täter, bis Justiz und Gesellschaft einen plausibleren Täter gefunden haben. Hierauf beruht jede Kriminalistik und jede Geschichtswissenschaft. Die Aufgabe der Entscheidungstheorie besteht darin, geeignete A lternativen zu erschließen und die Unsicherheit der Wahl zwischen ihnen zu reduzieren, bis einer von ihnen der eindeutige Vorzug gebührt. Es bedarf kaum der Erwägung, daß selbstverständlich Fehlentscheidungen dadurch nicht ausgeschlossen werden können. Der Motivationsprozeß kann sich natürlich nur auf die vorhandene Kenntnis dessen, was das A-System für erstrebenswert hält, und auf die vorhandene Kenntnis vom Verhalten des O-Systems stützen. Dieses Wissen kann vom Standpunkt a) aus gewonnen worden sein.
226 PLANUNG UND POLITIK
Für das Folgende soll der Standpunkt b) eingenommen werden. Alle realen Fälle sind Mischungen von a) und b), denn es gibt nicht den unbeteiligten Beobachter in Reinkultur (fast keine Beobachtung bleibt ohne Rückwirkung auf das Beobachtete), und jegliche Handlung stützt sich auf Erfahrungen, die aus Beobachtungen abgeleitet wurden.
VII. Um zu Modellen für Entscheidungsprozesse zu kommen, benutzt man einen methodischen Trick. Man nimmt an, daß man den Entscheidungsaufwand einer « Maschine » übertragen möchte, und fragt sich, wie eine solche Maschine aussehen müßte, welche Daten man ihr eingeben müßte usw. Das ist nur als Paradigma zu verstehen und bedeutet nicht, daß man die Entscheidung wirklich einer Maschine übertragen möchte. Dieses Denkmodell ist zum nützlichen Werkzeug geworden, wenn man herausbekommen will, was mit « Lernen », « Intelligenz », « Wahrnehmung » oder « Entscheidung » gemeint ist. Eine solche « Maschine » spiegelt nämlich wider, wie es um das Wissen über die genannten Vorgänge und Eigenschaften bestellt ist. Sie zeigt « homomorphes » Verhalten zu unseren formulierten Vorstellungen. Durch Vergleich des Verhaltens der Maschine mit dem « Gemeinten » kann man die Vorstellungen und Formulierungen des Gemeinten präzisieren. Denn was als Regel über Verhaltenstrajektorien formulierbar ist, kann – zumindest im Prinzip – auch mechanisiert werden. Doch auch die wirkliche Übertragung an eine Maschine gewinnt zunehmende Bedeutung. Man programmiert eine Rechenmaschine gemäß einem Entscheidungsmodell und läßt sie die Konsequenzen der verschiedenen Strategien, z. B. Maßnahmesequenzen, ermitteln. Oder man läßt die Maschine die Rolle des Objektsy stems übernehmen und « spielt gegen sie ». Auch in Fällen, wo der Maschine nicht die Aufgabe der Bestimmung « optimaler Entscheidungen » übertragen werden kann – das ist erst für einige Standardtypen von Entscheidungsaufgaben möglich –, gibt es doch eine große Klasse von Problemen, bei denen Maschinen mit Erfolg benutzt werden können, um den « Ernstfall » zu simulieren, d. h. durchzuspielen. Die Simulationstechniken sind die moderne Entsprechung zum Sandkasten der klassischen Generalstäbe. Sie sind ein wertvolles Hilfsmittel zum Training und zur Ausbildung geworden (business games, Simulation von Bedienungsständen der Flugüberwachung oder einer Pilotenkanzel, Lehrmaschinen usw.).
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 227
VIII. Ein Entscheidungsmodell ist also eine homomorphe Abbildung einer Entscheidungssituation oder einer Klasse solcher Situationen. Es ist aus folgenden Komponenten zusammengesetzt: • einem Akteursystem (A-System), welches die Entscheidung zu fällen hat; • einem Objektsystem (O-System), auf welches sich die Entscheidung auswirkt. Das A-System kann ein Individuum, eine Gruppe oder eine Organisation sein, die als System von Menschen, Maschinen und Regeln gegeben ist. Das O-System ist das Gegenüber, das Objekt, der Kontrahent, der Feind oder auch der Freund, mit dem es zu kooperieren gilt. Denn manchmal ist es nützlich, auch dem O-System Akteureigenschaften zuzuschreiben, nämlich dann, wenn O solche Reaktionen auf die Maßnahmen von A zeigt, welche am besten als « interessenorientiert » gedeutet werden können. Als Regel kann man nehmen, daß zu A immer diejenigen Größen gerechnet werden, die unter Kontrolle von A sind, d. h., die einigermaßen verläßlich die Maßnahmen von A realisieren. (Der Fall der Unzuverlässigkeit in den eigenen Reihen wirft besondere Probleme auf.) Die Daten und Beziehungen, die in das Modell eingehen, lassen sich folgender maßen klassifizieren: • die Variablen unter Kontrolle von A. Durch sie wird der Entscheidungsspielraum, d. h. die Mannigfaltigkeit der Alternativen, aufgespannt. Damit man von einer Entscheidungssituation sprechen kann, muß er mehr als nur eine Möglichkeit enthalten. Er enthält natürlich nur die Alternativen, die erschlossen worden sind und die im Rahmen des endlichen Potentials von A realisierbar sind; • die Variablen von O, welche für A von Bedeutung sind, und deren Zustände observabel sind oder indirekt erschlossen werden können; • die Gesetzmäßigkeiten (Konstriktionen) im Verhalten von O als Funktionen zwischen den Observablen. Hierzu gehören z. B. alle wissenschaftlichen Erkenntnisse über das Verhalten von O. Diese Beziehungen stellen das « Bild » dar, welches A von O hat;
228 PLANUNG UND POLITIK
• die Wirkungserwartungen für die Maßnahmen von A. Das sind alle Kenntnisse über den Einfluß der von A kontrollierten Variablen auf die wesentlichen Variablen von O, also Funktionszusammenhänge, die diese beiden Variablentypen miteinander verknüpfen. Diese Wirkungserwartungen sind meistens mit Unsicherheiten behaftet; • ein Ziel oder eine Absicht von A, wodurch festgelegt wird, welche Zustände von O erstrebt und welche zu vermeiden sind, oder eine Rangordnung der Erstrebtheit über die möglichen Zustände von O hergestellt wird. Hier ist eine BruttoZielfunktion, die nur die Zustände des Objektes O bewertet, von der Netto-Zielfunktion zu unterscheiden, in der die Maßnahmen, die zur Erreichung eines Zustandes von O führen, als Kosten gegen den Wert des erreichten Zustandes von O aufgerechnet werden; • die Einstellung oder Attitüde von A gegenüber der Entscheidungssituation, welche als sog. Entscheidungskriterium formuliert wird. A kann vorsichtig, waghalsig, pessimistisch, mißtrauisch usw. agieren. Hierin spiegelt sich die Einstellung von A gegenüber Risiko, Unsicherheit und eigener Ignoranz wider. Die Entscheidungskriterien sind Relationen zwischen Graden der Unsicherheit über Wirkungserwartungen und Situ ationsbewertungen. Die Entscheidungskriterien bringen die « Psychologie » von A in die Betrachtung; • Verhaltensspielregeln, die gewisse Maßnahmen von A ausschließen, obwohl sie das Potential von A eigentlich erlaubte, oder anordnen, obwohl sie vielleicht geringe direkte Nutzenerwartung versprechen. Hierher gehören soziale Normen, ethische Prinzipien u. dgl. Derartige Restriktionen lassen sich auch als Beschränkungen des Aktionsspielraumes betrachten. Wenn sie hier dennoch gesondert aufgeführt werden, dann nur deshalb, um sie als selbständige Einflußfaktoren zu kennzeichnen. Jede der genannten Determinanten bringt ihre eigenen Schwierigkeiten mit sich. Die Variablen können logische Alternativen, Ordinalskalen oder stetige Veränderliche, die Beziehungen logische Relationen, Wahrscheinlichkeitsverteilungen, stetig differenzierbare Funktionen usw. sein. Ein mathematisches Modell auf dieser allgemeinen Stufe der Betrachtung ist nicht sehr ergiebig. Man kann daraus höchstens einige Bedingungen für die Formulierung der einzelnen Größen und Beziehungen ableiten. Mathematische Modelle werden erst dann interessant, wenn man spezielle Klassen von Entschei-
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 229
dungssituationen untersucht (wie Zwei-Personen-Nullsummen-Spiele, Transportprobleme, Regelungsaufgaben). Die Mathematik beginnt erst, wenn alle genannten Variablen und Beziehungen geeignet bestimmt sind. Der Vorgang der Bestimmung der Determinanten, also die Aufstellung des Modells, ist auf Empirie gestützt. Man braucht also geeignete Begriffe und Meßvorschriften. Das bringt eine Fülle schwieriger Probleme bei jeder der Determinanten. Die bisherigen Bemühungen in dieser Richtung rechtfertigen schon allein die Entscheidungstheorie; erlauben sie doch, sehr komplizierte und realistische Entscheidungssituationen zu beschreiben – auch wenn die spätere Mathematisierung des Modells noch nicht möglich ist. Diese Anatomie des Entscheidungsprozesses macht dessen Eigenarten bewußt. Sie erlaubt, Fälle und deren Charakteristika zu unterscheiden. So wird etwa ein streng agonales Zwei-Personen-Spiel nur selten in der Realität auftreten. Die meisten Konfliktsituationen haben auch kooperative Züge. Dennoch steckt das mathematische Modell dieses Extremfalls zusammen mit denen der anderen Extremfälle einen Spielraum ab, in dem die realen Situationen als Mischformen enthalten sind, und der etwa einen « Grad der Agonalität » zu bestimmen erlaubt. Einige derartige Überlegungen sollen im folgenden behandelt werden, um die Denkweise und die Schwierigkeiten der Entscheidungstheorie zu demonstrieren.
IX. Nehmen wir die Frage des Zieles oder der Absichten von A. Sie ist beantwortet, sobald feststeht, welcher Wert den einzelnen Situationen von O- und A-Systemen zugerechnet werden soll. Dazu kommt ein Imperativ: « Suche eine Situation herbeizuführen, die gemäß dieser Skala einen möglichst hohen Wert zugeordnet bekommt. » Abgesehen von der Tatsache, daß der Akteur sehr oft « selbst nicht weiß, was er will », bleiben noch viele Schwierigkeiten: • Auf welchen Zeitpunkt ist die Situationsmenge bezogen? Oder ist es eine Folge von Situationen, ein Zeitraum, der bewertet werden soll? Wie ist der zu erwartende Geschäftsertrag dieses Jahres gegen den zu verrechnen, der für das nächste Jahr zu erwarten ist? Welches Ungemach wollen die Lebenden zugunsten einer höheren Glückserwartung für die Urenkel auf sich nehmen? Welches Planungsintervall ist vernünftig? Wie kann man den Wert verschiedener Situationen auf einen einzigen Zeitpunkt diskontieren? • Reale Situationen sind durch ihre Multivariabilität ausgezeichnet, d. h. durch die Vielzahl der Aspekte, nach denen sie
230 PLANUNG UND POLITIK
beurteilt werden. Wohnungen werden nicht nur nach ihrem Mietpreis, sondern auch nach Grundriß, Lage, Wärmedämmungseigenschaften usw. beurteilt. Eine militärische Situation ist nicht nur nach den Verlusten des Gegners und nach den eigenen Verlusten zu bewerten. Jede Mark eines festen Betrages, die man für die Förderung eines Forschungsprojektes ausgibt, bleibt notwendig allen anderen Projekten vorenthalten. Und der wirtschaftliche Erfolg einer Firma mißt sich nicht allein am Gewinn, sondern auch durch Liquidität, Marktanteil, Auftragsbestand, Konkurrenzlage usw. Meistens ist also eine Situation durch viele « zwar-aber »-Aussagen gekennzeichnet: Bezüglich des Aspektes II ist es gerade umgekehrt. Welcher Situation ist der Vorzug zu geben? Wie läßt sich der « Vektor » der Bewertungen unter den verschiedenen Aspekten auf einer linearen Skala abbilden? • Eine weitere Schwierigkeit besteht darin, daß die – notwendig subjektiven – Nutzenvorstellungen von verschiedenen Personen nicht addierbar sind. Der Grund dafür ist, daß der « Grad » des Schmerzes oder des Wohlbefindens nicht mitteilbar ist. Man kann auf keine Weise das Maß der Befriedigung verschiedener Personen miteinander vergleichen. Maßtheoretisch ist der Grund dafür, daß Nutzenskalen Differenzskalen sind (wie etwa die Temperatur in Celsiusgraden), deren Nullpunkt und Einheit willkürlich festzusetzen sind, und daß es obendrein keine Situationen gibt, in denen die Fixpunkte zweier subjektiver Skalen miteinander verglichen werden könnten (im Gegensatz zur Fahrenheit- und Celsiusskala). • Das ist besonders dann bedeutsam, wenn es darum geht, soziale Nutzenfunktionen aufzustellen. Wie wiegt der Nutzen für den Einzelnen gegen den Nutzen für die Gesamtheit? Wie leitet sich die Nutzenfunktion einer Institution aus den Nutzenfunktionen ihrer Mitglieder ab? Die jahrzehntelangen Versuche der Nationalökonomen, eine « social welfare function » zu definieren, welche empirisch ermittelt werden kann, waren nicht sehr erfolgreich. • Trotzdem braucht man solche sozialen Nutzenfunktionen, um den Wert eines Forschungsinstitutes, eines Parks in einer Stadt, eines öffentlichen Verkehrsmittels bestimmen zu können. Denn irgendeine Gegebenheit hat immer nur Nutzen für irgendein A-System. In den genannten Fällen ist das A-System sicher keine Einzelperson und auch keine profitorientierte Institution.
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 231
• Ein Ziel hat die Form: « A wünscht X herbeizuführen ». Dabei ist X im allgemeinen nur ein Teilaspekt einer Gesamtsituation. Die anderen Aspekte dieser Situation sind keineswegs gleichgültig, es sei denn, X soll « um jeden Preis » erreicht werden. Ein positiv formuliertes Ziel impliziert unausgesprochen eine lange Reihe von Bedingungen, die viele Wege zum Ziel ausschließen. Um eine Zielfunktion aufstellen zu können, müssen alle diese implizierten Voraussetzungen formuliert werden. Ein Beispiel möge diese Schwierigkeit erläutern. Wenn das Ziel heißt: « Die landwirtschaftliche Nahrungsmittelpro duktion pro Kopf der Bevölkerung soll erhöht werden », dann kann das durch Produktivitätssteigerung erreicht werden, oder durch Ausweitung des landwirtschaftlichen Wirtschafts sektors, aber auch durch Reduktion der Gesamtbevölkerung. Um die beiden letzten Möglichkeiten auszuschalten, bedarf es vieler weiterer Bedingungen und Nebenziele. • Politische und ideologische Ziele (Steigerung des allgemeinen Wohlstandes, Förderung des Privateigentums, Errichtung der kommunistischen Gesellschaft, Sicherung des Weltfriedens, das größte Glück der größten Zahl, die Vollendung der Geschichte) entbehren im allgemeinen der Präzision ihrer Bedingungen und der Nebenziele. Sie fordern die Erfüllung bestimmter Forderungen an eine Endsituation, ohnejedoch etwas über den Weg auszusagen, der zu dieser Endsituation führt, und ohne die « Kosten » für diesen Weg zu spezifizieren. Insbesondere lassen sie die möglichen Umwege offen: Man mag zeitweise vom direkten Weg zum Ziel abweichen oder auch den Abstand zum Ziel sogar vergrößern, um dadurch das Ziel desto wirksamer erreichen zu wollen, oder auch nur, weil es die Umstände erfordern: Die Einschränkung der Freiheit für die Erhaltung der Freiheit, der begrenzte Krieg zur Vermeidung des unbegrenzten Konflikts, die heutige Entbehrung im Interesse des Glücks zukünftiger Generationen. Ziele der genannten Art geben keine Anweisung über die Mittel zu ihrer Erreichung. Es lassen sich aus ihnen kaum Entscheidungsanweisungen für das Verhalten hier und heute ableiten. Das ist der Grund für die erstaunliche Tatsache, daß Staaten trotz grundverschiedener Ideologien in concreto sehr ähnliches Verhalten zeigen können. Auf die gleiche Problematik deuten auch die zahlreichen historischen Beispiele des Terrors im Namen der hehrsten Ideale.
232 PLANUNG UND POLITIK
• Aber auch Moralsysteme als situationsunabhängige Verhaltensnormen reichen nicht hin, um den Weg zur Erreichung der Ziele zu bestimmen. Denn einmal geben sie vorwiegend Verbote und nicht Gebote, zum anderen sind Entscheidungssituationen – und zwar gerade die problematischen – oft so beschaffen, daß die moralischen Prinzipien miteinander in Konflikt geraten. Das ist die Dramatik vom Schiller-Typ (die Verpflichtungen gegenüber Vaterland und Familie, gegenüber der Menschheit und ihrem einzelnen Vertreter stellen widersprüchliche Forderungen) oder auch vom Sartre-Typ (das Problem der « Schmutzigen Hände »: Es gibt keine Alternative ohne moralischen Makel). Viele dieser Schwierigkeiten sind von der modernen Entscheidungstheorie behandelt worden. Es gibt eine Fülle von Methoden, Modellen und Begriffsapparaten, um Ziele zu ermitteln, Nutzen zu messen und Wertsysteme zu analysieren. Dennoch ist man weit davon entfernt, den ganzen Komplex befriedigend durchforscht und geordnet zu haben. Bernoulli hat wohl als erster (1735) versucht, eine Nutzen-Theorie aufzustellen. Er suchte den « moralischen Nutzen » des Geldes zu bestimmen, worunter er dessen subjektiven Wert verstand. Dieser sei nämlich nicht proportional dem Geldbetrag; statt dessen nehme der Nutzen pro Einheit mit jeder hinzukommenden Einheit ab. Er macht einige Grundannahmen und leitet aus ihnen eine Art Grenznutzenprinzip ab. Seine Theorie ist normativ wie alle Nutzentheorien in den folgenden 200 Jahren – einschließlich der Gossenschen Grenznutzenlehre. Erst im Jahre 1950 kommt es mit den Arbeiten von Mosteller und Nogee auf Anregung der von Neumann-Morgensternschen Überlegungen wohl zum erstenmal zu Bemühungen, den Nutzen zu bemessen: Die Lehre von Nutzen und Wert wird zur empirischen Wissenschaft. Es war klar geworden, daß die ungeheure Vielfalt menschlicher Wünsche sich nicht aus ein paar Prinzipien ableiten läßt, die als « allgemeinmenschlich » angesehen werden können. In der Tat gibt es kein einziges Wertschema, das von allen Menschen zu allen Zeiten akzeptiert würde. Es gibt weder einen für alle Menschen gleichen « Minimalbedarf », noch einheitliche Meinungen darüber, was « Glück » sei. Dadurch wird die Wertlehre erheblich kompliziert, aber dafür reali stischer. Eine deskriptive « Naturgeschichte der Wertsysteme » bleibt zu entwickeln. Der dazu notwendige analytische Apparat und einige normative Modelle sind bereits in Ansätzen und für die einfachen Fälle vorhanden.
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 233
X. Die große Anzahl von gigantischen Planungsaufgaben mit langfristiger Wirkung, wie sie die Militärpolitik, aber immer mehr auch die wirtschaftliche und technologische Entwicklung stellen, hat der Zielproblematik zu hoher Aktualität verholfen. Die folglich mit erheblichen Mitteln betriebene Forschung auf diesem Gebiet hat eine ganze Reihe grundsätzlicher Erkenntnisse gebracht, die eine wesentliche Verschiebung der Fragestellung und der Auffassungen über zielgerichtete Entscheidungen zur Folge haben. Es stellt sich heraus, daß die herkömmlichen Handlungsmaximen wie « Gewinnmaximierung », « Machtstärkung », « Sicherung » usw. höchstens für kurzfristige und engumgrenzte Entscheidungen sinnvoll sind. Für größere Entscheidungsaufgaben sind sie unbrauchbar, weil nicht nur mit zunehmender Länge des Planungsintervalles die Unsicherheit immer größer wird (die prognostische Fähigkeit zur Abschätzung von Risiken rapide abnimmt) und die Fähigkeit zur Auffächerung von Alternativen schwindet, sondern vor allem auch deshalb, weil derartige Maximen ihren Sinn verlieren. Das gilt besonders in einer Zeit der schnellen Änderungen der politischen Verhältnisse und der technologischen Möglichkeiten. Aber auch die Wertsysteme können nicht mehr als über längere Zeit stabil angesehen werden. Was gewollt werden kann und was ermöglicht werden soll, hängt davon ab, was man will. Ziele und Nutzenfunktionen sind keine unabhängigen und selbständigen Größen. Sie stehen in Wechselwirkung mit dem Entscheidungsspielraum. Wertvorstellungen sind in weiten Grenzen wandelbar (man denke an die « Bedarfsweckung » für Konsumgüter). Angesichts der Unsicherheit der alternativen « Zukünfte » ist es aussichtslos, starre Entscheidungsmodelle aufstellen zu wollen, die Strategien über längere Zeiträume liefern, indem man etwas mit großer Sorgfalt, unter Berücksichtigung sehr vieler Variablen, mit wohlabgestimmten Zielfunktionen und sehr vielen Alternativen in Abhängigkeit von den eigenen Maßnahmen studiert und daraus « optimale Maßnahmefolgen » bestimmt (eine solche Optimalstrategie würde die zu ergreifenden Maßnahmen in Abhängigkeit von allen Eventualitäten angeben). Es erweist sich als sinnvoller, das Entscheidungsproblem allgemeiner zu sehen und die Organisation und die Eignung der Entscheidungen fällenden Systeme ins Auge zu fassen: Wie muß eine Organisation beschaffen sein, damit sie den erwähnten Unsicherheiten durch Innovation und politische Wechselfälle gewachsen ist? Hier verbindet sich die Entscheidungstheorie aufs engste mit der oben erwähnten « Systemforschung ». Denn statt der genannten « natürlichen » Zielfunktion werden jetzt Größen wie « Stabilität », « Ultrastabilität », « Anpassungsfähigkeit » zu Zielgrößen. Anstatt ein bestimmtes Entscheidungen fällendes System und ein Wertsystem als fest gegeben zu nehmen, wird die Eignung dieses Systems zur Erfüllung seiner Aufgaben untersucht:
234 PLANUNG UND POLITIK
• Welche Rückkopplungen zum Objektsystem sind notwendig? Welche Daten über das Objektsystem werden mit welcher Präzision gebraucht? Welche Vorrichtungen zur Aufbereitung dieser Daten sind notwendig? • Welche Wertsysteme sind überhaupt konsistent und widerspruchsfrei? • Welche Wertsysteme gewährleisten eine Chance für die « Anpassung » und damit das « Überleben »? • Welche « Innovationspolitik », d. h. Politik zur Erweiterung des Entscheidungsspielraumes, ist angesichts unbekannter « Zukünfte » einzuschlagen? Um Beispiele für diesen Problemtyp zu geben: Es wäre unsinnig, heute ein Erziehungssystem zu entwerfen, das sich auf eine Prognose des Bedarfs an Elektroingenieuren, Biochemikern usw. im Jahre 2000 stützt. Angesichts großer Bedarfsverschiebungen, die von einer nicht abzuschätzenden Entwicklung bestimmt sind, wäre eine Optimierung unter diesem Gesichtspunkt bald falsifiziert. Statt dessen sollte man Ausbildungseinrichtungen haben, die sich solchen Bedarfsverschiebungen anpassen können. Oder: Im Regierungsauftrag werden in den Vereinigten Staaten Forschungen angestellt, welche Attitüden und Wertsysteme die Bevölkerung der USA annehmen müßte, damit die politische und ökonomische Stabilität verbessert wird, d. h., die Anfälligkeit gegen Störungen herabgesetzt wird. In diese Überlegungen werden selbst so tief wurzelnde Attitüden wie die « Einstellung zum Tode » einbezogen. « Überleben » allein ist als langfristige Devise unbrauchbar. In diesen Zusammenhang gehört auch das Programm, die « Wirtschaftsbewußtheit » der Bevölkerung der USA zu heben, etwa durch die Experimente mit sehr sorgfältig und sachkundig ausgearbeiteten Fernsehkursen über Nationalökonomie, welche die Einsicht in die Mechanik wirtschaftlicher Prozesse verbessern und damit die Krisenanfälligkeit senken sollen. Dahinter steht die Meinung, daß wirtschaftliche Krisen in hohem Maße das Resultat « falscher » Reaktionen des Individuums sind, die « Schneeballeffekte » hervorrufen, und daß die breit verteilte Kenntnis dieser Zusammenhänge und ihrer Folgen den fast « naturgesetzlichen » Zwangslauf solcher Krisen dämpfen oder gar auflösen. Ein anderes Beispiel: Die politische Steuerung eines modernen Großstaates braucht eine hohe Entscheidungskapazität, d. h., es ist eine Vielzahl wichtiger Entscheidungen pro Zeiteinheit mit möglichst geringem Zeitverzug zwischen Entscheidungsanlaß und Antwortmaßnahme zu fällen. Dazu braucht man eine große Anzahl von Rezeptoren, die Nachrichten an das Entscheidungen fällende System leiten. In den USA ist die ständige Aufbereitung dieses Datenstromes in überseh bare Nachrichten weitgehend mechanisiert. Das Nachrichtenübermittlungssystem und die Aufbereitungsanlagen gewährleisten die notwendige Reaktionsgeschwin
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 235
digkeit und damit die Stabilität der Entscheidungsfähigkeit. Diese Systeme müssen außerdem gegen Versagen und Zerstörung gesichert sein, um ihre Anfälligkeit zu verringern. Dafür wurden die raffiniertesten Maßnahmen entwickelt, die selbst Ereignisse wie das psychische Versagen des Präsidenten berücksichtigen. Eine andere Gruppe von Forschungen beschäftigt sich mit der Stabilisierung des Staatswesens gegen Katastrophen durch Fehler der politischen Organisation: Welche Staatsform und welche Verfassung entsprechen den politischen Grundüberzeugungen und gewährleisten trotzdem hohe Stabilität? Schließlich sei noch ein weiteres Ergebnis derartiger Überlegungen erwähnt, das wegen seiner langfristigen Bedeutung besonders wichtig ist. Es ist der Bereich der Innovationsplanung. Wie oben gesagt, vereitelt vor allem die ständige Veränderung der technischen Möglichkeiten die starre Planung auf lange Sicht. Dieser Wandel ist vorwiegend das Produkt von Forschung und Entwicklung. Infolgedessen muß jede langfristige Planung die Programmierung dieser Aktivitäten mit ins Kalkül ziehen. Man kann geradezu postulieren, daß langfristige Planung gleichbedeutend mit Innovationsplanung ist. Damit ist nicht gemeint, daß sich Erfindung und Entdeckung prädeterminieren ließen. Aber die einschlägigen Aktivitäten können auf diesem oder jenem Gebiet mit verschiedener Intensität und verschieden organisiert betrieben werden. Schon die Tatsache, daß Forschungsmittel auf die verschiedenen Bereiche der Forschung verteilt werden müssen, daß Forschungsinstitutionen neu gegründet werden, daß Wissenschaftspolitik betrieben wird und Forschungsaufträge vergeben werden, bedeutet, daß langfristig wirksame Maßnahmen getroffen werden. Nicht überall, z. B. in Deutschland, ist das Bewußtsein der Langfristigkeit dieser Wirkungen hinreichend entwickelt. Dabei hängt nicht nur das, was morgen sein wird, sondern auch das, was morgen gewollt werden kann, und damit das, was morgen gewollt werden wird, primär von der heutigen Innovationspolitik ab. Der Teil der Entscheidungstheorie, der sich mit diesem Typ von Entscheidungen beschäftigt, läuft unter dem Namen « Forschungsplanung ». Auf diesem Gebiet ist – wiederum vor allem in den USA – in den letzten 10 Jahren eine große Zahl von Resultaten erzielt worden, die sich auf Fragen der geeigneten Projektauswahl, der Ausbildungsplanung, der wissenschaftlichen Arbeitsorganisation, der R&D-Budgetierung u. dgl. beziehen. Selbstverständlich ist auch in den USA manche Fehlorganisation und falsche Entscheidung in Forschung und Entwicklung zu verzeichnen. Aber die Bewußtheit der langfristigen Bedeutung dieser Aktivitäten, des Einflusses der Organisationsform der Wissenschaft und die Einsicht in die Kopplung dieser Aktivitäten mit den politischen Entscheidungen ist sehr weit entwickelt. Es ist offensichtlich geworden, daß jede nicht nur taktische politische Entscheidung sich nicht aus den proklamierten klassischen geschichtsphilosophischen Idealvorstellungen erschöpfend ableiten läßt: Jede ernstgemeinte politische Strategie hat die Veränderlichkeit der Denkmöglichkeiten in Betracht zu ziehen. Und die Richtung und die Intensität dieser Veränderung ist Objekt der heutigen Entscheidungen über die Innovationsplanung in einer Konkurrenzsituation.
236 PLANUNG UND POLITIK
XI. Nach den letzten Ausführungen könnte man argwöhnen, daß die « letztendlichen » herkömmlichen Ziele sich dennoch durch die Hintertür wieder eingeschlichen hätten. Denn was meint « Anpassungsfähigkeit » sonst, als daß bestimmte « wichtige » Variable in « erwünschten » Grenzen bleiben, wobei die Frage der Erwünschtheit sich selbstverständlich nach gegebenen und anerkannten Wertsystemen beantwortet? Dieser Einwand läßt sich dennoch entkräften. Er setzt nämlich voraus, daß die Festlegung und die Veränderung der Wertnormen beliebig ist. Das ist aber nicht der Fall. Trotz aller « Machbarkeit » bilden die bestehenden Normensysteme zwar in Grenzen modifizierbare, aber nicht beliebig veränderliche Gegebenheiten. Die oben geschilderten Schwierigkeiten der interpersonalen N utzenverrechnung regeln sich nämlich durch Aushandlungsprozesse (womit die spieltheoretische Betrachtungsweise nützlich wird). In den pluralistischen Sozialstrukturen der modernen Gesellschaften ist nirgendwo eine Omnipotenz konzentriert – und wenn das der Fall wäre, könnte kaum einer sie aus den genannten Gründen wahrnehmen. Diese Aushandlungsprozesse sorgen dafür, daß keine Entscheidung einen beliebigen Spielraum zur Grundlage hat. Machtverhältnisse, Gewohnheiten, Regeln und « Phantasiekapazität » setzen die Grenzen der Machbarkeit, reduzieren die Beliebigkeit. Hier liegt die wichtigste potentielle Rolle der Entscheidungstheorie. Indem sie Spielfelder absteckt und die Regeln formuliert, wodurch das Feld der Auseinandersetzung bestimmt wird, kann sie ein Hilfsmittel werden, um die Auseinandersetzungen zu beschreiben, aber damit auch zu kultivieren und zu präzisieren. An die Stelle des Kampfes um ideologische Konstruktionen tritt die Diskussion über die zweite Dezimale hinter dem Komma. Sie legt es nahe, den rabiaten Kampf durch die Debatte zu ersetzen. Das Vorbild ist der Schachspieler, der eine Partie auf Grund von « Einsicht » aufgibt. Dadurch, daß ein Spiel als von vornherein wenig aussichtsreich erkannt wird, braucht man es gar nicht erst zu spielen. Es kommt nicht mehr darauf an, den « Kampf ums Dasein » mit atavistischen Mitteln auszutragen – es wäre zu kostspielig für alle Beteiligten. Die Entscheidungstheorie ist ein Ausdruck der Einsicht, Konflikte, die nicht lohnen, gar nicht erst auszutragen. Wenn man will, darf man die motivierende Einstellung für ein solches Verhalten « rational » nennen. Unter amerikanischen Entscheidungstheoreti kern ist das Wort « Friedensspiel » zur gängigen Vokabel geworden. Es ist ein Wort der englischen Sprache, das in Analogie zum deutschen « Kriegsspiel » gebildet wurde. Damit wurden die Sandkastenspiele von Generalstäblern bezeichnet, die den « Ernstfall » simulierten, nämlich den Krieg. Friedensspiele simulieren den Frieden. Die Entscheidungsforschung könnte helfen, auch den Frieden zum Ernstfall zu machen.
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 237
Zusammenfassung der Thesen 1. Seit dem Zweiten Weltkrieg gibt es in zunehmender Anzahl Aufgaben für die Wissenschaft, die gegen die verkündeten Prinzipien der Wissenschaftsideologie verstoßen. 2. Seitdem gibt es Ansätze zu « Metawissenschaften », die nicht nur erlauben, « Forschung über Forschung » zu betreiben, sondern auch die Diskrepanz zwischen der Wissenschaft und ihrer Anwendung zum Gegenstand haben. 3. Diese Wissenschaft ist eine « allgemeine Handlungslehre », deren bisherige Schwerpunkte als « Systemforschung » und « Entscheidungstheorie » bezeichnet werden können. 4. « Entscheidung » als wissenschaftliches Objekt hat Rückwirkungen auf den Wissenschaftsbegriff. 5. Entscheidungstheorie kann unter zwei Gesichtspunkten betrieben werden; dem des externen Beobachters oder dem des Mitspielers. 6. Die Eigenart einer bewußten Entscheidung besteht in der Aufhebung der Entscheidungsproblematik. 7. Ein methodisches Hilfsmittel zur Analyse des Entscheidungsprozesses besteht darin, daß man so vorgeht, « als ob » der Entscheidungsakt von einer Maschine vorgenommen werden sollte. Manchmal ist das auch reali sierbar. 8. Der Zielbegriff und die Wertskalen bringen methodische Schwierigkeiten. 9. Die herkömmlichen Handlungsmaximen sind angesichts langfristiger und weitreichender Entscheidungsaufgaben unzureichend. Statt dessen werden Zielgrößen wie « Stabilität » oder « Anpassungsfähigkeit » relevant. In diesem Zusammenhang spielen Forschung und Entwicklung als Determinanten der langfristigen Planung eine wesentliche Rolle. 10. Die Zielproblematik wird durch Aushandlungsprozesse gelöst. Die Entscheidungstheorie hat die Aufgabe, diese Aushandlungsprozesse zu kultivieren.
238 PLANUNG UND POLITIK
*
Quelle: Forschungsplanung; eine Studie über Ziele und Strukturen amerikanischer Forschungsinstitute. Herausgegeben von: H. Krauch, W. Kunz, H. Rittel und dem Rationalisierung-Kuratorium der Deutschen Wirtschaft e. V., München: Oldenbourg, 1966, S. 110–129.
ZUR BEDEUTUNG DER ENTSCHEIDUNGSTHEORIE 239
Sachzwänge – Ausreden für Entscheidungsmüde?* Es ist nicht überliefert, wer – irgendwann in den 60ern – den Sachzwang erfunden hat. Obschon diese Vokabel recht häufig aus dem Munde von Politikern, Planern und anderen mit der Entscheidung zugunsten des öffentlichen Wohls Befaßten zu vernehmen ist, wird man vergeblich in den diversen Wörterbüchern und Lexika deutscher Sprache nachschlagen, um herauszubekommen, was der begriffliche Gehalt dieses Wortes ist. Auch in den philosophischen Lexika kommt der Sachzwang nicht vor. Und obwohl die Argumentation mit Sachzwängen auch in anderen Kulturkreisen gang und gäbe ist, und obwohl auch dort ein Bedürfnis nach einem prä gnanten Wort für das Gemeinte spürbar besteht, gibt es keine treffende und kurze Entsprechung für den « Sachzwang » in anderen Sprachen. Wie so häufig, wenn es um philosophische Abgründe geht, ist die eingängige Wortschöpfung den Deutschen gelungen. Die anderen können uns darum beneiden. Sie wären wohlberaten, wenn sie den « Sachzwang » als Fremdwort aus dem Deutschen entlehnen würden – wie schon « Heimweh », « Kindergarten », « Weltanschauung », « Zeitgeist », « Glockenspiel » und ähnliches. Der Sachzwang ist heutzutage ein wichtiges Instrument für die Rechtfertigung von politischen Strategien, Planungsmaßnahmen und akuten Aktionen. Er ist ein beliebtes und häufig benutztes Stilelement des Diskurses über sozial und politisch wirksames Verhalten geworden: • Daß ein Kernkraftwerk in Wyhl oder Brokdorf plaziert werden muß, ergibt sich aus dem Sachzwang, daß einerseits weitere Kernkraftwerke gebaut werden müssen, da für den unabdingbaren Ausbau der Energieversorgung keine Alternativen bestehen und andererseits keine anderen Standorte sinnvoll sind. • Die Beitragssätze für die Rentenversicherung müssen erhöht werden, da das gegenwärtige Beitragsaufkommen die fälligen Rentenleistungen nicht mehr deckt. • Da ein Nahverkehrsbetrieb mit zunehmenden Verlusten wirt schaftet, müssen die Tarife erhöht werden. Analoges gilt für Postgebühren, die Stillegung von Bundesbahnstrecken, die NatoMitgliedschaft und Verwandtes. Kaum ein Tag vergeht, an dem nicht ein Akteur, also ein mit der Entscheidung Betrauter, sich auf Sachzwänge beruft. Es ist offensichtlich, daß der Sachzwang eine für viele nützliche und vielgenutzte Erfindung ist.
240 PLANUNG UND POLITIK
Was ist ein Sachzwang? Sachzwänge sind Vehikel der Rechtfertigung von Entscheidungen, die andere betreffen, gegenüber den Betroffenen. Sie liefern Gründe dafür, warum eine Entscheidung so und nicht anders ausgefallen ist, gefällt werden soll oder muß. Dabei sind diese Gründe nicht vom Akteur zu verantworten. Vielmehr kommen sie von außen, werden von der « Sache », von den Umständen diktiert. Sachzwänge engen den Entscheidungsspielraum ein; sie reduzieren das Spektrum der Machbarkeit, im Idealfall bis zu der Situation, wo dem Akteur eine und nur eine Aktion übrig bleibt. Sachzwänge nötigen den Akteur zu Maßnahmen, die er vielleicht selbst nicht gern hat. Sie zwingen ihn zu unpopulären Maßnahmen. Er tut seine Pflicht, indem er das « objektiv Richtige » tut. Der Entscheider wird zum Vollstrecker der Notwendigkeit. Er hat sich zur Einsicht in das Notwendige durchgerungen. Man möchte meinen, daß dies eine höchst unerfreuliche Situation für den Akteur sei; die Sachzwänge engen seinen Handlungsspielraum ein, nötigen ihn gar zu eigentlich ungewolltem Verhalten. Trotzdem gibt es mannigfache Anzeichen dafür, daß Sachzwänge für viele Akteure durchaus nicht durchweg unwillkommen sind. Denn je stärker die Sachzwänge, je enger der Entscheidungsspielraum, um so weniger gibt es zu entscheiden. Wenn die harte Realität fordert, daß so und nicht anders gehandelt werden muß – dann gibt es nichts mehr zu entscheiden. Die frustrierende Suche nach alternativen Handlungsmöglichkeiten und das peinvolle Abwägen ihrer jeweiligen Für und Wider entfällt. Man ist auf sicherem Grund. Den Gegnern der Entscheidung kann man – mit dem Ausdruck des Bedauerns, wenn auch vielleicht nicht ohne innere Erleichterung – entgegenhalten, daß ihnen die Einsicht in die Notwendigkeit fehlt, daß man ja gar nichts anderes tun kann, daß Opposition sich damit selbst disqualifiziert. Ohne Sachzwänge ist es viel komplizierter und anstrengender. Dann gibt es viele alternative Handlungsweisen, und man kann immer noch weitere hinzuerfinden. Jede von ihnen hat ihre Vor- und Nachteile und betrifft verschiedene Personen und Gruppen auf unterschiedliche Weise und in verschiedenem Maße. Es gibt keine sozial wirksame Maßnahme, die jedermann gleichmäßig betrifft. Dem Entscheider – etwa einem politischen Mandatsträger – obliegt es, sich ein Urteil über das Feld der Interessen und Betroffenheiten zu bilden und sich für eine bestimmte Maßnahme, d. h. Verteilung der Vor- und Nachteile, zu entscheiden. Industrie und Gewerkschaften, Steuerzahlern, Autofahrern, Fußgängern, Sozialrentnern und den Einwohnern von Wyhl kann man nicht gleichzeitig alles recht machen. Vor allem wenn man, wie im demokratischen System, zur Wiederwahl ansteht, möchte man schon gern nur Vorteile an jedermann austeilen. Stattdessen bleibt es einem nicht erspart, Präferenzen für verschiedene Interessen zum Ausdruck zu bringen. Da kommt der Sachzwang gerade recht.
Sachzwänge – Ausreden für E ntscheidungsmüde? 241
Wie bildet sich Sachzwang? Wie stellt man ihn her? Nun, er ergibt sich aus der sorgfältigen Analyse der Situation, indem man deren sogenannte « Sachlogik » aufspürt, also die Mechanik des Geschehens ergründet und fortschreibt. Dies erfordert Sachkundigkeit, und in einem Zeitalter der Hochschätzung für das Wissenschaft liche sind natürlich das die besten Sachzwänge, die von den einschlägigen Experten produziert werden. Der Entscheider, der selbstverständlich kein Fachmann für alle Aspekte der gewöhnlich als entsetzlich « komplex » wahrgenommenen Situation sein kann, verpflichtet sich einen oder mehrere Wissenschaftler mit dem Auftrag, die Lage zu untersuchen. Um sicher zu gehen, daß auch alle Aspekte zur Geltung kommen, und da auch Experten gelegentlich irren, versichert man sich am besten gleich der Dienste einer ganzen Kommission von Gutachtern oder eines Rates der Weisen. Selbstverständlich sollen sie die Entscheidung nur vorbereiten, nur eine Handlungsweise empfehlen; die eigentliche Entscheidung behält sich der Entscheider vor. Die Experten, geübt im unvoreingenommen neutralen und objektiven Vorgehen, stecken die Grenzen des Machbaren ab, ergründen die Alternativen und unterziehen sie vergleichender, auf gründlicher Messung beruhender Bewertung. Heraus kommt die Empfehlung der notwendigen, oder wenigstens der optimalen Aktion. Der Akteur ist wohlberaten, dieser Empfehlung zu folgen, denn es wäre töricht, wenn nicht unverantwortlich, nicht das Notwendige, Beste und Richtige zu tun, wider alle Sachverständigkeit und Vernunft. Es entsteht eine recht stabile Symbiose, gelegentlich wenig respektvoll als « unheilige Allianz » zwischen Politikern und Experten bezeichnet: Der Entscheider kommt in den Genuß von Sachzwängen mit dem Gütesiegel der Wissenschaftlichkeit; die Entscheidungsgehilfen erhalten außer ihrem Honorar das reputierliche Bewußtsein der Wichtigkeit sowie einen Abglanz der Macht. Bemerkenswert ist die Beobachtung, daß es nur selten zu Unstimmigkeiten zwischen den Empfehlungen der Gutachter und den Absichten ihrer Auftraggeber kommt. Auf wundersame Weise neigen die Sachzwänge dazu, gerade diejenige Entscheidung objektiv und wissenschaftlich zu begründen, von der man den Verdacht hat, daß sie der Entscheider ohnehin im Auge hatte. Ein Wunder? Das Wort « Gutachten » leitet sich von « Für-Gut-Erachten » ab. Wird diese Harmonie einmal gestört, ist die Wahrscheinlichkeit hoch, daß die Symbiose aufgekündigt wird: Man sucht sich neue Experten. Als der Präsident der USA eine Hohe Kommission gebildet hatte, die die sozialen Auswirkungen der Pornographie ergründen sollte, und die dann zu dem Ergebnis kam, daß ein Pornographie-Verbot mehr Schaden anrichten würde als eine Politik des Laissezfaire – anstatt abzuleiten, daß Pornographie als schlimmer Kriminalitätserzeuger abgeschafft werden muß –, da wurde die Veröffentlichung des Gutachtens unterbunden und die Kommission ungnädig entlassen. Ist der Sachzwang nur ein Mittel zur Absegnung des ohnehin Gewollten? Entspringt der Einsatz des Sachzwanges für die Rechtfertigung von Entscheidungen
242 PLANUNG UND POLITIK
zynischem Kalkül oder naivem Gemüt, also dem Glauben, daß die Sache in der Tat eine bestimmte Handlungsweise erzwingt? Vermutlich kommt beides vor. Jedenfalls lohnt es sich, die Anatomie des Sachzwangdenkens näher zu betrachten. Offenbar behauptet der Sachzwanggläubige, daß sich aus Konfigurationen von Tatsachen logisch zwingend ableiten ließe, was getan werden soll oder gar muß. Er postuliert die « normative Kraft des Faktischen ». Die Tatsachen setzen die Grenzen der Machbarkeit, die im schlimmsten (oder besten?) Falle nur eine Handlungsmöglichkeit offen lassen, und sei es die, daß man gar nichts tut. Logisch betrachtet ist dies eine Schlußweise, die aus faktischen, indikativen Sätzen einen Sollsatz zu folgern erlauben soll. « Das und das ist der Fall oder wird der Fall werden, folglich soll oder muß das und das getan werden. » Schon die Grammatik zeigt, daß dies nicht geht: Wie kann je durch Manipulation von Ist-Sätzen ein Satz entstehen, der das Wort « soll » zum Prädikat hat? Um einen Soll-Satz zu folgern, muß mindestens eine der Prämissen ein Sollsatz sein. Das Argument « Das Zufahrtsstraßennetz ist verstopft; folglich müssen wir Entla stungsstraßen bauen », ist nicht schlüssig. Erst wenn die Prämissen « Der Verkehr soll flüssig laufen » und « Entlastungsstraßen verflüssigen den Verkehr » hinzukommen, wird die Folgerung halbwegs gerechtfertigt. Sachzwangargumente beruhen immer auf stillschweigenden Prämissen (Vor aussetzungen), die schon die Aufmerksamkeit des Aristoteles hatten. Er nannte sie « Enthymeme » und zeigte, wie man sie rhetorisch wirksam einsetzt. Im Beispiel ist unser Akteur stillschweigend davon überzeugt, • daß das Problem der Verkehrsverstopfung hinreichend dringlich ist, um in Angriff genommen zu werden, • daß Verkehrsverflüssigung die rechte Antwort ist und nicht etwa z. B. eine Verminderung des Verkehrsaufkommens, • daß Entlastungsstraßen tatsächlich zur Verflüssigung führen und nicht – wie plausibel argumentiert werden kann – rasch so viel neuen Verkehr anziehen, bis der alte Verstopfungsgrad wieder erreicht wird. Mit anderen Worten: Die Entscheidung ergibt sich nicht aus den Fakten, sondern aus der Vorliebe des Akteurs für eine Entlastungsstraße, also aus seinen Sollvorstellungen. So primitiv und wenig raffiniert das Beispiel ist: Diese Analyse läßt sich auf jedes Sachzwangargument anwenden und führt zum gleichen Ergebnis. Der Sachzwang ist ein Trugschluß, eine Selbsttäuschung oder eine Vernebelung. Daraus ergeben sich Konsequenzen für die Möglichkeiten und den Wert wissenschaftlicher Entscheidungsvorbereitung. Wissenschaftliche Aussagen sind immer faktisch und explanatorisch. Nichts in der Vorgehensweise der Wissenschaftler führt je zu einem – damit wissenschaftlich begründeten – Sollsatz. Wenn also der
Sachzwänge – Ausreden für E ntscheidungsmüde? 243
Experte eine Handlungsempfehlung ableitet, benutzt er mindestens eine Sollprämisse, die nicht in seiner Wissenschaft begründet ist, für die er demnach kein Experte ist. Er bezieht die Sollprämisse aus seinen persönlichen Überzeugungen davon, wie die Welt beschaffen sein sollte. Und diesen Überzeugungen kommt keine höhere Absicherung oder Richtigkeit zu als denen jedes x-beliebigen Laien. Selbst wenn ein vorsichtiger Experte sein Resultat als Konditionalsatz formuliert – « Wenn das und das der Fall werden soll, dann tue das und das » –, hilft das nichts. Wie später noch ausführlicher zu diskutieren ist, erfordert jedes Glied der Schlußkette, die vom ersten zum letzten Teil des Satzes führt, Sollwissen, das unvermeidlich privat und außerwissenschaftlich ist. Folglich gibt es keine wissenschaftliche Entscheidungsvorbereitung. Handlungsempfehlungen sind nie objektiv und neutral, da ihr Zustandekommen entscheidend von der Person abhängt, die sie entwickelt. So selbstverständlich diese Überlegungen sein mögen: Die Rechtfertigung mit Sachzwängen ist in hohem Schwange. Bundesminister und Bürgermeister, Industrie-Kapitäne und Armeegenerale, Akteure aller Parteien und Provenienzen bedienen sich ihrer herzhaft. Es stellt sich die Frage nach Strategien, wie man ihnen wirksam begegnen kann. Eine gute Strategie zur Entlarvung von Sachzwängen besteht darin, die stillschweigenden Prämissen aufzuspüren, sie laut und ausdrücklich auszusprechen und gegenzuhalten. Es ergibt sich eine ganze Reihe weiterer Ansatzpunkte, wenn man die Natur der Entscheidungsfindung weiter untersucht. Woher kommen die Grenzen der Machbarkeit, die den Entscheidungsspielraum abstecken? Woher weiß man, was möglich und was unmöglich ist? Dieses Wissen läßt sich in einer Form ausdrücken, die man im Englischen als « constraint » bezeichnet, was hier – mangels hinreichend genauer deutscher Entsprechung – mit Konstriktion übersetzt werden soll. Eine Konstriktion ist ein Satz, der Handlungsmöglichkeiten ausschließt. « Die Kosten dürfen 150 Millionen DM nicht überschreiten », eliminiert alle teureren Möglichkeiten. « Enteignung von Grundbesitz ist auszuschließen », « Kernfusion ist auf absehbare Zeit keine praktikable Quelle für die Energieversorgung », « Die Verunreinigung des Trinkwassers mit Schadstoff S darf eine Konzentration von n Teilen pro Million nicht überschreiten », « Der Anspruch auf Wiedervereinigung ist unabdingbar », « Die Wahrscheinlichkeit einer Stockung des Autoverkehrs in den Stoßzeiten soll unter 5 % pro Stunde bleiben » – alles dies sind Konstriktionen, die « an sich denkbare » Entscheidungsmöglichkeiten eliminieren. Bei der Urteilsbildung oder Entscheidungsfindung knüpft sich der Akteur – oder seine Helfershelfer – ein System solcher Konstriktionen, die den Entscheidungsspielraum immer weiter einengen. Im allgemeinen wird eine ganze Reihe, wenn nicht gar eine unendlich große Anzahl von Entscheidungsmöglichkeiten als « zulässige Lösungen » übrigbleiben, unter denen eine auszuwählen ist. Anderer-
244 PLANUNG UND POLITIK
seits wird es nicht selten passieren, daß die Konstriktionen widersprüchlich sind, d. h., daß keine Lösungsmöglichkeiten bleiben. Dann muß der Akteur entweder das Problem als unlösbar aufgeben oder aber das System seiner Konstriktionen revidieren. Jedoch: Ist dies überhaupt möglich, wenn die Konstriktionen wohl begründet aus gesichertem Wissen abgeleitet sind? Schließlich ist der Fall zu nennen, daß die Konstriktionen gerade eine und nur eine Möglichkeit offenlassen, also der Fall des idealen, des strengen Sachzwanges. Dieser Fall ist unwahrscheinlich, man kann ihn getrost vernachlässigen. Es gibt eine ganze Skala von Quellen für Konstriktionen: Logische Konstriktionen entspringen den Schranken des Denkmöglichen. Die Naturgesetze liefern die physischen Konstriktionen. Vieles was physisch möglich ist, scheitert an den Grenzen der Technik, wie etwa die Nutzung der Kernfusion als gezähmte, gleichmäßige Energiequelle. Viel technisch Mögliches wird durch ökonomische Kon striktionen ausgeschlossen. Gesetze und Verordnungen liefern die rechtlichen Konstriktionen. Sitten und Gewohnheiten führen zu kulturellen Konstriktionen. So mögen Wohnungen ohne Fenster technisch möglich und sehr wirtschaftlich zu bauen und zu heizen sein, aber die Leute wollen partout nicht darin leben. Politische Konstriktionen entspringen der Überzeugung, daß sich keine hinreichende Koalition finden läßt, um einen Plan durchzusetzen. Und selbst wenn eine Handlungsmöglichkeit alle diese Filter passiert haben sollte, kann sie noch durch ethische Konstriktionen verworfen werden: Mancher Entscheider mag den Kannibalismus ablehnen, selbst wenn er kulturell akzeptiert und gesetzlich sanktioniert sein würde. Was ist der Stellenwert solcher Konstriktionen? Der Sachzwangapostel wird sie zu ehernen Notwendigkeiten erklären, zu unentrinnbaren Mauern der Realität, die außer acht zu lassen oder gar zu leugnen nicht ratsam ist. Wer ein Gebäude entwirft und es vergißt, dabei die Gesetze der Schwerkraft zu beachten, wird wenig Freude am Produkt seines Planes haben. Der Entscheider muß versuchen, das Sy stem der Konstriktionen so vollständig und realistisch wie möglich zu ergründen. Wie sorgfältig er gewesen ist, wird er erst post festum an den Folgen seiner Entscheidung merken. Bei genauerem Hinsehen zeigt sich jedoch, daß die Konstriktionen keineswegs so hart und objektiv sind, wie es dieses Argument darstellt. Sicherlich ist es fatal, Faktoren und Phänomene wie Schwerkraft, Wirtschaftlichkeit oder technische Realisierbarkeit außer acht zu lassen. Daraus folgt jedoch nicht, welche Kon striktionen man sich setzt. Einige Beispiele mögen dies erläutern: • Wenn es technisch unmöglich ist, « saubere Automobile » zureichender Leistung, etwa mit Elektroantrieb, zu konstruieren, kann man versuchen, durch intensive Forschung und Entwicklung eine technische Lösung zu erfinden.
Sachzwänge – Ausreden für E ntscheidungsmüde? 245
• Wenn der Staatshaushalt den Ausgaben Grenzen setzt, dann kann man versuchen, ihn durch Steuererhöhungen aufzubessern oder eine Anleihe aufnehmen. • Wenn ein Nahverkehrsunternehmen immer unwirtschaft licher wird, folgt daraus nicht, daß eine Tariferhöhung unvermeidlich ist: Denn warum müssen Nahverkehrsbetriebe eigentlich wirtschaftlich arbeiten? Auch die Bundeswehr trägt sich nicht selbst. • Wenn eine Bauvorschrift eine Höchstgrenze für die Geschoßflächenzahl für ein bestimmtes Grundstück festsetzt, dann läßt sich vielleicht eine Ausnahmegenehmigung erwirken oder eine Änderung der Vorschrift betreiben. • Wenn Einwohner nicht ohne Fenster wohnen wollen, dann erzwingt das noch nicht die Aufgabe der Idee vom fensterlosen Bauen. Kulturelle Gegebenheiten sind durch Werbung und Überzeugung zu beeinflussen. • Selbst die Gesetze der Natur erzwingen keine Konstriktionen, wie die Geschichte der Wissenschaft zeigt. Ein hartnäckiger Optimist mag versuchen, die Antischwerkraftmaschine zu erfinden, um damit seine architektonische Vision zu realisieren – vielleicht mit Erfolg. • Aus guten theoretischen Gründen galt es Jahrzehnte lang als unmöglich, Edelgase in chemische Verbindungen zu zwingen: Sie haben gesättigte äußere Elektronenschalen. Es lohnte sich folglich gar nicht, es zu versuchen. Erst in den fünfziger Jahren probierten es zwei junge Chemiker ohne Respekt für die Tradition. Unter nicht einmal exotischen Reaktionsbedingun gen gelang ihnen die Herstellung einer ganzen Reihe von Edel gasverbindungen. • Auch das Denkunmögliche ist nicht immun. Kann man anders als überzeugt sein, daß nichts gleichzeitig A und Nicht-A sein kann? Gleichwohl haben die Physiker – nicht ohne Irritierung – damit zu leben gelernt, daß Licht gleichzeitig aus Teilchen besteht und nicht aus Teilchen besteht. Diese Reihe von Beispielen ließe sich beliebig verlängern: Es gibt keine unerschütterlichen Konstriktionen. Ein kritischer Blick läßt die Notwendigkeit und Härte jeder Konstriktion dahinschmelzen. Wie geschildert, ist der Prozeß der Urteilsbildung und Entscheidung von der Aufstellung eines Systems von Konstriktionen begleitet, das die Grenzen des Machbaren absteckt. Diese Konstriktionen sind aber nicht natürlich, objektiv und selbstverständlich gegeben – gewissermaßen von außen aufgezwungen. Vielmehr
246 PLANUNG UND POLITIK
sind sie das Produkt persönlicher Entscheidungen. Sie werden « subjektiv » gesetzt. Verschiedene Akteure werden verschiedene Konstriktionen sehen und folglich zu vermutlich verschiedenen Entscheidungen gelangen. Es hängt von der Phantasie, dem Mut, der Zuversicht und der Respektlosigkeit des Akteurs ab, wo er seine Konstriktionen setzt. Viele Konstriktionen sind gewohnheitsmäßig. Andere beruhen auf der Überzeugung, daß etwas so und nicht anders sein soll. Dies ist zum Beispiel der Fall, wenn jemand seinen Handlungsspielraum auf Möglichkeiten beschränkt, die mit dem Grundgesetz verträglich sind – weil er das Grundgesetz als Pflicht akzeptiert hat. Andere Konstriktionen verdanken ihre Existenz der Furcht – etwa vor Strafe –, wieder andere dem Mangel an Zuversicht, daß sich eine versuchte Veränderung tatsächlich herbeiführen lassen wird. So werden nur wenige den Optimismus des Schwerkraft-Verleugners teilen. Außer den « gesollten » sind alle Konstriktionen Zeichen der Resignation: Ihr Urheber hat es aufgegeben, die gesehenen Sachverhalte verändern zu wollen. Dabei sind Konstriktionen keineswegs beliebig oder relativ. Im Gegenteil: Sie spiegeln das tatsächliche Situationsverständnis ihres Urhebers wider, der häufig nicht umhin kann, die Welt so und nicht anders wahrzunehmen. Befreiung von Wahrnehmungszwängen kann einen langwierigen und schmerzhaften L ernprozeß erfordern. Damit ergibt sich eine weitere Strategie gegen die Sachzwänge: Man decke die Konstriktionen auf und ziehe sie in Zweifel. Nichts muß so sein, wie es ist. Die Kunst des Entscheidens beruht darauf, nicht zu früh zu wissen, wo man sich die Konstriktionen setzt. Dadurch wird das Entscheiden zwar nicht einfacher, aber dafür werden die Grenzen der Machbarkeit ausgeweitet. Zweifel macht frei. Das Sachzwangdenken kommt in noch vielen anderen Formen vor, wobei die Rechtfertigungen und auch die Gegenargumentationen im wesentlichen die geschilderte Struktur haben. So erfreut sich die Trendgläubigkeit großer Beliebtheit als Sachzwanglieferant und Entscheidungserübriger. Sie ist vor allem für die Propheten des Jüngsten Gerichtes in der Form einer Öko-Katastrophe unentbehrlich. Man nehme eine oder mehrere wichtige Meßgrößen, etwa die Zahl der Erdbewohner, den Ölverbrauch pro Kopf oder die Nahrungsmittelproduktionen und verlängere die erhaltenen Zeitreihen in die Zukunft, z. B. bis zum Jahre 2000. Dann setze man die erhaltenen Werte in Beziehung zu anderen Größen wie den vorhandenen Weltrohstoffvorräten oder der Fläche bewohnbaren Landes. Man kann auch viele Variable auf komplizierte Weise miteinander verknüpfen. Man erhält z. B. Defizite, aus denen sich durch Rückrechnung ergibt, was man heute unternehmen muß, um dieser Zukunft zu begegnen. Oder aber man weist nach, daß die Katastrophe ohnehin kommen muß, unabhängig davon, was man tut, daß alles ohnehin keinen Zweck hat. Der Trend ist unausweichlich; laßt uns ihm folgen. Es bleibt uns gar nichts anderes übrig.
Sachzwänge – Ausreden für E ntscheidungsmüde? 247
Aber auch diese Argumentationsweise ist nicht schlüssig. Trends sind keines wegs objektive Realitäten. Auch sie hängen entscheidend vom Vorverständnis ihrer Autoren ab, also davon, was sie prognostizieren und ableiten wollen. Zunächst hat man eine Wahl zwischen verschiedenen Modellen, die man einer Zeitreihe unterlegen kann. Das Ergebnis hängt davon ab, ob man eine lineare Abhängigkeit oder exponentielles Wachstum annimmt, ob man eine zyklische Entwicklung voraussetzt oder eine S-Kurve, die einem Sättigungswert zustrebt. Es gibt keine « richtige » Auswahl, die sich aus der Natur der Daten ergäbe. Weiterhin ist jede Voraussage auf die Annahme von Invarianten gestützt, d. h. von Größen, die als unveränderlich angesehen werden: Es gibt keine Veränderung ohne Unveränderliche. So wird entweder die Bevölkerungswachstumsrate als konstant angenommen, oder die Veränderungsrate der Veränderungsrate usw. Auch dies ist eine « willkürliche » Entscheidung des Prognostikers. Wenn er z. B. aus einer Bevölkerungszunahme eine Zunahme des Energiebedarfs herleitet, um daraus rückzurechnen, welche Kraftwerkskapazität man folglich schon jetzt vorsehen muß, dann hat er offensichtlich die Bevölkerungsentwicklung und das Energie-Konsumverhalten als invariant angenommen. Denkbar und ebenso plausibel wäre ein Modell, das die Versorgungskapazität als invariant ansieht (es kann ja nicht mehr verbraucht werden als produziert wird), so daß bei invarianter Bevölkerungsentwicklung der Pro-Kopf-Verbrauch geringer werden müßte. Ein weiteres Modell würde, begründet mit der Verknappung der Versorgung, die Bevölkerungszuwachsrate abnehmen lassen. Den Einwand, daß « arme Leute immer mehr Kinder kriegen, je ärmer sie werden », kann man ja damit enthärten, daß dies ja nicht so sein muß, daß es eine Frage der Aufklärung und Einsicht sei usw., usw. Die Wahl der Invarianten – und damit die ganze Prognose und die auf sie gestützten Sachzwänge – ist ein Produkt der Weltansicht des Prognostikers. Abermals läßt sich der Objektivitäts- und Sachzwang-Anspruch nicht halten. Womit sich eine weitere Anti-Sachzwang-Strategie anbietet. Vom Sachzwang bleibt in der Tat nicht viel übrig, wenn man genau hinschaut. Er verdankt seine gespenstische Existenz dem Bedürfnis von Entscheidern, sich absichern zu wollen. Der Sachzwang entschuldigt, er soll Opposition mundtot machen. Entscheider sind des Entscheidens müde, froh, wenn es nichts zu Entscheidendes gibt, wenn sie lediglich dem Notwendigen seinen Lauf zu erleichtern haben. Man sollte den Entscheidern diese komfortable Position nicht belassen. Entscheidungen sind kategorisch unableitbar. Volksvertreter werden gewählt, Beamte werden vereidigt, damit sie ihre Urteilskraft anwenden und nicht, damit sie sich auf Sachzwänge herausreden. Die Hochschätzung des Sachzwanges hat es nicht immer und überall gegeben. Die gegenwärtige, vielleicht psychologisch erklärbare Mode des Sachzwangdenkens verdient ein schnelles Ende. Man würde es daran erkennen, daß Aussagen der Form « Es ist unmöglich, daß … » oder « Es geht nicht » ersetzt würden durch « Ich sehe keine Möglichkeit, um … zu … »; an Stelle von « Das und das wird geschehen »
248 PLANUNG UND POLITIK
träte « Ich sehe das und das auf uns zukommen »; « Es muß das und das getan werden » würde ersetzt durch « Mir fällt nichts anderes ein, als das und das zu tun ». Dabei würden alle diese Aussagen die Einladung enthalten, weitere Möglichkeiten finden zu helfen. Sachzwänge verdummen. Es wäre gut, wenn das Wort Sachzwang gar nicht erst seinen Weg in deutsche oder anderssprachige Wörterbücher finden würde.
*
Quelle: Skript einer Radiosendung. Deutschlandfunk, Abt. Literatur und Kunst. Sendung vom 5. Dezember 1976. Arbeitspapier S-76-1, Institut für Grundlagen der Planung, Universität S tuttgart, 1976.
Sachzwänge – Ausreden für E ntscheidungsmüde? 249
Spezielle Probleme
Zukunftsorientierte Raumordnung*
1. Die Einsicht, daß es so nicht weitergeht Seit einigen Jahren bedarf es keines warnenden Propheten mehr, um die Einsicht zu verbreiten, daß die Umweltnische, in der die Spezies Homo sapiens angesiedelt ist – also jene Kugelschale von einigen Kilometern Dicke und ca. 6400 Kilometern Radius –, weder unermeßlich geräumig, noch unerschütterlich stabil gegen die Auswirkungen menschlichen Treibens ist, noch daß ihre Ressourcen weise genutzt und gerecht verteilt werden. Dies ist einer Fülle beunruhigender Erscheinungen zu verdanken, wie z. B. • immer häufigeren Fällen überkritischer Luft- und Gewässerverseuchung, • chronischen Hungersnöten bei gleichzeitigen landwirtschaft lichen Anbaubeschränkungen und « Butterbergen » in anderen Weltteilen, • Verelendung, Zerfall und Verstopfung in den Städten trotz aller Sanierungsmaßnahmen, • Mieten, Land- und Baupreisen, die schneller steigen als die Inflationsrate, • die Verknappung selbst so « gewöhnlicher » Ressourcen wie Trinkwasser in städtischen Ballungen. Die zunehmende Umweltbewußtheit kommt in der Tagespresse, in zahlreichen Kongressen und wissenschaftlichen Veröffentlichungen, aber auch in den programmatischen Reden der Politiker zum Ausdruck. Sie bleibt nicht auf die vielerorts kritischen lokalen oder regionalen Probleme beschränkt: Man hat gelernt, auch globale Fernwirkungen zu erkennen – wie etwa die Anreicherung von CO2 in der Atmosphäre oder die weltweite Ausbreitung und selektive Akkumulation von Insektiziden. Es ist klar geworden, daß es keines nuklearen Krieges bedarf, um die Erde unbewohnbar zu machen.1 Gleichzeitig schwindet das Vertrauen in traditionelle Regelungspraktiken. Laissez-faire und freie Marktwirtschaft sind keine Mechanismen, welche erträgliche Zustände gewährleisten: Viele der manifesten oder drohenden Katastrophen sind ja gerade das Resultat vieler Einzelverhalten im Wettbewerb um das gute Leben. Smog und systematische Verkehrsverstopfung im Gefolge vorstädtischer Zersiedlung sind Beispiele für kumulative Effekte marktartigen Verhaltens, die niemand vorausgesehen oder gar gewollt hat, und die fast jedem unerwünscht sind. Ange-
252 SPEZIELLE P ROBLEME
sichts solcher Phänomene propagiert kaum jemand Vertrauen in Darwinsche natürliche Selektion, denn das Prinzip der Auswahl des heute Tüchtigsten im Kampf ums Dasein führt höchstwahrscheinlich zu sehr stabilen Zuständen, welche auch die Ausrottung des Tüchtigsten oder wenigstens seiner Nachkommen zur Folge haben. Man hat eingesehen, daß man « anti-evolutionär » handeln muß. Auch der egozentrische und beruhigende Optimismus ist selten geworden, wonach die Ingeniosität zukünftiger Generationen schon mit den Umständen fertig werden wird, welche wir ihnen hinterlassen. Man beginnt, sich die Köpfe der Ungeborenen zu zerbrechen, denn die lebende Generation habe die letzte Chance, eine erträgliche – wenn überhaupt eine – Zukunft zu gewährleisten. Die Grundstimmung ist pessimistisch. Fast jeder ist der Meinung, « daß es so nicht weitergeht ». Es besteht weitgehende Einigkeit darüber, daß « man » jenen gefährlichen Entwicklungen nicht tatenlos zusehen dürfe, und daß es dringend der konzertierten Planung bedarf, um das menschliche Habitat als erträgliche Wohngegend und für alle ausreichende Versorgungsgrundlage zu retten. Es erhebt sich die Frage, wie das zu bewerkstelligen ist – vor allem, wer jene anonymen Akteure sind.
2. Raumordnung Man ist geneigt, die Vokabel « Raumordnung » in das Wörterbuch des Unmenschen zu verbannen. Seine assoziative Nähe zu « Neuordnung des Ostraumes », « Lebensraum », « Volk ohne Raum », « Geopolitik » ist störend eng. Dennoch ist « Raumordnung » im Deutschen die Bezeichnung für diejenigen Tätigkeiten geblieben, welche die Nutzung und die Verteilung von Grund und Boden planen und regeln. Man könnte dafür auch « Stadt- und Regionalplanung », « Territorialplanung » oder ähnliches sagen. Für die Beibehaltung der Vokabel spricht ihre etymologische Offenheit, die es gestattet, ihre Bedeutung nicht auf festländisches Terrain zu beschränken, sondern auf Luftraum, Ozeane und extraterrestrische Bereiche einzubeziehen. Im Hinblick auf die eingangs skizzierten Entwicklungen erscheint eine solche Begriffsausweitung angebracht zu sein. Außerdem ist eine Erweiterung der betrachteten Raumnutzungsarten angebracht: Auch die Entnahme von O2 aus der Luft, die Erzeugung von CO2, Abwässern und Müll, die Teilnahme am Verkehr sind Raumnutzungen. Wie jede Planung ist Raumordnung zukunftsorientiert, denn Planung bedeutet ja gerade den Gegensatz zu « in den Tag hinein leben », « den lieben Gott einen guten Mann sein lassen », « kommt Zeit, kommt Rat » und ähnlichen Maximen. Alle in (1) angedeuteten Probleme sind Aufgaben für die so verstandene Raumordnung: Wie sollte die Nutzung welcher Räume im Hinblick auf welche Zukünfte in wessen Interesse geplant werden? Im folgenden sollen einige prozedurale Aspekte der Raumordnung erörtert werden. Denn es mag zwar erbaulich und auch
ZUKUNFTSORIENTIERTE RAUMORDNUNG 253
nützlich sein, Visionen zukünftiger Ansiedlungsweisen zu entwickeln, aber wichtiger und schwieriger als denkbare Zukünfte auszudenken ist das Problem der Entscheidung, welche Zukunft « man » herbeiführen will und soll, und wie sie dann tatsächlich in die Wege geleitet werden kann.
3. Zentrale Fragen Damit ergeben sich die Fragen: • Was ist die Natur des Wissens, auf das sich Raumplanung abstützt, und wie hängen Pläne von diesem Wissen ab? • Wer soll planen? Wie erhält der Planer seine Legitimation von denen, für die er plant? Was macht ihn zum Experten des Planens? • Was ist das Verhältnis des Planers zur Macht? Wie implemen tiert man Pläne angesichts von Interessenkonflikten? Diese Fragen sind nicht spezifisch für die Raumordnung, sie sind typisch für alle Arten ernstgemeinter Zukunftsforschung, die sich nicht auf « akademische » Spe kulationen beschränken will oder nur, bewußt oder nicht, etablierte Herrschaftsverhältnisse bestärken will. Im folgenden werden einige Aspekte dieser Fragen erörtert, um daraus einige Schlüsse für den Entwurf von Planungssystemen zu ziehen. Zunächst sollen verschiedene Argumentationsformen diskutiert werden, wie sie häufig benutzt werden, um zu Grundlagen für die Raumordnung zu gelangen.
4. Das Argument von der Übervölkerung Um zu Grundlagen für die Raumordnung zu gelangen, liegt es nahe, zunächst nach quantitativen Faktoren zu suchen, welche grundsätzliche Schranken für die Planung setzen. Angesichts der Bevölkerungsexplosion scheint vor allem die Enge des verfügbaren Raumes eine kritische Größe zu sein. Zum Beispiel: Welche Siedlungsformen sollte man ausschließen, weil sie angesichts des Bevölkerungsdruckes nicht ratsam sind (da die ohnehin bald revidiert werden müßten). Von den etwa 500 Mio. qkm Erdoberfläche ist etwas mehr als ein Viertel Festland (großenteils äußerst unwirtlich), wobei Polarregionen und unbewohnte Inseln nicht eingerechnet sind. Bei einer Bevölkerungszahl von etwa 3,5 Milliarden entfallen somit 4 Hektar Festland auf die Person. Für die Frage der angemessenen,
254 SPEZIELLE P ROBLEME
« zukunftsorientierten » Siedlungsformen ist dieser Flächenanteil um Größenordnungen zu groß, um daraus auf eine grundsätzliche Schranke etwa für die Besiedlungsdichte, selbst bei Vervielfältigung der Bevölkerung, schließen zu können. Faßt man die Raumnutzungen des Wohnens, der industriellen Produktion, der Versorgung und der « Nah-Erholung » als « Besiedlung » zusammen (es fällt mir kein besseres Wort ein), dann macht die besiedelte Fläche nur einen geringen Teil der verfügbaren Gesamtfläche aus. Denn immer mehr Menschen sind in « megapolitanischen » Ballungen konzentriert, immer weniger sind anteilmäßig mit der Landwirtschaft befaßt. In den USA wohnt die Hälfte der Einwohner auf weniger als einem Prozent der Fläche, in England auf weniger als vier Prozent. Die besiedelte Fläche kann sehr verschieden strukturiert sein. Schon das simple Kriterium der Bevölkerungsdichte variiert um mehrere Größenordnungen in stadtartigen Besiedlungen: In Manhattan liegt sie bei 30 000 pro qkm, in Harlem erreicht sie 100 000 pro qkm, in West-Berlin liegt sie bei 3600 und in Los Angeles erreicht sie durchschnittlich 2100 Einwohner pro qkm. Die Unterbringung der gesamten Erdbevölkerung (von, sagen wir, 4 Milliarden) in einem einzigen Manhattan (oder in vielen Manhattans) erforderte etwa die halbe Fläche der Bundesrepublik. Dabei ist zu bedenken, daß es in Manhattan großzügige Parks, viel Industrie, Handel und Gewerbe sowie Arbeitsstellen für viel mehr Personen gibt als dort Einwohner sind. Wollte man einen Besiedlungstyp wie Los Angeles zum universalen Prinzip erheben, brauchte man etwa die doppelte Fläche von Texas, um alle Leute unterzubringen, zu beschäftigen, zu verwalten usw. Diese Vergleiche lassen sich häufen. Wenn man jeder Familie großzügig ein Grundstück von 30 × 60 qm zubilligen wollte – was einer Dichte von 1600 pro qkm entspräche – wäre der Sudan, Argentinien oder Indien für alle Lebenden zureichend. Grundstücke von 15 × 30 qm (d. h. 5300 EW/qkm) würden die Flächen der Bundesrepublik und Frankreichs erfordern. Hierbei sind Verkehrsflächen, Parks usw. nach Mittelklassenvorstellungen eingerechnet. Schließlich würde die erforderliche bewohnte Fläche bei Bebauung mit geräumigen 12-stöckigen Appartement-Häusern, eingelagert in viel Grün, ein Gelände der Größe Panamas, Taiwans oder der Hälfte des Staates New York erfordern (85 000 EW/qkm). Hinzu kämen vergleichsweise kleine Flächen für Industrie, Versorgung usw.2 So grob und überschlägig solche Betrachtungen sein mögen, so deutlich zeigen sie, daß die oben als Besiedlung definierten Raumnutzungsarten nur eines kleinen Teiles der verfügbaren Gesamtfläche bedürfen, was auch immer die Konfigurationen der Ansiedlungen sein mögen. Selbst bei starkem Bevölkerungswachstum ist die Quantität der besiedelten Fläche auf lange Sicht keine kritische Größe. Kritisch sind indessen der um Größenordnungen höhere Bedarf an Nahrungsmittel Produktionsfläche und/oder die Technologie der Nahrungsmittelproduktion s owie der Kontrolle der Produkte des Metabolismus von Siedlungen und Produktions stätten. Wenn es nicht gelingt, die Bevölkerungszunahme zu drosseln, können Hunger und/oder Selbstvergiftung dafür sorgen, daß es nicht zur Realisierung der
ZUKUNFTSORIENTIERTE RAUMORDNUNG 255
Vision kommt, wonach die Erde von wabenartigen Strukturen bedeckt sein wird, in deren winzigen Zellen eine eingepferchte Menschheit allmählich erstickt. Die Folgerung: Aus derartigen quantitativen Gegebenheiten der Erdoberfläche lassen sich keine globalen Folgerungen für die Angemessenheit verschiedener Typen von Ansiedlungen ziehen.
5. Das Argument auf der Grundlage von Trends und Zwangsläufigkeiten Wenn schon quantitative Verfügbarkeit keine Hinweise für angemessene Raumordnungen liefert, mag man versuchen, Schlüsse aus der Analyse von Entwicklungstendenzen zu ziehen. Welche Implikationen für die Raumordnungen ergeben sich aus Trends und Tendenzen? Nicht selten hört man heutzutage die Aussagen wie « Die Erdbevölkerung wird bis zum Jahre 2000 auf 10 bis 15 Milliarden anwachsen », « Die Abwanderung aus den Kernstädten nach Suburbia wird über die nächsten Jahrzehnte anhalten », « 1975 wird es in der BRD 1,5 Automobile pro Haushalt geben ». Stillschweigend oder explizit legen solche Äußerungen nahe, daß man « folglich » bestimmte Planungsmaßnahmen ergreifen müsse: Mehr Nahrungsmittel produzieren, den Eigenheimbau subventionieren, breitere Straßen bauen usw. So beliebt diese Schlußweise sein mag, so wenig schlüssig ist sie. Trends und Entwicklungsprognosen sind Extrapolationen auf der Grundlage beobachteter Zeitreihen, denen z. B. ein Regressionsmodell unterlegt wird. Folglich beruhen sie auf der Annahme, daß die « Mechanismen », welche die Zeitreihe erklären, unverändert bleiben. Folglich liefern Trends nur Indikatoren dafür, was geschehen kann, wenn nichts geschieht, d. h., wenn sich nichts ändert und nichts geändert wird, was die bisherigen Entwicklungen herbeigeführt hat. Jede Aussage über einen Trend sollte eine « ceteris paribus »-Klausel enthalten: « X ist zu erwarten, wenn nichts dazwischen kommt ». Trends zeigen weder an, was geschehen wird, oder geschehen muß, noch deuten sie darauf hin, was getan werden sollte. So wird der Trend in die Vorstädte nur dann anhalten, wenn die Leute einen anderen Wohnstil nicht als attraktiver zu betrachten lernen; die Bevölkerungsexplosion wird nur dann stattfinden, wenn sich das Fortpflanzungsverhalten nicht ändert. Es sind aber gerade diese intervenierenden Faktoren, welche den Planer interessieren sollten. Er will doch gerade Entwicklungen in die Wege leiten, welche ohne Intervention nicht zu erwarten wären. So offenkundig diese Überlegungen sind, so verbreitet ist die Trendgläubig keit in Politik und Planung. Diese Popularität rührt vermutlich daher, daß der « Genosse Trend » sogenannte « Sachzwänge » anbietet, in die man sich besser schickt
256 SPEZIELLE P ROBLEME
(was einfach ist, wenn man den ceteris-paribus-Zusatz vergißt), und auf die sich einzurichten man wohlberaten ist. Sachzwänge entbinden von der Entscheidung – auf den « bandwagon » zu springen, macht das Regieren und Planen bequem. Aber abgesehen davon, daß man den beobachteten Zeitreihen ein falsches Modell unterlegt haben könnte; die Akzeptierung eines Trends als Merkmal der wahrscheinlichen Zukunft bedeutet den Verzicht darauf, ihn umlenken zu wollen. Sie ist ein Zeichen der Resignation, eine Einengung des Planungsspielraumes. Sicherlich gibt es keine Planung ohne Prognose und keine Prognose ohne die Annahme von Invarianten, d. h. Sachverhalten, welche über die Spanne der Planung als unveränderlich betrachtet werden.3 Solche Invarianten können Trends sein oder Wachstumskonstanten, Wohngewohnheiten oder strukturelle Invarianten (im Sinne von B. de Jouvenel, der damit etwa verfassungsrechtliche Gegebenheiten, Eigentumsformen u. dgl. meint). Dem Planer bietet sich indessen eine Fülle von Trends und anderen Kandidaten für solche Invarianten, welche nicht alle gleichzeitig akzeptiert werden können, da sie unvereinbar miteinander sind. Der Planer hat das Problem, unter den vielen denkbaren Invarianten eine Auswahl zu treffen. Diese Auswahl ist nicht quasilogisch vorgegeben, sondern eine Frage der Phantasie und des Selbstvertrauens. Welche Trends man zu Invarianten und Grundlagen seiner Planung macht, hängt wesentlich von der Einschätzung der eigenen Machtposition ab, wozu auch die Zuversicht gehört, daß man andere von der eigenen Position überzeugen kann, nach der ein Trend akzeptiert oder umgelenkt werden sollte. Es fehlt nicht an Beispielen, wo kurzsichtige Trendgläubigkeit das G egenteil des Beabsichtigten bewirkt hat. Viele Planung geschieht im Hinblick auf einen projizierenden Bedarf auf der Grundlage extrapolierter Zeitreihen. Nicht selten tritt dann das Saysche Gesetz in Kraft: Man prognostiziert etwa eine Zunahme des Straßenverkehrs über die Verkehrsarterien einer Großstadt und erweitert « folglich » deren Kapazität in der Erwartung, daß sie die Zunahme aufnehmen werden. Damit wird jedoch der Zugang in die Innenstadt aus größeren Entfernungen erleichtert, womit es einfacher wird, sich noch weiter vom Arbeitsplatz entfernt anzusiedeln als bisher. Dieses Verhalten erzeugt neuen, unprognostizierten Verkehr, und das ausgebaute System erweist sich schon bald als hoffnungslos unterdimensioniert. Auch großzügige Erfüllung prognostizierten Bedarfes kann ihren eigenen Zwecken entgegenwirken. Aus diesen Gründen, vor allem aber wegen der Willkür der Auswahl von hingenommenen Invarianten, bieten Trends und andere Zwangsläufigkeiten keine « objektive », d. h. interessenunabhängige Basis für die Raumordnung.
ZUKUNFTSORIENTIERTE RAUMORDNUNG 257
6. Argumente aufgrund von Raumordnungstheorien Die vorangehenden Erörterungen mögen nicht verwunderlich sein, da Trends nur beschreiben und nichts erklären. Man müsse die Wirkungszusammenhänge « hinter » den Trends durch eine Theorie erklären. Um z. B. die oben angedeutete Varia tionsbreite der Besiedlungsdichten in Städten zu verstehen, brauche man eine Theorie, welche die Verhaltensmuster von Bevölkerungen, deren Motivationen, ökonomische und technologische Gegebenheiten und andere Variable kausal miteinander verknüpft, so daß aus ihr die empirischen Fakten folgen. Es fehlt nicht an solchen Theorien. Bei deren Durchsicht fällt indessen auf, daß verschiedene Autoren nicht selten zu widersprechenden Folgerungen gelangen und somit – trotz gleicher Faktenbasis und gleichermaßen wissenschaftlichen Vorgehen – zu sehr verschiedenen Vorschlägen für angemessene Raumordnungen gelangen. Dieses Phänomen läßt sich am besten demonstrieren, indem man die Schlußweisen der Proponenten zweier gegensätzlicher Positionen gegenüberstellt. A und B seien Planer, welche zur Frage der angemessenen städtischen Ballungsdichte Stellung nehmen. Zunächst die Theorie von A: « Die hohe Bevölkerungsdichte, wie wir sie in den heutigen Kernstädten finden, erklärt sich aus der Entstehungsgeschichte dieser Städte. Städte wurden gegründet, 1. als Handels- und Umschlagplätze für Güter, 2. als Orte für zentrale Dienste (Regierung, Verwaltung usw.), 3. als Kommunikationszentren (Schule, Bibliothek, Börse, Theater usw.), 4. als feste Plätze für die Verteidigung. Später kamen hinzu: 5. als Standorte der Industrieproduktion und Wohnorte für deren Arbeitskräfte. Keiner dieser Gründe für die Existenz von Städten hoher Ballungsdichte ist noch gegeben: Zu 1.: Heute gibt es ein effizientes Transportwesen für Menschen und Güter, so daß man nicht mehr alle Güter an einen Platz zu schaffen braucht, um sie erst auszutauschen und dann wieder zu verteilen. Zudem erlauben gut geregelte Praktiken der Qualitätsnormung und der Gütegarantierung den Güteraustausch ohne persönlichen Augenschein. Zu 2. und 3.: Telekommunikation ist ein effektives Substitut für Personentransport. So erspart das Telephon manches persönliche Zusammentreffen, etwa zum Zwecke der Verwaltung, des Geldverkehrs, der Nachrichtenübermittlung. Wo diese Substitution nicht möglich oder unerwünscht ist, haben wir das Automobil als individuelles Transportmittel, das – gegebenenfalls im Verbund mit den nicht minder effektiven Ferntransportmitteln – die Kommunikationspartner schnell und bequem zusammenbringt.
258 SPEZIELLE P ROBLEME
Zu 4.: Die moderne Kriegstechnik legt Dezentralisierung und Entballung von Siedlungen, Einrichtungen und Produktion dringend nahe. Zu 5.: Die Industrie ist immer weniger auf ihre Nähe zu Wohnballungen angewiesen. Hohe individuelle Mobilität, öffentliche Transportnetze lassen weite Einzugsgebiete zu. Hinzu kommt der relative Bedeutungsverlust der arbeitsintensiven Schwer- und Großindustrie zugunsten weitgehend automatischer Leichtindustrien, die ihren Standort ziemlich unabhängig von Energiequellen oder Rohstofflagern wählen können. Das gilt noch stärker für die Dienstleistungsindustrie, die – ebenfalls wegen der Möglichkeiten der Telekommunikation und des Personentransportes – keineswegs örtlich konzentriert zu sein braucht. Aus alledem folgt, daß die alte, dichte Kernstadt obsolet ist. Man sollte sie abschaffen, anstatt zu versuchen, sie mit Riesensummen ohne Erfolgsaussicht am Leben zu erhalten – nur aus Sentimentalität. Die Zerfallserscheinungen sind unerträglich geworden. Die Stadt alter Form (und Dichte) erstickt an den Produkten ihres eigenen Metabolismus. Wer sich eine vernünftige Behausung leisten kann, zieht in die Vorstädte. Zurückbleiben ungesunde Lebensbedingungen, Armut, Verbrechen und Laster. Die angemessene Raumordnung ist eine lockere offene Bebauung niederer Dichte mit vielen lokalen Zentren. »
Soweit A’s Argument. Selbstverständlich belegt er alle seine Behauptungen mit aten, Korrelationen, Trends u. dgl. D B’s Argument lautet etwa: « Mögen auch die ursprünglichen Motive für Stadtgründungen und die Entwicklung städtischer Ballungen nicht mehr gegeben sein, so sind die Städte doch vorhanden, und die meisten Kulturen sind auf sie eingerichtet. Daß in vielen Gegenden die Städte zerfallen, hat verschiedene Gründe. In westlichen Ländern liegt es an einer jahrzehntelangen Zersiedlungspolitik, beruhend auf einer törichten Eigentums- und Nachbarschaftsideologie, die längst keiner mehr glaubt. Augenfälligste und lästigste Folge ist ein ungeheuer kostspieliger Verkehrsaufwand mit Folgeerscheinungen wie Luftverschmutzung usw. Beschleunigende Ursache der Krise ist die Tatsache, daß diejenigen, welche städtischen Einrichtungen (Straßen, Polizei, Verkehrsmittel, kulturelle Einrichtungen) täglich benutzen, nicht dafür bezahlen, denn sie sind ja sonstwo ansässig und steuerpflichtig. Folglich verarmen die Städte, was noch durch die Tatsache verstärkt wird, daß die Abwanderung der Mittelklasse einen überproportionalen Anteil an Minderbemittelten zurückläßt. Wichtiger ist noch, daß nur hochkonzentrierte Kernstädte Lebensstile und Opportunitäten ermöglichen, welche in dünnbesiedelten, suburbanen Gegenden nicht möglich sind. Nicht alle Kommunikation ist durch Telekommunikation zu ersetzen. Vor allem die zufällige Begegnung wird nur bei zentralstädtischer Dichte zum wahrscheinlichen Ereignis. In Suburbia trifft man nur Leute, die man schon kennt – zumal man sich schon über mittlere Entfernungen eines allseitig geschlossenen, privaten Gefährtes bedienen
ZUKUNFTSORIENTIERTE RAUMORDNUNG 259
muß. Es gibt jedoch gute Gründe für die Hypothese, daß offene und reiche Kontaktmöglichkeiten nicht nur eine Voraussetzung für das sind, was man als « Kultur » bezeichnet, sondern auch politischem Radikalismus der faschistischen Art und anderen Sozialneurosen entgegenwirken. Schon das simple Problem, einen Abend zu verbringen, zeigt den Unterschied: In der Kernstadt kann man ohne Plan aus dem Hause gehen und sich von seinen Eindrücken und Einfällen leiten lassen, angesichts einer Vielzahl von Opportunitäten, unbeschwert von technischem Ballast – etwa eines Automobils. Dagegen steht der permanente Planungszwang in Suburbia: Man ist wohlberaten, seinen Platz für das Abendbrot in einem meilenweit entfernten Restaurant reservieren zu lassen (denn das nächste Restaurant ist meilenweit vom ersten entfernt und vielleicht ebenfalls überfüllt). Man braucht genaue Verabredungen mit seinen Freunden usw. Das romantische Gerede von der Vermassung in der dichten Kernstadt ist Unsinn: Sie erlaubt Anonymität, macht aber gleichzeitig die Bildung « unverhoffter » Beziehungen leicht, die nicht – wie in der « segregations »-erzwingenden Suburbia – schon durch Architektur und Immobilienpreise vorgezeichnet sind. Suburbias Sozialkontrolle, ihre Homogenität und Weiträumigkeit haben einen Lebensstil mit sich gebracht, der die absonderlichsten Erscheinungen zeigt: Prestigekonsum, Grüne Witwen, hohe Ehescheidungsquoten, beträchtlichen Rauschgiftkonsum selbst in gehobenen Kreisen, Rebellion der nächsten Generation. Alles das zeigt, daß vorstadtähnliche Verdünnung von Bevölkerung, Industrie und Dienstleistungen keine über längere Sicht lebensfähige Lösung des Raumordnungsproblems darstellt. Dies demonstriert schon die zunehmende Rückwanderungstendenz in die Zentralstädte. Sicherlich ist die Verbrechensdichte in den Städten höher als draußen. Das liegt am sozialen Gefälle – Verbrechen ist der Gefährte der Armut –, am Mangel an Gelegenheit (Juweliere sind « downtown »), aber auch an der hohen Dunkelziffer in Suburbia: Das Polizei- und Kriminalsystem ist auf relativ primitive Gewaltverbrechen spezialisiert; es fehlt an Ausbildung, Kapazität und Motivation, subtilere kriminelle Handlungen wie Betrug, Erpressung, Steuervergehen, « gehobenen » Rauschgifthandel aufzudecken und mit Nachdruck zu verfolgen. Zudem gibt es Anzeichen für eine Zunahme von Gewaltverbrechen auch in Suburbia – man denke nur an die « Feiertagstragödien », bei denen ein Streit um das Recht zur Benutzung des Prestigeautomobils zur Ausrottung ganzer Familien führt. Alles dies legt eine Raumordnungsstrategie nahe, welche auf die Erhaltung der (zugegeben heruntergekommenen) Zentralstädte, auf die Entwicklung neuer Siedlungs zentren hoher Dichte sowie auf die Drosselung weiterer suburbaner Zersiedlung abzielt. »
Soweit B’s Argument. Auch er stützt seine Theorie mit vielen Fakten. Es können sogar dieselben Daten sein, welche A benutzt hat. Beide – hier nur karikierten – Positionen lassen sich weiterentwickeln, andere Positionen lassen sich daneben konstruieren.4 Wert und Unwert von Automobilen, Grüngürteln, U-Bahnen und Satellitenstädten können ins Spiel gebracht werden.
260 SPEZIELLE P ROBLEME
Daß wissenschaftliche Vorgehensweise zu verschiedenen Resultaten führen kann, ist nicht erstaunlich. Mindestens seit Popper weiß man, daß aus Fakten keine Theorie folgt. Daten werden erst sinnvoll auf dem Hintergrund einer Theorie. Fakten können Theorien nur widerlegen oder bestätigen, jedoch niemals beweisen oder gar implizieren. Daß es z. B. in der Physik solche Kontroversen mei stens nicht gibt, liegt daran, daß der Physiker die Möglichkeit zur Widerlegung einer Theorie mit Hilfe des Experiments hat, also sorgfältig kontrollierter und hinreichend reproduzierbarer Situationen. Raumplaner und andere mit der Zukunft Befaßte haben diese Möglichkeit nicht. Denn für sie ist jede Situation « wesentlich » einzig und unwiederholbar. « Wesentlich » meint, daß die Spezifika des gegebenen Falles in unabschätzbarer Weise « stärker » sein können als die Gemeinsamkeiten mit anderen, ähnlichen Situationen. Infolgedessen sind die in der empirischen Wissenschaft üblichen Regeln für die Widerlegung von Theorien nicht anwendbar. Theoriewidrige Fakten können auf verschiedene Weisen von dem Proponenten der Theorie assimiliert werden. Einmal läßt sich jedes störende Faktum zur « Ausnahme » erklären (und solche bestätigen bekanntlich die Regel): « Im allgemeinen hält die Abwanderung in die Vorstädte an, aber in diesem speziellen Falle führen die topographischen, ökonomischen und soziologischen Besonderheiten zum gegenteiligen Befund. » Verwandt damit ist das « zwar-aber-Argument »: « Die Verkehrsdichte mag zwar ansteigen, aber dafür haben Hunderttausende den Vorteil des Wohnens im Grünen. » Zudem gibt es die Möglichkeit, ein Faktum durch verschiedene Ursachen zu erklären: Man kann steigende Verbrechensraten durch zu hohe Bevölkerungsdichte, durch allgemeinen Sittenverfall, durch Armut oder durch Mangel an Polizei erklären. Schließlich können Hypothesen des Planers durch strategische Reaktionen « absichtlich », falsifiziert werden – etwa seitens der durch die Planung Betroffenen (auch diese Sorge ist dem Wissenschaftler fremd, da er die Konvention genießt, daß niemand während eines Experimentes an den Instrumenten manipulieren darf).
7. Wissenschaftliche Planung? Die Logik der Planung ist demnach verschieden von der Logik der Wissenschaft. Hinter jeder Theorie der Raumordnung steht – meistens unausgesprochen – die « Weltanschauung » ihres Verfassers, seine Ansicht von der angemessenen Gesellschaftsordnung, vom anzustrebenden Lebensstil, vom guten Leben und Wohnen. Demnach ist es nicht verwunderlich, daß eifrige Liebhaber von Altstädten und weltstädtischem Getriebe ähnliche Theorien wie B vertreten, während Technokraten oder Kleineigentums-Fanatiker sich auf die Seite von A zu schlagen geneigt sind. Deshalb gibt es keine wissenschaftlich begründete Raumordnung.5 Es fehlen die Kriterien und Konventionen der Erfahrungswissenschaften, welche « objektiv »
ZUKUNFTSORIENTIERTE RAUMORDNUNG 261
zu entscheiden erlauben, welche von zwei Theorien besser ist, wobei es (fast) nichts ausmacht, wer den Test ausführt (das muß indessen nicht heißen, daß der Planer nicht häufig wissenschaftliche Methoden anwenden soll). Das « Sollbild » des jeweiligen Planers lenkt jeden seiner Schritte. In der gegenwärtigen Praxis des Planens wird nicht einmal verlangt, daß dieses Sollbild transparent und explizit gemacht wird. Nicht selten ist es hinter einem Objektivitätsanspruch verborgen, mit dem, gewissermaßen ex cathedra, Planungsideen, « Lösungen » und Strategien mit dem Anspruch nüchterner Richtigkeit verkündet werden. Häufig wird sogar der Verdacht, daß ein solcher Vorschlag von « subjektiven » sozialpolitischen Sollvorstellungen beeinflußt sein könnte, unter Berufung auf « technische Notwendigkeiten » und « Sachzwänge » (s. o.) entrüstet bestritten. Allerwegen hört man Aussagen wie « Die optimale Stadt der Zukunft wird 70 000 Einwohner haben ». Derartige Behauptungen verdienen Skepsis: Was meint « wird »? Für wen optimal? Wer hat die Vorteile, wer die Nachteile? Wo ist der Nachweis, daß es keine bessere Lösung gibt? Wer ist es, der die Behauptung vertritt?
8. Weitere Argumentationstypen Es werden noch andere Typen der Argumentation für die Ableitung von Implikationen für die Raumordnung benutzt. Um nur einige anzudeuten: • Das Argument von den technologischen Leistungsgrenzen, z. B. daß wegen der technologischen Konstriktionen der Verkehrs-, Versorgungs- und Entsorgungssysteme eine Ballung nicht mehr als N Einwohner und einen Radius von R km haben kann. Offenbar geht diese Schlußweise von der Annahme aus, daß die betrachteten Technologien nicht von anderen abgelöst werden. • Das Argument vom Zwangslauf technischer Evolution, z. B., daß im Jahre 1980, quasi aufgrund einer « inneren Logik » der technologischen Entwicklung, elektrisch betriebene Automobile die Verbrennungsmaschinen verdrängt haben werden. Hier besteht die (oft unausgesprochene) Annahme, daß technologische Möglichkeiten « letzten Endes » politische Unterstützung und Investitionsmittel für ihre Realisierung finden werden, sowie das Vertrauen in den Genius der Erfinder, die schon rechtzeitig die richtigen Erfindungen machen werden. • Das Argument von den objektiv bestimmbaren Minimal bedürfnissen des Menschen, deren weltweite Erfüllung und
262 SPEZIELLE P ROBLEME
Garantierung wichtigstes und vielleicht einziges Ziel aller Planung sei. Leider gibt es kaum solche Standards, und zudem hängen sie vom Sollbild ihrer Verfasser ab. Zudem spielt sich die meiste Planung nicht an den kritischen Grenzen psycho-physiologischer Existenz ab. • Das Argument, wonach Planung ihre Ausrichtung durch eine soziale Wohlfahrtsfunktion erhält (social welfare function), die ein Maß für das aggregierte Gemeinwohl darstellt, und die es zu optimieren gilt. Abgesehen von den vielen methodologischen Schwierigkeiten der Aggregation individueller Nutzenmaße: Die Aufstellung einer solchen Funktion ist nicht wissenschaftlich objektiv möglich, sondern setzt ein sozialpolitisches Sollbild voraus (welches allerdings häufig nicht einfach aus dem ökonomischen Diskurs erschlossen werden kann). Alle diese Ansätze können nützliche Hilfsmittel für die Strukturierung von Planungsproblemen sein. Sie werden jedoch überstrapaziert, wenn man auf ihnen eine logische, empirisch-wissenschaftliche oder sonstwie objektive Notwendigkeit für bestimmte Raumordnungen begründen will.
9. Die Expertise zum Planen Diese Erörterungen zeigen, daß jede Planungsentscheidung, jeder Schritt des Planungsprozesses auf mindestens einer Prämisse beruht, welche nicht wissenschaftlich begründbar ist. Um zu einer Handlungsempfehlung zu gelangen, ist mindestens eine « deontische » Prämisse notwendig, welche konstatiert, was der Fall werden soll. Folglich gibt es keine professionelle Expertise über die Raumordnung der Zukunft. Die Raumordnung ist « beliebig » im Sinne des Logikers, d. h., sie läßt sich nicht erschließen. Fakten und wissenschaftlich gesicherte Befunde mögen zwar Argumentationsmaterial für den Ausbau von Positionen bieten, reichen aber nicht zu, um aus ihnen einen Plan abzuleiten. Die Situation des Planers ist grundsätzlich verschieden von der des Chemikers oder auch der des Arztes, für die in jedem speziellen Fall halbwegs klar ist, was « gesollt werden soll » (obwohl auch in diesen Metiers immer häufiger Fälle auftreten, wo das nicht so ist). Ohne Übertreibung kann man postulieren, daß es • die « offenen » deontischen Prämissen und • die Wahlfreiheit unter den gesicherten Fakten und den Theorien sind, welche das Planen schwierig machen.
ZUKUNFTSORIENTIERTE RAUMORDNUNG 263
In dieser Situation hat man die Wahl zwischen verschiedenen Standpunkten: • Man betrachtet den professionellen Planer als Experten auch für die Frage, wie die Welt – etwa ihre räumliche Gliederung – beschaffen sein sollte. Man vertraut seinem Urteilsvermögen und Sachverständnis. Soll er nur Pläne auf der Basis seiner eigenen Sollvorstellungen vorschlagen; Politiker und Öffentlichkeit werden sie dann schon kritisch diskutieren und über sie entscheiden. • Es wird angenommen, daß der Planer von seinem Auftrag geber mit hinreichenden Soll-Anweisungen versehen werden kann, so daß er aus ihnen, unter Hinzunahme seiner fachlichen Expertise, einen Planvorschlag entwickelt, der dem Sollbild des Auftraggebers gerecht wird. • Die fortgesetzte Aushandlung der deontischen Prämissen wird als zentraler Bestandteil des Planungsprozesses verstanden, an dem der professionelle Planer nur einer von vielen Teilnehmern ist. Es werden Planungsformen gesucht, durch welche die Delegation von Aufgaben des « Planens für andere » minimiert wird. Gegen die ersten beiden Positionen gibt es eine Fülle von Einwänden, von denen sich einige aus den vorangehenden Ausführungen ergeben. Planen für andere im Sinne des ersten Standpunktes wird um so schwieriger, je größer die kulturelle Distanz zwischen dem Expertenplaner und denen ist, auf die sich sein Plan bezieht. Denn selbst der altruistische Expertenplaner hat zunehmende Schwierig keiten, sich in die Position der Betroffenen « einzufühlen », wenn er sich selbst nicht mehr als Prototyp derer, für die er plant, betrachten kann. Außerdem gibt es mit zunehmender Wichtigkeit des Planungsproblems immer weniger Grund zu dem Vertrauen, welches die Voraussetzung für die Delegation einer Planungsaufgabe ist. Gegen den zweiten Standpunkt gibt es schwerwiegende methodologische Einwände. Es läßt sich zeigen, daß die hinreichende Spezifizierung einer Planungsaufgabe voraussetzt, daß alle denkbaren Lösungen für die Aufgabe im Detail bereits entwickelt sein müssen (denn welche Information der Planer braucht, hängt wesentlich von der Struktur seiner Lösung ab; verschiedene Lösungstypen verlangen verschiedene Information). Das heißt aber, daß man eine Planungsaufgabe erst vollständig gelöst haben müßte (auf alle erdenklichen Weisen!), bevor man sie deontisch kontrolliert an einen Experten delegieren könnte. Es bleibt der dritte Standpunkt (wenn man überhaupt noch an die Möglichkeit vernünftigen Planens glauben will). Er scheint den einzigen Ansatz zu bieten, um den geschilderten Dilemmas des Planens für andere zu begegnen.
264 SPEZIELLE P ROBLEME
Die Konsequenz ist die Demokratisierung des Planungsprozesses – schon aus methodologischen Gründen. Denn der Planer im herkömmlichen Planungsbetrieb bringt nur eine Expertise über seine eigene Soll-Welt mit. Der bessere (sogar: der beste) Experte für die deontischen Prämissen ist der von der Planung Betroffene, derjenige, dessen Lebensumstände durch den Plan verändert werden. Folglich sollten alle Betroffenen zu Beteiligten der Planung werden. Die Einwände gegen diese Position sind vielfältig und naheliegend: • Die Leute wüßten nicht, was sie wollten; wenn sie vorgäben, etwas zu wollen, könnten sie sich meistens nicht vorstellen, wie es sei, wenn sie es bekämen (was mancher Eigenheimbesitzer bestätigen wird), und wenn sie etwas nicht wollten, sei es häufig so, daß sie sich nicht vorstellen könnten, wie gut ihnen die bislang unbekannte, ungewollte Umwelt später gefallen würde. • Mit dem Planen sei es schon schwierig genug; wo solle man hinkommen, wenn außer den vielen Regierungsstellen mit den ohnehin schon frustrierenden Kompetenzschwierigkeiten praktisch jedermann mit- und dreinzureden hätte: Wer kenne nicht die notorischen Nörgler und Käuze, die eine Plage jeder Planungsstelle seien? • Es sei rührend, aber undurchführbar, alle Betroffenen in den Planungsprozeß einzubeziehen, wie schon die Unmöglichkeit zeigt, Unmündige und Ungeborene (die gleichwohl Betroffene sind oder sein werden) beteiligen zu wollen; wo solle es hinführen, wenn – was nur billig sei – außer der Raumordnung auch Strafvollzug, Erziehung und Ausbildung, Militär oder die Behandlung Geisteskranker von den Betroffenen kontrolliert würden? Sei’s drum. Es ist keine bessere Strategie in Sicht, welche die Misere der Raumordnung (wie auch anderer futurologischer Probleme) aussichtsreicher zu mildern verspricht. Sicherlich ist die elitäre Lösung kein Ausweg: Viele Pläne sind deswegen gescheitert, weil die von ihnen Betroffenen es nicht schätzten, « verplant » zu werden. Musterbeispiele sind viele amerikanische Public-Housing-Projects im Rahmen von Stadtsanierungsprogrammen, welche von Expertenplanern mit besten Absichten geplant wurden, und die nach « fachmännischen Standards » den Behausungen haushoch überlegen waren, welche sie ersetzen sollten. Dennoch wurden sie zu Fehlschlägen – selbst in den Augen ihrer Planer. Deren fachmännische Vorstellungen und die Tatsache, daß die Lösungen den Betroffenen oktroyiert wurden (d. h. auf dem Verwaltungswege verordnet wurden), haben vielerorts zu Situationen geführt, welche auf allen Seiten schlimmer als der Ausgangszustand beurteilt werden.
ZUKUNFTSORIENTIERTE RAUMORDNUNG 265
10. Planung und politischer Prozeß Die skizzierte Strategie betrachtet Planung als argumentativen, pluralistischen Prozeß. Sie mag – angesichts der vielen Einwände und Schwierigkeiten – zunächst nur Leitbildcharakter haben. Es ergeben sich indessen einige taktische Folgerungen für die Demokratisierung des Planungsprozesses. Der professionelle Planer hat kein politisches Mandat. Trotzdem sind, wie ausgeführt, alle seine Vorschläge und jeder Entscheidungsschritt, der zu ihrer Formulierung führt, von seinem persönlichen Ist- und Sollbild geprägt. Wenn man – wie der Autor – der Ansicht ist, daß gesellschaftliche Entscheidungen keine esoterische Fachangelegenheit von Wissenschaftlern und Ingenieuren sein sollen, sondern in allen ihren Stufen dem öffentlichen politischen Diskurs unterworfen werden müssen (wie es schon die Verteiltheit der Expertise über die Wünschbarkeit zukünftiger Zustände erfordert), folgt: Der Prozeß der Raumordnung bedarf der Politisierung. In der herrschenden Praxis werden nur fachmännisch hergestellte, fertige Planungsentwürfe den politischen Mandatsträgern und der Öffentlichkeit zur Diskussion und Entscheidung unterbreitet. Diese Produkte lassen jedoch nicht die Vielzahl der « persönlichen » Annahmen ihrer Urheber erkennen. Es wird nicht transparent, welches Gesellschaftsbild die Grundlage des Planes geworden ist, noch ist es dem « Laien » ersichtlich, welches die Konsequenzen des Planes für ihn sein werden. Selbst so staatsbürger-freundliche Verfahren, wie die in den USA üblichen öffentlichen Hearings vor der politischen Entscheidung über einen Planungsvorschlag, machen dessen Grundlagen und Folgen nicht für alle Bürger klar. Öffentlichkeit und Politiker werden mit Schemata für zukünftige Handlungen konfrontiert, deren Tragweite sie nicht ermessen können, weil sie an ihrer Entstehung nicht (oder kaum) teilgenommen haben. Eine Implikation: Die Erörterung der Raumordnungsproblematik in den Medien der öffentlichen Kommunikation sollte nicht auf kühne Visionen von den Möglichkeiten des « Lebens von morgen » beschränkt bleiben (« Die Küche von morgen », « Wohntürme für 50 Millionen », « Baustoffe der Zukunft »). Vielmehr sollte eine öffentliche Diskussion darüber herbeigeführt werden, welche von den unzähligen alternativen Zukünften herbeiführenswert sind, wie sie vom jetzigen Zustand ausgehend erreicht werden können und sollen. Selbst wenn das zu einer individuell und regional diversifizierten Vielfalt der Standpunkte führt: Welche andere Möglichkeit gibt es, etwas über das Für und Wider eines Planes zu erfahren? Derartige Fragen der Raumordnung sind mindestens ebenso schlagzeilenwürdig wie das letzte Bravourstück einer Ganovenbande. Die Raumordnung gehört eher in den politischen Teil als in das Feuilleton.
266 SPEZIELLE P ROBLEME
11. Gegenpläne Diesem Bestreben, den Diskurs über Planungsvorhaben anzureichern, steht die übliche Praxis entgegen, für ein Projekt nur jeweils einen Experten (oder eine Expertengruppe) unter Vertrag zu nehmen, der im Benehmen mit Behörden und politischem Establishment einen Planungsvorschlag ausarbeitet, ebenso wie man sich für den Entwurf einer elektrischen Schaltung oder die Operation eines Blinddarms der Dienste nur eines Fachmannes (oder eines Teams) versichert, welcher wohl reputiert und erschwinglich ist. Wegen der Eigenarten der Raumordnung empfiehlt sich die Ablösung dieser Praxis nach dem Prinzip: Kein Plan soll ohne Gegenplan bleiben. Und zwar empfiehlt es sich, Formen der Planungsorganisation zu entwickeln, welche Planer und Gegenplaner in ein fortgesetztes Argument verwickeln. Obwohl sie vielleicht sogar den gleichen Auftraggeber vertreten, sollte es ihr Mandat sein, sorgfältig gegeneinander konzipierte Positionen zu vertreten. Diese Juxtaposition mehrerer Planungsprozesse ist nicht unähnlich den Mechanismen des Zivilprozesses. Die Absicht ist, verschiedene Sollbilder und Interessen zu artikulieren, die ideologischen Planungsgrundlagen expliziter zu machen, das Für und Wider verschiedener Planungskonzepte von verschiedenen Standpunkten her sichtbar werden zu lassen. Es besteht die Hoffnung, auf diese Weise einen Lernprozeß auf Seiten aller Beteiligten und Betroffenen zu stimulieren, welcher die Expertise vieler ins Spiel bringt. Zudem wird die Wahrscheinlichkeit verringert, daß Faktoren vergessen werden, welche sonst unerwünschte Spät- und Nebeneffekte von Plänen verursachen würden.
12. Partizipatorische Planung Pläne sind zum Scheitern verurteilt, wenn die von ihnen Betroffenen nicht motiviert sind, unter den Planfolgen zu leben. Nichts in Erfahrung und Ausbildung des Planungsfachmanns macht ihn zum besseren Experten über die politischen Fragen eines gegebenen Planungsproblemes als jeden anderen Bürger. Die Praxis, Planung zwischen Fachleuten, Behörden und politischen Mandatsträgern kurzzuschließen, gibt dem Bürger kein hinreichend direktes Mitwirkungs- und Kon trollrecht. Zudem macht sie keinen Gebrauch von der verteilten Expertise. Kaum ein Planer wird bestreiten, daß seine Pläne eine Verbesserung der Lebensumstände der Betroffenen bewirken sollen. Wenn dem Bürger ein Selbst- und Mitbestimmungsrecht über seine Lebensumstände gesichert sein soll, braucht man
ZUKUNFTSORIENTIERTE RAUMORDNUNG 267
Planungsformen, welche direktere Mitwirkung ermöglichen als die regelmäßige Wahl von Volksvertretern. Besonders « träge » ist die Einwirkung auf den beamteten, « nichtpolitischen » Teil der gegenwärtigen Planungssysteme. Es gibt eine Reihe von Ansätzen für partizipatorische Planungssysteme: 1. Den Planungsadvokaten. Er ist ein gelernter Planer, der eine Gruppe von Bürgern gegenüber den offiziellen Planern vertritt, etwa vor dem Stadtrat oder der Planungskommission, wo über einen Plan befunden werden soll. 2. Die Einrichtung direkter Kommunikationskanäle zwischen Bürgern und Planern während des Planungsprozesses, welche aktiver und vielfältiger sind als bislang üblich. Sie sollen ermöglichen, daß die Planer mehr über die Auswirkungen erwogener Maßnahmen für verschiedene Gruppen von Betroffenen und die Bürger mehr über Möglichkeiten sowie Vor- und Nachteile verschiedener Planungskonzepte lernen. 3. Die Bürger planen selbst: Der professionelle Planer macht keine Pläne, sondern zeigt, wie man Pläne macht und durchsetzt. Er ist eher ein Lehrer als ein Arzt oder gar ein General der Raumordnung. Für jede dieser Möglichkeiten gibt es viele Ausprägungsformen: Staatlich finanzierte community planners als Planungsanwälte von Nachbarschaften, « Planungsparlamente », « design-clinics » als Planungsberatungsstellen, « phone-ins » für die rasche Meinungsermittlung, selbstgeplante Selbsthilfeprojekte der Stadterneuerung. Besonders in den USA gibt es viele Versuche mit der partizipatorischen Planung. Angesichts der dort besonders schweren Raumordnungskrise hat sich mehr nolens als volens die Einsicht durchgesetzt, daß Raumordnung « von oben » angesichts immer mündiger und politisch selbstbewußter werdender Bürger ein eitles Unterfangen ist und daß partizipatorische Planung wenigstens eine Hoffnung bietet, überhaupt planen zu können. So gibt es gesetzliche Regelungen, welche Förderungsmaßnahmen des Bundes für die Stadterneuerung von der Partizipation der Betroffenen abhängig machen. Die zahlreichen Beispiele partizipatorischer Planung beziehen sich auf Planungsaufgaben, die bis zu einige 10 000 Bürger betreffen. Die Erfahrungen sind teilweise entmutigend, teilweise deuten sie auf ausbaufähige Ansätze, die auch für größere Planungsobjekte tauglich sein könnten.6 Es bleiben viele praktische und methodologische Probleme: • Wie stellt man fest, wer partizipieren sollte? • Was ist die Planungseinheit, d. h., wie bestimmt man die räumliche und zeitliche Ausdehnung des Planungsprojektes?
268 SPEZIELLE P ROBLEME
• Wie wird die Verteilung von Kosten und Nutzen der Planungsfolgen über die Betroffenen geregelt? • Wer repräsentiert diejenigen, welche nicht selbst partizipieren können? Es gibt andere Einwände: Partizipatorische Planungsorganisation sei unrealistisch und weltfremd angesichts der « zunehmenden Komplexität der Planungsaufgaben, welche hochspezialisierte Arbeitsteilung erfordere ». Es ginge nicht an, jede Raumordnung auf mikro-demokratischer Ebene auszuhandeln, denn das Fehlen großräumiger Planungskonzepte sei ja gerade auf die Intervention aus der Sicht « kirchturmpolitischer » Horizonte zurückzuführen. Braucht nicht jede Demokratie eine institutionelle Trägheit gegen spontane Willensbildung ihrer Bürger? Ist es nicht wahr, daß viele Innovationen durch Volksentscheid abgelehnt worden wären, wenn man die Leute vorher gefragt hätte, die aber dennoch nach ihrer Einführung wohlwollende Aufnahme gefunden haben? Hinter diesen Fragen steht die elitäre Furcht vor dem unmündigen Volk. Sie mag oft verständlich sein, bietet aber kein Argument zugunsten der Expertenplanung klassischen Stils, welche leicht zu einer subtilen Form undemokratischer Bevormundung wird. Es ist gefährlicher, die Welt nach seinem Bilde formen zu wollen, als sich damit abzufinden, daß Pläne höchstens so gut sind wie die Urteilskraft derjenigen, welche sie betreffen. Die wichtigste Aufgabe der Zukunftsforschung (einschließlich der Raumordnung) ist die Suche nach « social technologies », welche auf dem Prinzip partizipatorischer Planung begründet sind.
13. Entscheidungsregeln Raumordnungsprobleme haben keine « gerechten » Lösungen in dem Sinne, daß jedermann von ihnen gleichmäßig betroffen wird. Nicht jeder kann 50 Meter von der Kirche entfernt wohnen. Die Verteilung der Vor- und Nachteile auf die Betroffenen verdient sorgfältige Erwägung und sollte der Gegenstand einer sozialpolitischen Entscheidung sein, die unter demokratischer Kontrolle steht.7 Im Falle der Expertenplanung ist diese Kontrolle selbst durch parlamentarische Demokratie nicht gewährleistet – selten infolge verschwörerischer Machenschaften, jedoch immer aus Gründen der Logik des Planungsprozesses, welche dem Expertenplaner unkontrollierbare politische Befugnis zuteilt. Die Idee der partizipatorischen Planung bringt zwar das Problem der Verteilung von Kosten und Nutzen erwogener Pläne in den öffentlichen politischen Diskurs, aber das Problem der Entscheidungsregel, nach der diese Verteilung bestimmt wird, bleibt bestehen.
ZUKUNFTSORIENTIERTE RAUMORDNUNG 269
Es liegt nahe, das Prinzip der Mehrheitsentscheidung als Entscheidungsregel für direkt-demokratisch zu regelnde Planungsfragen vorzuschlagen: Derjenige Plan soll ausgeführt werden, welcher die meisten Stimmen der Betroffenen erhält. Es gibt jedoch eine Fülle von Beispielen, welche demonstrieren, daß die Majorisierung von Minderheiten – die oft am ungünstigsten von einem Plan betroffen werden – häufig Ursache schlechter Pläne ist, weil eine Mehrheit sich auf Kosten e iner Minderheit « bereichert ». Musterbeispiele hierfür bieten die Fälle von « de facto » Rassensegre gation in vielen amerikanischen Schulbezirken, weil die Mehrheit der Bevölkerung integrierende Maßnahmen konsistent niedergestimmt hat.8 Demokratie impliziert nicht das Prinzip der einfachen Mehrheit. Es gibt andere Entscheidungsregeln, welche man gleichermaßen als demokratisch bezeichnen möchte, z. B.: • die qualifizierte Mehrheit (Zweidrittel-, Dreiviertel-Mehrheit usw.), • die Entscheidungsregel, wonach der Plan gewählt wird, welcher die Situation der am ungünstigsten Betroffenen optimiert, • den Plan zu wählen, welcher am gerechtesten ist, weil er die Varianz eines « Grades der Betroffenheit » minimiert, • ein Mehrheitsprinzip, nach dem die Einzelstimme mit dem Grad der negativen Betroffenheit gewichtet wird. Jede dieser Regeln hat ihre Schwierigkeiten: Wie wird der Grad der Betroffenheit bemessen, wer ist zur Teilnahme an der Entscheidung befugt? Alle genannten Regeln sind ohne Bezug zur gegenwärtigen Situation der Betroffenen. Andere Regeln würden den sozialen Ausgleich anstreben, z. B.: « Wähle den Plan, welcher die Vari anz des Verkehrsaufwandes (oder: der Einkommensverteilung, der Schulzugänglichkeit) minimiert. » In einigen Fällen erscheint es angebracht, die individuellen Maximalkosten zu minimieren (z. B. für die Bestimmung des Standortes einer Feuerwache); in anderen Fällen mag eine qualifizierte Mehrheitsentscheidung angemessen sein (Standort des Opernhauses). Es ergibt sich das Problem, die Auswahl der Entscheidungsregel im Einzelfalle zu regeln (d. h. « Meta-Entscheidungsregeln » aufzustellen). Hier liegen außerordentlich schwierige Probleme der Zukunftsforschung. Sie beziehen sich auf die Frage, wie die Kontrolle der Veränderung, die Kontrolle der Regeln, der Kontrolle der Veränderung etc., geregelt werden sollen. Die Dilemmas, unendlichen Regresse, logischen Zirkel liegen auf der Hand. Derartige Dilemmas bestehen indessen auch bei dem Majoritätsprinzip.
270 SPEZIELLE P ROBLEME
14. Charta der Raumordnung Die Konsequenz aller dieser Erwägungen: Zukunftsorientierte Raumordnung stellt vor allem Probleme der Planungsverfahren.9 Insbesondere fehlt es an « social technologies », welche neue Formen des Planungsprozesses ermöglichen. In jedem Land, in jeder Stadt gibt es Gesetze und Verordnungen, welche die Raumordnung regeln. Im allgemeinen beruhen sie auf dem Prinzip der Experten planung und auf der Annahme, daß der übliche politische Willensbildungs- und Kontrollprozeß, zusammen mit Praktiken der Offenlegung, des Einspruchs, von Hearings u. dgl. ausreiche. Die Absicht dieser Ausführungen war die Demonstration, daß diese Annahmen nicht gerechtfertigt sind. Wenn man das « Mitplanungsrecht » des Bürgers zum Prinzip erhebt – wie es schon aus methodologischen Gründen erforderlich ist –, bedarf es größerer gesetzgeberischer Aktivität. Man mag so weit gehen, eine « Charta der Raumordnung » zu fordern, welche nicht eine programmatische Proklamation sein sollte, sondern geltendes Recht. Je weiter ihr Gültigkeitsbereich, um so besser. Man kann sich vorstellen, daß gewisse Regeln für die Raumordnung internationale Anerkennung finden – sei es durch vielseitige Verträge, sei es durch supranationale Organisationen, wie die UNO. Diese Regeln müßten sich auf die Folgen der Raumnutzung beziehen, welche sich über nationale Grenzen hinweg auswirken oder allgemeine Ressourcen – wie Ozeane, Atmosphäre, Bodenschätze, Weltraum – betreffen. So schwierig solche Vereinbarungen herbeizuführen sein mögen, so dringend sollte es versucht werden.10 Daß es nicht aussichtslos ist, wird durch Fischereiabkommen, Atomwaffenbeschränkungen usw. demonstriert. Spezifischere Regelungen sind auf nationaler oder auf regionaler Ebene geboten. Kandidaten für die Agenda der Gesetzgeber und den öffentlichen politischen Diskurs sind Komplexe der folgenden Art: • die Festlegung und Sicherung von Grundrechten (das Recht auf Wohnung, auf Atemluft, auf Trinkwasser, auf Schutz vor Vergiftung, Lärm- und Geruchsbelästigung), • die Festlegung der Mitplanungsrechte des Bürgers sowie von Entscheidungsverfahren für die partizipatorische Planung, • Regelungen, welche die Bestimmung der Planungseinheit in jedem spezifischen Fall « dynamisieren », d. h. von der politischen räumlichen Gliederung unabhängig machen (die Ausgrenzung eines Projektes sollte eher nach der Reichweite seiner Auswirkungen als nach institutionellen Grenzen erfolgen), • die Neuregelung des Eigentumsrechtes an Grund und Boden, • die Einrichtung einer « Planungsgerichtsbarkeit » mit der Möglichkeit für Einspruch und Berufung,
ZUKUNFTSORIENTIERTE RAUMORDNUNG 271
• die Einrichtung von Prüfungs- und Zulassungsverfahren für neue Technologien, welche soziale Kosten verursachen (d. h., deren Auswirkungen nicht auf diejenigen beschränkt bleiben, welche sie benutzen). Diese Liste von « issues » ist weder vollständig, noch bin ich in der Lage, einen Entwurf für eine « Raumordnungscharta » vorzuschlagen. Dies wäre auch nicht reali stisch, denn alle diese Probleme lassen sich nicht losgelöst von der spezifischen politischen Situation diskutieren. Es handelt sich um « heiße Eisen », die massive Interessen auf den Plan rufen und der konkreten politischen Auseinandersetzung bedürfen. So bin z. B. ich der Meinung, daß Grundeigentum nicht zu rechtfertigen ist und allmählich zugunsten zeitlich begrenzter Nutzungsrechte abgeschafft werden sollte, da Grund und Boden nicht produzierbar ist. Ebenso sollte aus Privathand enteignetes Territorium nicht wieder privatisiert werden dürfen etc., etc. Derartige Betrachtungen bleiben indessen wirkungslos, solange diese Fragen nicht ihren Platz auf der Agenda der öffentlichen Angelegenheiten gefunden haben. Trotzdem kann man sich der Versuchung nicht entziehen, nach einem allgemeinen Prinzip zu suchen, welches der Regelung der Raumordnung zugrundeliegen sollte. Ein Anwärter hierfür ist eine Variante des Kantschen Kategorischen Imperativs: Keine Raumnutzung soll gestaltet sein, die nicht allgemein üblich werden dürfte. Dies ist ein sehr strenges Prinzip: Automobilbetrieb und exzessiver Grundbesitz wären hiernach unzulässig. Es lohnt sich, nach verfeinerten Maximen zu suchen. Sozialversicherung, parlamentarische Demokratie, « teach-ins » und Flächennutzungspläne sind Erfindungen. Es besteht kein Grund zu der Annahme, daß es unmöglich sei, neue « social technologies » zu erfinden – etwa für die Raumordnung.
15. Möglichkeiten Es mag sein, daß die Raumordnung und die anderen Dimensionen der Zukunftsforschung in den Händen der Experten bleiben werden. Es mag sein, daß dies auch außerhalb der USA zu ernsthaften Rebellionen führt oder aber auch auf besonders unangenehme Weise erfolgreich wird: Wer kennt nicht die Zukunftsgemälde von einer technokratisch, unter der Fahne der Wissenschaft verwalteten Menschheit, die so konditioniert ist, daß sie die von den Experten erwarteten Reflexe wirklich produziert und die Wunderprodukte technischer Zivilisation zu würdigen versteht. Man brauchte das Automobil nicht aufzugeben, wenn man sich nur daran gewöhnen würde, seine Atemluft aus einer persönlichen Flasche zu inhalieren – was zudem hygienischer wäre. Das Habitat im Stil einer Mondsonde ist perfekt und technisch elegant.
272 SPEZIELLE P ROBLEME
Es mag aber ebenso geschehen, daß die elitäre Planung ebenso obsolet wird wie weiland aristokratische Herrschaftsformen oder das Dreiklassenwahlrecht. Es gibt Anzeichen dafür, daß die Bürger als Planer nicht unbedingt kurzsichtiger als die Experten sind, sondern selbst ein aktives Interesse haben, die zukünftige Bewohnbarkeit ihrer Umwelten zu gewährleisten und mitzubestimmen. Wer sonst sollte dieses Interesse haben? Die Raumordnung der Zukunft ist « beliebig » im Sinne des Logikers, insofern sie sich nicht aus allgemeinen Sätzen der Wissenschaft und speziellen Gegebenheiten deduzieren läßt. Wie alle Zukunft, ist sie wesentlich vom Ausgang mannigfaltiger Kontroversen und Aushandlungsprozesse abhängig. Der notwendige Sachverstand über das, was wohl die erstrebenswerteste Raumordnung sei, ist gleich verteilt.11 Zumindest gibt es keine wissenschaftliche Theorie, welche objektiv zu entscheiden gestatten würde, ob A’s Sollwelt besser als B’s Sollwelt ist. Eine futurologische Spekulation: Es wird geschätzt, daß in etwa 20 Jahren nur noch etwa 2 % des Zeitpotentials auf Arbeit verwendet werden.12 Dann wird es viel Freizeit geben, und man wird es sich bis dahin abgewöhnt haben müssen, das Ethos der Arbeit so hoch zu halten wie bisher (eher wird das « Recht auf Arbeit als Zeitvertreib » proklamiert werden). Eine solche Entwicklung (deren Eintreffen zweifelhaft ist, da es systematisch unautomatisierbare Tätigkeiten gibt wie Straßenkehren, Verwalten, Windeln wechseln, Zähne ziehen) hätte sicherlich mannigfaltige Folgen für die Raumnutzung – man brauchte z. B. nicht mehr zu pendeln. Was geschieht mit all der Freizeit? Es gibt Anlässe zu der Hoffnung, daß sie nicht nur auf Golf, Fußball, Fernsehen und Geselligkeit verwendet wird, sondern auch auf politische Aktivität. Warum nicht auf das Planen der Umwelt?
1 2 3 4
5
Eine plausible und fesselnde Darstellung einer denkbaren Zukunft wird von Paul Ehrlich beschrieben, s. Ramparts, Vol. 8, No. 3, p. 24, Sept. 1969. Weitere Zahlen dieser Art finden sich in Charles Abrams «The Uses of Land in Cities», Scientific American, Sept. 1965, pp. 151 sq. Für eine Zusammenstellung verschiedener Prognosetheorien und die Rolle von Invarianten, vgl. D. Bell, «Twelve modes of Prediction», Daedalus, Summer 1964, pp. 845–880. Natürlich gibt es auch die Möglichkeit der dialektischen Überspielung beider Standpunkte, indem man postuliert, daß die Frage der Besiedlungsdichte irrelevant ist: Für den typischen Vertreter der «neuen Kultur» ist sein Wohnort praktisch allein durch seinen Geschmack bestimmbar und ohne Relevanz für seine geschäftlichen Verrichtungen – er sitzt ohnehin meistens im Flugzeug. Vgl. M. M. Webber, «The Post City Age», Daedalus, Fall 1968, pp. 1091–1110. Trotz der populären Auffassung, daß Wissenschaft irgendwann beste Pläne produziert, ist die gegen teilige Auffassung keineswegs neu. Vgl. etwa J. S. Mill, A System of Logic, Book VI, Chapter XII, 1843: «A scientific observer or reasoner, merely as such, is not an adviser for practice. His pari is only to show that certain consequences follow from certain courses, and that to obtain certain ends, certain m eans are the most effectual (sic!). Whether the ends themselves are such as ought to be pursued ... is no part of his business as a cultivator of science to decide, and science alone will never qualify him for the decision.» Mill glaubt immerhin noch an die wissenschaftliche Entscheidbarkeit der Verursachung in sozialen Angelegenheiten.
ZUKUNFTSORIENTIERTE RAUMORDNUNG 273
6 Vgl. P. Davidoff, «Advocacy and Pluralism in Planning», Journal of the AIP, Nov. 1965, pp. 331–338. 7 In den westlichen Industrieländern ist eine Verschiebung der Planungsproblematik zu beobachten. Noch vor wenigen Jahren waren es «Wachstum» und seine Indikatoren, welche die Diskussion bestimmten. Seit einiger Zeit treten an die Stelle aggregativer Wachstumsmerkmale Verteilungsfunktionen: Die Aufmerksamkeit richtet sich auf die Ärmsten und die Reichsten und auf die Probleme des Ausgleichs. «Equality» ist die Lösung geworden anstelle von «growth». In den USA ist diese Entwicklung s icherlich mit der Aufgabe der Ideologie vom einheitlichen «American way of life», d. h. von der Idee e iner homogenen weißen Mittelklasse mit – zugegeben – störenden Randphänomenen, zugunsten einer pluralistischen, vielfältigen Kultur voller Überraschungen verknüpft. 8 Die klassische Darstellung der demokratischen Paradoxien stammt von K. Arrow, Social Choice and Individual Values, New York: J. Wiley, 1963. 9 In diesem Vortrag bin ich nicht auf die Planungsverfahren eingegangen, welche «planerseitige» Hilfs mittel sind, wie Operations Research, Simulationstechniken u. dgl. Es gibt gute Evidenz, daß diese Methoden ohne die hier diskutierten «social technologies» nicht zur besseren Raumplanung beitragen können. Der potentielle Nutzen von computerisierten Planungshilfen sei unbestritten. Man muß sich nur davor hüten, schon aus der Tatsache der Anwendung von Rechenmaschinen folgern zu wollen, daß man deshalb zu besseren Plänen kommen müsse. 10 Soeben liegt der UNO ein Vorschlag für die Regelung der Nutzung der Meere vor: Elisabeth Mann Borgese, The Ocean Regime, Santa Barbara, CA: Center for the Study of Democratic Institutions, October 1968. 11 Dieses Argument bietet eine Möglichkeit, dem berühmten ersten Absatz von Descartes’ Discours de la Méthode Plausibilität zu verleihen. 12 Vgl. M. M. Webber, «Planning in an Environment of Change: Part I», The Town Planning Review, Vol. 39, No. 3, p. 184.
* Quelle: Systems 69, Internationales Symposium über Zukunftsfragen (veranstaltet von der Münchner Messe- und Ausstellungsgesellschaft mbH. vom 10. bis 15. 11. 1969). Wissenschaftlicher Tagungsleiter: Karl Steinbuch. Deutsche Verlagsanstalt Stuttgart 1970, pp. 174–192. Der Text basiert auf einem Vortrag.
274 SPEZIELLE P ROBLEME
Die Entwicklung der Technik – Konsequenzen für Bildung und Wissenschaft*
Zusammenfassung Für das verbreitete Unbehagen über die Enwicklung « der TECHNIK » als Fortschritts maschine oder Moloch gibt es viele Gründe. Sie reichen von der Ratlosigkeit angesichts der beliebigen Machbarkeit der TECHNIK bis zur Furcht vor technokratischer Weltsteuerung. Aber auch die Hoffnung, daß wissenschaftlich nüchternes und objektives Vorgehen einen vernünftigen oder gar optimalen Fortschritt garantieren kann, trügt. Das schwierigste Problem ist die Festsetzung der Fortschrittsrichtung, also die politische Frage danach, was « gesollt werden soll ». Angesichts dieser Situation lassen sich einige Strategien für die Ausbildung in der Planung aufstellen. Hierzu gehören Techniken des « lebenslangen Lernens », des « Lernens von Prinzipien », des « Lernens des Lernens », der « Wissenserzeugung und - beschaffung », der « Problemerzeugung und -transformation ». Für den Entwurf von Studiengängen empfiehlt sich die Abkehr von festen Studienplänen zugunsten kombinatorischer Systeme von Lehrangeboten, die eine Vielzahl individuell zugeschnittener Studienverläufe ermöglichen. Auch für die Planung der Wissenschaft ergeben sich einige Strategien, z. B. daß eine starke Betonung auf methodischer Forschung liegen sollte. Es fehlt an Techniken der Bewertung, der Informationserzeugung und -beschaffung, für die Einbeziehung der von der Planung Betroffenen in den Planungsprozeß, für die Arbeitsteilung in Planung und Entwicklung. Zudem empfiehlt sich der Entwurf und die Einrichtung von Informa tionssystemen, etwa über den Stand der Forschung oder über die Produkte und Techniken, die auf einem Gebiet verfügbar sind. Alle diese Strategien zur Steuerung des Fortschritts erscheinen zwar sinnvoll und vielleicht auch notwendig; sie geben indessen keine Garantie gegen Fehlplanungen.
1. TECHNIK und Technik Das Wort « Technik » wird in zwei recht verschiedenen Bedeutungen gebraucht. Im ersten Sinne ist es die TECHNIK als gesellschaftliches und historisches Phänomen, charakteristisch für dieses Zeitalter. Es ist die Technik des Kultur kritikers (im Englischen würde man « Technology » sagen und würde es mit einem großen Anfangsbuchstaben versehen). Es ist die TECHNIK, die zusammen mit der
DIE ENTWICKLUNG DER TECHNIK 275
WISSENSCHAFT den FORTSCHRITT besorgen soll und somit die GESELLSCHAFT verändert. Dem einen ist sie der Garant einer besseren Zukunft im Namen kühler Vernünftigkeit; für den anderen ist sie die Ausgeburt einer repressiven Sozialordnung und die stärkste Waffe des militärisch-industriellen Komplexes. In der zweiten Bedeutung des Wortes ist « Technik » ein technischer Begriff (im Englischen würde man diese Art von Technik, « technology », klein schreiben). Technik dieser Art kann mit dem unbestimmten Artikel versehen werden; man kann von einer Technik sprechen und sogar den Plural bilden – es gibt Schweißtechniken, Techniken der Lösung linearer Differentialgleichungen, Lehrtechniken für die Sexualkunde u. dgl. Dieser zweite Technik-Begriff ist naturgemäß viel weniger aufgeladen als der erste und sehr neutral. Er dient dazu, « Know-how » oder instrumentelles Wissen zu bezeichnen: Damit ist jedes Wissenselement bezeichnet, das angibt, wie man einen bestimmten Zustand herbeiführen kann, sofern nur bestimmte Anfangsbedingungen gegeben sind. Dabei ist nicht ausgeschlossen, daß alternative Techniken zum gleichen Zweck zu Gegenständen heftiger Kontroversen über die Angemessenheit ihrer Anwendung werden. Dieser Begriff einer Technik ist recht weit; z. B. fallen Hardwaretechniken darunter, wie die Techniken der Verbundbaustoffe, aber auch Softwaretechniken, wie Verfahren der Netzwerkplanung oder der Datenorganisation und auch sog. Sozial techniken, wie z. B. die sokratische Lehrmethode oder ein Verfahren, um eine Gruppenentscheidung herbeizuführen. Selbst der entschiedenste Gegner der TECHNIK im ersten Sinne benötigt Techniken im zweiten Sinne, um die TECHNIK im ersten Sinne zu bekämpfen. Er ist auf Techniken des Boykotts oder des Sit-ins oder die der provokativen Entlarvung des Establishments angewiesen. Für die folgenden Betrachtungen ist es nicht unwichtig, diese sprachlich nur mühsam auseinanderzuhaltende Unterscheidung durchzuführen. In vielen Bereichen, etwa im Bauwesen, herrscht der Eindruck, daß die TECHNIK die Entwicklung diktiert, und man sucht nach Techniken, um diesen Veränderungen zu begegnen. Welche Techniken man hierbei ins Auge faßt, hängt wesentlich von der Meinung ab, welche man über die TECHNIK hat. Wenn man in der TECHNIK ein Phänomen sieht, welches von einer inneren Logik quasi zwangsläufig gesteuert wird im Sinne einer pseudodarwinistischen Evolution, dann wird man nach Techniken suchen, welche es einem gestatten, diese Entwicklung vorauszusehen, um sich auf sie einzurichten. Im Gegensatz zu dieser passivistischen Einstellung zur TECHNIK glaubt der selbstbewußte Aktivist an die Manipulierbarkeit der TECHNIK und ihrer Fortschreitungsrichtung. Er wird folglich nach Techniken suchen, welche der wirksamen Steuerung der TECHNIK dienen. Der Autor neigt zu einer gemäßigten, leicht pessimistischen Version des zweiten Standpunktes: Die TECHNIK hat kein Eigenleben, sie ist die Resultante vieler aktivistischer und passivistischer Verhaltensweisen. Ihre Entwicklung ist steuerbar in dem Ausmaß, wie sich hinreichend kräf-
276 SPEZIELLE P ROBLEME
tige, aktivistische Koalitionen formieren lassen, um Richtungsänderungen der TECHNIK durchzusetzen. Der Autor ist insofern pessimistisch, als es eben besonders starke und wohletablierte Koalitionen dieser Art gibt, welche die Steuerung der TECHNIK kontrollieren und dabei noch von einer weit verbreiteten passivistischen Gläubigkeit in die wohltätige Determiniertheit der Entwicklung der TECHNIK unterstützt werden. Die Entwicklung der TECHNIK ist heutzutage alles andere als demokratisch kontrolliert.
2. Das Bauen und die Entwicklung der TECHNIK Im folgenden soll am Beispiel des Bauwesens untersucht werden, welche Implikationen sich aus der gegenwärtigen Situation der TECHNIK für die Ausbildung und die Forschung im Bauwesen ergeben. Analogien zu anderen Gebieten und Berufen liegen nahe: Wann immer Projekte der Systemforschung für reale und damit « bösartige » Situationen aufkommen, lassen sich die nachfolgenden Überlegungen sinn gemäß übertragen. Zunächst sollen einige Gründe für die Beunruhigung über die TECHNIK im Bauwesen angeführt werden, geordnet nach zunehmendem Grade der Beunruhigung: 2.1 Die große Vielfalt miteinander konkurrierender Techniken für einen gegebenen Zweck Für einen gegebenen Zweck, etwa die Einfassung von Fensterscheiben, gibt es eine sehr große Zahl miteinander konkurrierender Techniken, gekennzeichnet durch verschiedene Prinzipien, Materialien, aber auch unterschiedliche Funktionsmerkmale. Noch ist es in der Praxis nur sehr schwer möglich und daher beunruhigend, sich ein Urteil über das Angebot zu beschaffen und so die jeweils angemessene Auswahl zu treffen. 2.2 Die hohe Veränderungsrate des Angebotes an Techniken Der Katalog miteinander konkurrierender Techniken ändert sich sehr rasch. Ständig kommen neue Techniken auf den Markt, altbewährte verschwinden oder verändern sich kaum merklich. Wenn man etwa glaubt, man habe alles über Kunststoffe gelernt, gibt es schon wieder neue, die überhaupt nicht in das gelernte Bild passen.
DIE ENTWICKLUNG DER TECHNIK 277
2.3 Die Veränderung der Beurteilungsparameter für Techniken Es gilt, immer andere, meist zusätzliche Eigenschaften von Techniken in Betracht zu ziehen, an die man früher überhaupt nicht gedacht hat. Die elektrostatische Aufladung von Kunststoffsitzflächen oder die Röntgenstrahlung von Farbfernsehgeräten sind solche Faktoren, über die man in der Schule nichts gelernt hat, die man dennoch besser berücksichtigt, um unerwünschte Neben- und Späteffekte zu vermeiden. 2.4 Die fast beliebige Machbarkeit von Techniken In einigen Bereichen kann man sich Techniken nach Wunschzettel entwickeln lassen, vorausgesetzt, man bringt die nötigen Entwicklungsmittel auf. Es herrscht ein starker Optimismus, daß innerhalb vernünftiger Grenzen jedes technische Pro blem mit zureichendem Aufwand lösbar ist. Unterstützt wird dieser Optimismus vor allem von den Erfolgen der Weltraumtechnik, wo man – allerdings für teures Geld – z. B. viele Werkstofftechniken nach Maß entwickelt hat. Diese Möglichkeit ist aber keineswegs eine Quelle der wahren Freude. Denn damit fallen alle Entwurfshilfen fort, welche durch die Unzulänglichkeiten altertümlicher Werkstoffe wie Holz usw. bedingt waren. Welche Techniken soll man denn überhaupt wollen, wenn es keine « Sachzwänge » mehr gibt und das « Prinzip der Werkstoffgerechtigkeit » beim Entwerfen als Entscheidungshilfe versagt? 2.5 Das Gefühl, die Techniken des Bauens seien hinter denen anderer Bereiche zurückgeblieben Der mit dem Bauen Befaßte muß sich häufig sagen lassen, daß im Grunde genommen noch genauso gebaut wird wie vor tausend Jahren, daß die Bautechnik – etwa im Vergleich mit den Transport- oder Informationstechniken – zurückgeblieben sei (was die Vertreter dieser Bereiche – vielleicht nicht ohne Neid im Hinblick auf die Fortschrittlichkeit des Bauwesens – bedauernd bestreiten mögen). Es gäbe zwar graduelle Verbesserungen, aber « im Prinzip » sei alles beim alten geblieben. Dies zeige sich an dem hohen Anteil manueller Arbeit selbst in den fortgeschritten sten Bautechniken und den daraus resultierenden hohen Preisen, ohne daß man dafür notwendig bessere Bauten erhalte. Dies erweise sich schon an der ständigen Verschlechterung der akustischen Kontrolltechnik im Vergleich zur alten Ziegelwand. Man argumentiert, das läge nicht etwa an der TECHNIK, sondern an der archaischen Organisationsstruktur des Bauwesens, an den zunftartigen Formen der Arbeitsteilung, den bürokratischen Zwangsjacken und an der privatrecht lichen Struktur der Bodennutzung und damit des Bauens auf der Grundlage einer manipulierten Eigentumsideologie.
278 SPEZIELLE P ROBLEME
2.6 Der Terrainverlust in der Landschaft der Aufgaben Angesichts dieser Situation sei es kein Wunder, daß einige Bauberufe eine Schrumpfung ihrer Aufgabenbereiche feststellen müssen. Vor allem die Architekten sehen viele ihrer traditionellen Aufgaben in andere Hände übergehen. Außenseiter wie Flugzeugingenieure, Ökonomen, Systemforscher sind in der Tat im Begriff, an Bauaufgaben zu arbeiten und Grundlagenprobleme des Bauens zu erforschen, die früher Architekten vorbehalten waren. Selbst Probleme der Stadterneuerung werden an Aerospace-Firmen vergeben, in deren Planungs- und Entwicklungsteams man gelegentlich einen Architekten als Kosmetiker mit Raumgefühl finden mag. Und sogar das heiligste Privileg des Architekten, der unmittelbare Kontakt mit den Bauherren, geht verloren. Dazwischen schieben sich – etwa in den USA – Fachleute der Bauprogrammierung, welche dem Architekten und Entwerfer nach gebührendem Kontakt mit dem Kunden und systematischer Aufbereitung genaue Spezifikationen über den zu erstellenden Bau vorlegen. 2.7 Die technokratische Versuchung Es liegt angesichts dieses Bildes vom Bauen als dem Stiefkind der TECHNIK nahe, zu dem Schluß zu gelangen, daß die Misere behoben sei, sobald die technologische Lücke geschlossen sei. Man brauche folglich einen ingenieurartigen, kühl sachlichen Ansatz, welcher das Bauen methodisch und systematisch angeht in der Weise, wie die Weltraumprogramme durchgeführt wurden. In der Tat ist die Versuchung groß, diese Konsequenz zu ziehen. Bei näherem Zusehen erweist sie sich als wenig gerechtfertigt. 2.8 Die Unsicherheit über die Ziele Es gibt einen wesentlichen Unterschied zwischen Bauproblemen (und den mei sten anderen « terrestrischen » Planungsproblemen) und Weltraumprogrammen. Bei letzteren ist klar umrissen, was erreicht werden soll: Zwei Mann zum Mond und zurück. Von dieser relativ einfach formulierbaren Mission kann man sich « rückwärts » zu einer Lösung des Problems « vorarbeiten » – ganz im Rahmen der TECHNIK. Bei Bauproblemen ist das nicht so. Je weniger Sachzwänge durch verfügbare Techniken oktroyiert werden, desto neuartiger das Problem. Je länger man über das Problem nachdenkt, um so weniger klar wird es, was man als gute Lösung ansehen soll. Von Häusern versteht jeder etwas, und der Architekt hat kein fachmännisches Monopol darüber, was als gutes Haus anzusehen ist. Seine Arbeit spielt sich in einem Feld nicht notwendig übereinstimmender Interessen ab. Mit zunehmender Reflexion wird das Problem immer weniger selbstverständlich und es stellt sich die Frage, was mit dem Projekt eigentlich gewollt werden soll und wer, welche Interessenkonstellation die Mission des Projektes definieren « dürfen soll ».
DIE ENTWICKLUNG DER TECHNIK 279
Alle diese Fragen des Bauens in bezug auf die TECHNIK führen zu dem Schluß, daß man andere Fertigkeiten und Arbeitsstile als bisher braucht, und folglich auch das Bildungssystem für das Bauen entsprechend reformiert werden müsse. Man müsse Techniken erfinden und entwickeln, die den veränderten Umständen angemessen seien. Zu diesen Techniken gehören dann auch und vor allem solche der Arbeitsorganisation und der Vorgehensweise bei der Planung. Hierzu sei eine Reihe von Prinzipien vorgeschlagen und zur Diskussion gestellt.
3. TECHNIK und Strategien der Ausbildung Nehmen wir an, daß die genannten Symptome, denen sich weitere hinzufügen ließen, für das Bauwesen zutreffen. Welche Techniken bieten sich an, um der Entwicklung der TECHNIK durch Bildung und Wissenschaft zu begegnen? Es gibt höchstens Ansätze einer allgemeinen Theorie, die hier anhand einiger Beispiele demonstriert werden sollen, zunächst über den Einfluß der BILDUNG auf die TECHNIK. Hierbei soll vorwiegend auf den Architekten oder seine Nachfahren Bezug genommen werden, also auf diejenigen Professionen, die sich vorwiegend mit Einzelprojekten beschäftigen. Es gibt indessen gute Gründe für die Annahme, daß analoge Betrachtungen für Ingenieure, Konstrukteure und Manager der Bauindu strie und anderer Bereiche gelten.
3.1 Lebenslanges Lernen Eine erste Konsequenz bezieht sich auf die übliche Einteilung des Lebens in eine Lernphase und eine Leistungsphase (« Kannphase »), gefolgt von einem Stadium der wohlverdienten Ruhe. Mit dem Abschluß des Studiums müßte man in diesem Bilde genug Fähigkeiten und Wissen für ein ganzes Berufsleben erworben haben, so daß man – abgesehen von der Lektüre von Fachzeitschriften und gelegentlich von Büchern – als Sachkenner und Fachmann seinen Mann stehen kann. Diese Praxis wird indessen unangebracht, wenn die Veränderung des Wissens so rasch vor sich geht, daß die Lebenserwartung einer Technik kurz im Vergleich zur Länge eines Berufslebens wird. Haben dann auch noch die Lehrer eine abgeschlossene Lernphase, so kommt es zu einem erheblichen zeitlichen Verzug zwischen dem « state of the art » und dem individuellen Wissensstand. Auch die reichste praktische Erfahrung hilft nicht, diese Diskrepanz zu vermindern, da dann diese Erfahrungen nur auf dem Wissensstand des Fachmannes aufbauen, den er am Ende seiner Lernphase erreicht hat.
280 SPEZIELLE P ROBLEME
Prinzip 1: Es sollen Informationstechniken sowie Organisationsformen der Ausbildung und der professionellen Kommunikation entwickelt und implementiert werden, welche lebenslanges Lernen stimulieren und ermöglichen. Mag auch die Entwicklung solcher Techniken und Organisationsformen bislang noch wenig fortgeschritten sein, so gibt es doch eine ganze Reihe von Ansätzen, welche im Bauwesen bislang wenig ausgenutzt worden sind: • « Harte » Seminare und Kurse für Praktiker und Manager, in welchen der Inhalt und die mutmaßlichen Implikationen der Veränderung des Wissensstandes auf einem speziellen Gebiet geschildert und diskutiert werden – im Gegensatz zu den herkömmlichen Tagungen, etwa der Architekten, welche vorwiegend der Geselligkeit und dem Austausch geschäftlicher Sorgen gewidmet zu sein pflegen, während gleichzeitig ein Ritual wenig verbindlicher Vorträge den « kulturellen » Anspruch dieser Veranstaltungen rechtfertigen helfen soll. • Ein professionelles Publikumssystem, welches den Diskurs über die Situation der TECHNIK und über die « issues » ihrer Konsequenzen in Gang bringt und auf dem laufenden hält. Das bestehende Publikationssystem der Architekten ist stark auf subkulturelle und damit « relativ unkritische » Beschreibung der Produkte etablierter Fachkollegen ausgerichtet: « Veröffentlicht » zu werden gilt als positives Statussymbol. Es gibt zu wenig öffentlichen kritischen Diskurs oder theoretische Erörterung im Hinblick auf die Produkte des Bauens unter denen, die da bauen oder Bauten planen. Die Kategorien der Beurteilung sind esoterisch (d. h. sie werden von kaum jemandem außerhalb der Subkultur verstanden), und die meisten Äußerungen sind monologisch, ohne Bezug zu früheren Äußerungen, womit die Möglichkeit zum gerichteten Lernen aufgrund früherer Erfahrungen weitgehend reduziert wird. • Die Einrichtung von « current awareness services », d. h. Infor mationsdiensten, welche aktiv interessante Informationen anbieten und den individuellen Interessenprofilen der Abon nenten angepaßt sind. Die Absicht solcher Einrichtungen – welche angesichts der Möglichkeiten moderner Datenverarbeitung kaum praktische Schwierigkeiten bieten – ist die halbwegs maßgeschneiderte Information, um der Überschwemmung mit irrelevanten Daten zu entgehen.
DIE ENTWICKLUNG DER TECHNIK 281
• Fortbildungskurse für die Lehrer der Bauberufe. Abermals: Statt verbandsseliger Zusammenkünfte sollte man Arbeitsseminare haben, welche die Lehrer von den Veränderungen ihre Gebietes unterrichten und auf denen die Konsequenzen und Vorschläge für die Anpassung des Ausbildungssystems diskutiert werden. So gibt es seit Jahren eine solche Einrichtung in den USA, welche nationale und regionale Seminare für Universitätsprofessoren der Architektur und verwandter Gebiete veranstaltet, auf denen nicht nur zugehört, sondern auch gearbeitet wird.1 Sicherlich sind alle diese Möglichkeiten keine Garantie, die « lebenslanges Lernen » gewährleistet. Die Hauptschwierigkeit liegt darin, daß diese Vorkehrungen hin reichend attraktiv sein müssen, um die Adressaten für die aktive Teilnahme zu motivieren. Um der Misere der üblichen partikularistischen, aggregativen Ausbildung zu begegnen, mag man versucht sein, die alte Meister-Lehrlings-Technologie des Lehrens wieder zu beleben. Sie ist aber keineswegs geeignet, die geschilderten Schwierigkeiten zu meistern: Denn der Meister ist ja in zunehmendem Maße seines Erfolges das Produkt eines Wissensstandes von gestern, und alle seine Erfahrungen sind unter diesem Blickwinkel gewonnen. Unter den gegenwärtigen Umständen ist der Meister von gestern nicht notwendig oder nur wahrscheinlich ein guter Lehrer für die Praktiker von morgen.
3.2 Das Lernen von Prinzipien Wenn die Fülle technischen Wissens und seine Zuwachsrate die Aufnahmekapazität derer übersteigt, die es benutzen sollten, empfiehlt sich die Suche nach neuen Lehr- und Lerntechniken. Anstatt das Gehirn der Studenten mit Material zu füllen, das schon innerhalb weniger Jahre obsolet zu werden verspricht, liegt die Alter nativstrategie nahe, statt dessen das Lernen zu lehren. Kenneth Boulding weist darauf hin, daß « … die akademische Welt im allgemeinen von der Annahme ausgeht, daß es um so besser ist, je mehr man von allem weiß … Die Studenten haben das seit eh und je besser gewußt. Sie haben sich statt dessen nach dem Prinzip verhalten, daß man gerade genug wissen muß, um damit durchzukommen. Es wird höchst Zeit, daß dieses Prinzip respektabel wird. Wir sollten unsere formalen Ausbildungssysteme unter dem Gesichts punkt überprüfen, welches das minimale und nicht das maximal zu vermittelnde Wissen ist. »2
282 SPEZIELLE P ROBLEME
So einfach dieser Vorschlag klingt, so schwierig erscheint seine Durchführung. Eine Möglichkeit hierfür wird von Boulding genannt: « Wenn es gelingt zu zeigen, daß ein einziges theoretisches Prinzip für einen ganzen Bereich der empirischen Welt gilt, so ist das Ökonomie des Lernprozesses. »
In der Tat liegt hier eine noch längst nicht ausgeschöpfte Möglichkeit. Je besser man die Prinzipien, z. B. des Wärmetransportes, versteht, um so weniger Schwierigkeiten hat man, die Wirkungsweise eines bestimmten Heizungssystems zu verstehen, und um so eher begreift man eine « wirklich neue » Erfindung, weil diese dazu nötigt, die gelernten Prinzipien zu revidieren. Sicherlich kann man eine Technik benutzen, ohne ihre Funktionsweise zu verstehen, aber ohne das Wissen allgemeiner Prinzipien muß man jede Variante dieser Technik von neuem lernen. Wer die herkömmliche akademische Organisation von Fächern wie Haustechnik, Baustatistik oder Fertigungstechnik kennt, wird zugeben, daß das Prinzip vom Lernen der Prinzipien dort keineswegs ausgeschöpft ist. Prinzip 2: Verringere die Menge des Lernstoffes zugunsten des Lehrens des Lernens. Einzelfälle dienen nur zum Einüben und zur Exploration der Gültigkeit von Prinzipien. Die Anwendung dieses Prinzips braucht natürlich nicht zu bedeuten, daß man nicht dennoch die eine oder andere häufig benutzte Formel, etwa aus der Statistik der Balkenbiegung, auswendig wissen sollte, anstatt sie jeweils aus dem Newtonschen Gesetzen und den Prinzipien von Hooke und Navier abzuleiten.
3.3 Systematischer Zweifel Dies ist indessen nicht genug und mag sogar einem gewissen Dogmatismus der Prinzipien Vorschub leisten, wenn nicht gleichzeitig ein Gegenmittel vorgesehen wird. In Analogie zur Institution der Wissenschaft braucht man einen systematischen Prozeß, durch den etablierte Prinzipien in Frage gestellt werden. Man sollte nicht nur anerkannte Prinzipien und Theorien lernen und lehren, sondern auch Methoden, wie man sie aufstellt und stützt und – fast wichtiger noch – wie man sie bestreitet und widerlegt. Denn angesichts der technokratischen Tendenzen im Gefolge der TECHNIK ist es gut zu wissen, daß nichts so sein muß, wie es ist, daß zu jeder gegebenen Menge technischer Alternativen stets die Suche nach weiteren nicht hoffnungslos ist und daß es weder Sachzwänge noch unabdingbare Konstrik tionen gibt. Ein Beispiel dafür bietet die Geschichte der Edelgase. Ein seit Jahrzehnten wohletablieries Prinzip postulierte, daß diese Elemente keine chemischen
DIE ENTWICKLUNG DER TECHNIK 283
erbindungen eingehen. Dies mit seinerzeit gutem Grund, da sie durch gesättigte V Elektronenschalen ausgezeichnet sind und folglich keinen Anlaß zur Elektronen aufnahme oder -abgabe durch Bindung an andere Atome zum Zwecke der gegenseitigen Schalenbereinigung haben. So stand es bis vor kurzem in jedem Lehrbuch. Niemand kam auf die Idee, dieses plausible Prinzip anzufechten. Erst vor wenigen Jahren haben zwei respektlose Chemiker entgegen diesem Prinzip v ersucht – unter noch nicht einmal besonders exotischen Bedingungen –, die Edelgase in eine Reihe von Verbindungen zu zwingen, und es ist ihnen gelungen.3 Eine gewisse temperierte Respektlosigkeit scheint angesichts der Entwicklung der TECHNIK und ihrer Feierlichkeit am Platze zu sein, und sie sollte durch das Lehrsystem ermutigt werden. Respektlosigkeit ist eine lehrbare Disziplin. Man könnte sie etwa in Form des systematischen Zweifels einüben. Hierfür ein Beispiel: Man hört oder liest es alle Tage als faktische Feststellung, daß die Industrialisierung des Bauens unaufhaltsam sei, oder daß die Zukunft des Bauens unaufhaltsam sei, oder daß die Zukunft des Bauens in der Industrialisierung liege, oder daß wir flexibel bauen müßten usw. Die Anwendung systematischen Zweifels auf die landläufige Behauptung « Die Zukunft des Bauens liegt in der Industrialisierung » würde etwa zu den folgenden Fragen führen: Warum? Wer sagt das? Wer hat den Nutzen, wer den Schaden? Was heißt hier die Industrialisierung; gibt es nur eine? Gibt es nur ein Bauen? Hat alles Bauen nur eine Zukunft? Diese Art von respektlosem Zweifel könnte dazu führen, daß die begriffliche Unklarheit, die man häufig im Diskurs, z. B. unter Architekten, über « Industrialisierung » findet, vermindert wird. Als Resultat kann man viele, sorgfältig differenzierte Begriffe von « Industrialisierung » und verwandten Konzepten erwarten. Ähnlich ist es mit der « Flexibilität ». Wie flexibel eine Trennwand sein muß, sollte vom jeweiligen Fall her geklärt werden und nicht eine Frage architektonischer Weltanschauung sein. Der jeweils angemessene Grad der Flexibilität ist u. a. abhängig 1. von der Häufigkeit des Wechsels, also der Ausnutzung der Flexibilität, 2. von den Kosten des jeweiligen Wechsels und 3. von den Anfangskosten. In vielen Fällen erweist sich dabei eine Ziegelmauer als recht flexibel. Sie ist billig zu erstellen, billig einzureißen, billig wieder aufzustellen – wenn dies nicht allzuoft geschieht (etwa nicht häufiger als einmal im Jahr). Bei näherem Zusehen erweist sich, daß Kreativität häufig nichts als Respektlosigkeit ist. Prinzip 3: Es sollen nicht nur Regeln und Prinzipien gelehrt werden, sondern auch Regeln und Prinzipien zur Änderung von R egeln
284 SPEZIELLE P ROBLEME
und Prinzipien. Argumentieren und Bezweifeln sind respektable Lehrgegenstände.
3.4 Techniken der Wissensbeschaffung und -erzeugung Eine weitere Möglichkeit für die Entlastung von Wissensballast, der in den bestehenden Ausbildungsinstitutionen angeboten wird, weil er « später » vielleicht einmal gebraucht werden könnte, besteht in der Vermittlung von Wissen, wie man sich Wissen im Bedarfsfall beschaffen kann. In einer solchen Situation gibt es die folgenden Möglichkeiten: • das benötigte Wissen ist irgendwo dokumentiert (in einer Bibliothek, einer Datenbank usw.); • jemand anderes hat es im Kopf oder weiß, wo man es findet; • es existiert noch nicht und müßte erst erzeugt werden; • es mag zwar irgendwo existieren, aber es lohnt nicht den Suchaufwand (weil es zwar in einer Bibliothek vergraben sein mag, man aber nicht weiß, in welcher oder unter w elcher Kennzeichnung). Man hört heute viel über den Informationsnotstand; bislang sind aber kaum Konse quenzen für die Ausbildung daraus gezogen worden. Einige bieten sich an. Prinzip 4: Die Ausbildung von Planern und Entwerfern sollte die Vermittlung und Einübung von Techniken einschließen, welche die Beschaffung oder Erzeugung von Wissen für ein bestimmtes Problem zum Gegenstand haben. Im einzelnen bedeutet dies, daß • die Techniken der Erhebung, Verarbeitung, Speicherung und Wiederauffindung von Daten, • die Forschungsmethoden der Wissenschaften, welche die Erzeugung von Information und die Messung ihrer Verläßlichkeit bezwecken, • die Kunst der Abschätzung von Größenordnungen (etwa des Bedarfes für ein Produkt oder der Häufigkeit, mit der Einwohner eine bestimmte Verhaltensweise zeigen), die Beurtei lung der angemessenen Präzision des gewünschten Wissen selementes zu zentralen Lehrgegenständen werden sollen. DIE ENTWICKLUNG DER TECHNIK 285
3.5 Problemerzeugung und -transformation Planungs- und Entwurfsprobleme des Bauens sind keine « technischen » Probleme in dem Sinne, daß es eine wohldefinierte Aufgabenstellung gibt, von der aus ohne zusätzliche, vom Fortgang der Lösung abhängige Information die « richtige » oder auch nur « eine fachmännische » Lösung gefunden werden könnte. Diese Probleme sind dadurch ausgezeichnet, daß es für sie keine zureichende und definitive Beschreibung gibt, solange man sie nicht bereits gelöst hat. Mit jedem Schritt der Bearbeitung wird ein Informationsbedarf erzeugt, der wesentlich außertechnisch und prinzipiell unvorhersehbar ist. « Wesentlich außertechnisch » besagt, daß vielfältige nichttechnische, politische, situationsspezifische Gesichtspunkte ins Spiel kommen und meistens größere Schwierigkeiten bereiten als die technischen Fragen. Obwohl ein U-Bahnbau die « technisch ratsamste » Lösung für die Entlastung eines innerstädtischen Straßenverkehrs sein mag: Abgesehen von der Frage, ob für die Bürger die jahrelange Belästigung durch Lärm und Umleitungen akzeptabel ist, gibt es eine Fülle von Problemen, die nichts mit U-Bahnen im allgemeinen zu tun haben – etwa, ob unter den gegebenen Umständen bisherige Autopendler zu Benutzern des Systems werden sollen, ob der Abriß eines Wohnviertels gerechtfertigt ist, ob der « soziale Nutzen » des Projektes die « sozialen Kosten » aufwiegt. Ohne Übertreibung kann festgestellt werden, daß die Anwendung irgendeiner Technik außertechnische Wirkungen hat, welche in das Urteil über die Angemessenheit ihrer Anwendung einbezogen werden sollten. Für diese Neben- und Nachwirkungen bringt der professionelle Planer keine professionelle Expertise mit. Die spezifischen Umstände eines Projektes sind zu vielfältig und zu bunt – zu spezifisch –, um a-priorische Klassenzuordnungen von Projekten zu Lösungstypen zuzulassen. « Prinzipiell unvorhersehbar » ist ein Informationsbedarf, der bei der Aufgabenformulierung nicht ohne vorheriges Wissen über die Lösungsalternativen formuliert werden kann. Ein Beispiel: Ob Linienführung I oder Linienführung II für eine U-Bahn angemessener ist, ist die Frage, welche erst dann auftritt, wenn der Bau einer U-Bahn bereits in Erwägung gezogen worden ist. Dieses Merkmal von Planungsproblemen läßt sich dramatischer formulieren: Man kann nie sicher sein, ob das gesehene Problem auch das richtige Problem ist, oder ob es nicht nur das Symptom eines « tieferen » (oder « höheren ») Problemes ist, welches man statt dessen in Angriff nehmen sollte. Denn das Kurieren von Symptomen kann die Behandlung einer « Krankheit » durchaus erschweren. In früheren Zeiten konnte der Planer sich selbst als Prototyp der durch eine erwogene Technik Betroffenen ansehen. Er konnte annehmen, daß sein eigenes Urteilsvermögen, sein eigenes Wertsystem ihn zu ähnlichen Urteilen gelangen lassen würde, wie es die Leute fällen würden, für die er plant. Mit zunehmender Projektreichweite und größerer kultureller und politischer Distanz und Diversität zwischen den an einem Projekt Beteiligten und den von ihm Betroffenen ist
286 SPEZIELLE P ROBLEME
diese Praxis immer weniger gerechtfertigt. Die Fragen, was mit dem Projekt « gesollt werden soll », aber auch danach, welche Fakten als gegeben gelten sollen, und vor allem, wie die Vor- und Nachteile erwogener Lösungen bemessen, verrechnet und über die Beteiligten und Betroffenen verteilt werden sollen – diese Fragen repräsentieren die kritischen Schwierigkeiten des Planens. Auf sie gibt es keine fachmännischen und schon gar keine wissenschaftlichen Antworten mit dem Anspruch höherer Objektivität oder gar absoluter Optimalität. Jede Antwort ist politisch in dem Sinne, daß sie nicht nur davon abhängt, wie jemand seine eigenen, direkten Vor- und Nachteile infolge eines Projektes einschätzt, sondern auch, ob und wie er die Betroffenheit anderer sieht und bewertet, und davon, wie die Entscheidung über die Verteilung von Kosten und Nutzen zustandekommt. Diese Betrachtungen legen ein Bild vom Planen nahe, welches es als argumentativen Prozeß beschreibt. Die Antworten zu den genannten Fragen sollten die Gegenstände der fortgesetzten Diskussion und Auseinandersetzung sein. Der Planungsprozeß verwickelt alle Beteiligten (die alle Betroffenen einschließen sollten) in einen ständigen Lernaufwand, dessen Ergebnis ihr jeweiliges Bild von der Situation ist, wie sie ist und wie sie sein sollte. Dabei besteht eine hohe Symmetrie der Verteilung der Expertise über alle Beteiligten; niemand kann sich auf überlegenes Wissen berufen. Die Konsequenzen dieses Bildes für die Ausbildung von Planern sind vielfältig. So ist es z. B. irreführend, wenn man an den Schulen so tut, als ob es zu Planungsproblemen « richtige » technische Lösungen gäbe, welche sich aus dem « Großen Kochbuch », in dem alle bekannten Techniken verzeichnet sind, zusammensetzen lassen, sobald nur das Problem geeignet klassifiziert ist. Damit wird nämlich die wesentliche Schwierigkeit des Planens, die Ermittlung der situationsspezifischen Information, eliminiert. Es ergibt sich als nützliche Regel, daß man jedes Projekt als wesentlich einzig betrachten sollte, d. h., daß ein gegebenes Projekt nicht zu früh als hinreichend ähnlich mit einem früheren Projekt betrachtet werden sollte, um das gleiche Lösungsprinzip in das gegenwärtige Problem zu übertragen. So trivial dieser Grundsatz ist, so selten wird er beachtet, und so häufig sind die Folgen seiner Nichtbeachtung. Bausystem S mag sehr angemessen für die Situation B erscheinen, da B sehr viele naheliegende Gemeinsamkeiten mit Situation A hat, wo S sich bewährt hat. Bei näherem Zusehen mag sich indessen herausstellen, daß in B so verschiedene Finanzierungsbedingungen, Transportverhältnisse, Kostenfaktoren oder sozialpolitische Gegebenheiten vorliegen, daß ein « Transfer » von S in B unangebracht ist. Ein Aspekt der Kunst des Planens besteht darin, nicht zu früh zu wissen, welcher Art die Lösung sein soll. Prinzip 5: Planer und Entwerfer sollen geschult sein, Probleme zu entdecken, zu transformieren, zu strukturieren und zu implementieren. Sie sollen geübt haben, den politischen Kontext ihrer Probleme zu erkennen und in ihm zu agieren. Sie sollen wissen,
DIE ENTWICKLUNG DER TECHNIK 287
daß es keine « richtigen » technischen Lösungen für ihre Aufgaben gibt, und daß ein großer Anteil ihres Wissens in der Beherrschung von « Sozialtechniken » besteht, welche die Lernprozesse und die Urteilsbildung der an einem Projekt Beteiligten unterstützen können. Die Anwendung dieses Prinzips bedeutet, daß man sich in den Schulen mit realen (und nicht nur realistischen) Entwurfsproblemen beschäftigen sollte, denn die charakteristische Vielfalt der zu lernenden Aspekte, die Dilemmas divergierender Interessen, die Überraschungen realer Projekte lassen sich nicht in ausgedachten und wohlformulierten Entwurfsaufgaben simulieren. Besonders folgenreich ist die vorherrschende Praxis, politische Aspekte aus den Entwurfsstudios « herauszuhalten » und die Aufgaben nur technisch, ästhetisch oder « architektonisch » zu stellen. Diese Praxis beruht auf einer Fehleinschätzung der Natur des Planens und Entwerfens – was jeder Praktiker zugeben müßte und was ein besonders berechtigter Anlaß des Protestes so vieler Studenten ist. Sie sollten – und wollen – lernen, wie man ein Projekt in dem Feld mannigfaltiger Interessen und sehr unterschiedlicher Arten und Grade des Betroffenwerdens durchführt. Zu den ersten Lektionen gehört, daß eine Voraussetzung das politische Engagement des Planers ist, d. h., daß er ein Urteil über die « Sollzustände » der Betroffenen und die Angemessenheit der Prozesse für ihre Bestimmung haben muß. Wer glaubt, daß die TECHNIK diese Frage beantwortet, besorgt die Interessen des Esta blishments.
3.6 Weitere Implikationen Weitere Prinzipien dieser Art ließen sich für die Ausbildung von Planem und Entwerfern angesichts der Entwicklung der TECHNIK postulieren und begründen. Vielerlei praktische Implikationen für die Studienplangestaltung lassen sich darauf abstützen. So sollte anstelle der « Güterzüge » sequentieller Vorlesungen, Seminare und Entwurfsstudios, die im Hinblick auf ein bestimmtes, starres Berufsbild ausgelegt sind, ein kombinatorisches System von Kursen treten, welche eine große Anzahl von individuellen, den Interessen und der Nachfrage angepaßten Studiengängen erlaubt und stimuliert. Die Rechtfertigung hierfür ist die Einsicht, daß heutzutage niemand weiß, was z. B. der Architekt übermorgen wissen sollte. Es besteht eine hohe Symmetrie der Ungewißheit zwischen denen, welche Studienpläne entwerfen, und denen, welche sie durchlaufen sollen. Folglich empfiehlt es sich, die Freiheit und das Risiko der Studienplangestaltung zu demokratisieren: Man eröffne eine Vielzahl von Studiengängen, welche im Hinblick auf Interessen, Erwartungen und Fähigkeiten der Studenten und der Lehrkörper durchführbar sind. Der Preis
288 SPEZIELLE P ROBLEME
hierfür ist der Verzicht auf streng genormte professionelle Absolventen. Da indessen ein wachsender Bedarf für anomale, aber dafür motivierte und einfallsreiche Rand- und Mischintelligenzen besteht, braucht man nicht zu befürchten, daß ein solches System nichts als verkrachte Existenzen hervorbringt. Zudem gibt es Erfahrungen, die darauf hindeuten, daß innerhalb eines solchen Systems mit vielen Freiheitsgraden sich eine Mehrheit ohnehin für ausgetretene, standardisierte Pfade entscheidet, welche herkömmliche Berufsvertreter hervorbringen. Eine andere Konsequenz ist, daß es Kurse geben sollte, welche die « Software »-Techniken des Planens und Entwerfens zum Gegenstand haben. Diese Kurse sollten das methodologische Wissen über das Planen und Entwerfen systematisch und gründlich anbieten: • Techniken der Identifizierung, Strukturierung, Lösung von Problemen; • Techniken der Kommunikation von Urteilsbasen zwischen den an einem Projekt Beteiligten; • Techniken der Modellbildung, Simulation, Prognose; • Übungen im Bezweifeln, im Argumentieren, im Beurteilen usw.
4. Das Sollbild vom Planer und Entwerfer Man fragt sich, welcher Typ von Planer, Entwerfer oder Konstrukteur bei Anwendung dieser Prinzipien auf das Ausbildungssystem herauskommen soll. Für die Antwort bietet sich ein Drei-Stufen-Modell für die Zustände eines Studenten und/oder Praktikers an: Auf der ersten Stufe befindet sich der naive Student, welcher mit der Absicht auf die Universität kommt, die Welt schnell, gründlich und sichtbar zu verändern. Er hat keine Schwierigkeiten, Ideen zu entwickeln; er entfaltet viel Phantasie und wenig Urteilskraft. Er weiß, daß fast alles im argen liegt, und er ist entschlossen, etwas dagegen zu tun. Sein Werkzeug ist der 6B-Stift, und er ist sehr enttäuscht über die Widersinnigkeit der Welt, wenn seine perfekten Visionen kein Gehör finden. Manche bleiben in diesem Zustand während ihres ganzen Studiums (nicht ohne Ermutigung durch manche ihrer Lehrer); manch einer absolviert sogar sein ganzes Berufsleben in dieser Kondition. Auf der zweiten Stufe ist man bereits über einige Schwierigkeiten gestrauchelt, welche zu Zweifeln über den Primat der « guten Ideen » führen. Man hat gelernt, daß die Hauptschwierigkeit des Planens nicht in der Produktion von « an sich » guten Ideen liegt, sondern in der Beurteilung von Situationen, Ideen, Konse quenzen. Es kommt zu der Einsicht, daß es keinen zureichenden Grund gibt, eine
DIE ENTWICKLUNG DER TECHNIK 289
Entscheidung so und nicht anders zu fällen, und daß der Versuch konsequent ratio nalen Vorgehens unlösbare Dilemmas mit sich bringt. Anhaltende Frustration ist typisch für dieses Stadium: Man getraut sich nicht, den ersten Strich auf das Papier zu ziehen – denn es gibt keinen zureichenden Grund, ihn gerade hierhin und nicht dorthin zu ziehen. Man hat nämlich gelernt, daß gerade die frühen Entscheidungen – eben die ersten Striche – besonders entscheidend für das Gelingen des Planes sind. Wie könnte er mit dem Planen beginnen, ohne sich erst die rechte, objektive und somit verläßliche Basis begründet zu haben? Manch ein Aspirant bleibt in diesem Stadium stecken und wendet sich einem anderen Studium zu, nicht selten dem der Psychologie. Trotzdem scheint dieses Stadium eine unvermeidbare Durchgangsphase zu sein, um in den Planer- und Entwerferstatus zu gelangen, der hier propagiert werden soll. Es empfiehlt sich, die Frustration der zweiten Stufe zum expliziten Zwischenziel zu machen: Man baue Fallen und Fußangeln in den Studiengang ein, welche Naivität straucheln und die Hoffnung auf absolute und objektive Weisheitsquellen für das Planen schwinden lassen. In der dritten Stufe hat man gelernt, trotz aller Skrupel und der notorischen Unzulänglichkeit der Wissensgrundlagen zu planen und zu entwerfen, wenn auch behutsam und mit schlechtem Gewissen. Man weiß, das es keinen wissenschaftlichen Ersatz für die Bürde des Urteilens gibt und daß jemandes Urteil so gut ist wie die Überzeugungskraft seiner Argumente. Man hat es eingesehen, daß man wohlberaten ist, ein wohlbegründetes Bild vom Sollzustand der Gesellschaft, vom Wohlergehen seiner Nachbarn und vom Bauen zu haben, und daß man dieses Bild nicht genug der Argumentation und Bezweiflung aussetzen kann – um es gegebenenfalls zu verbessern. Das Ergebnis ist ein « kritisch engagierter Planer », der weder an den Zwangslauf des Fortschrittes noch an den Primat der TECHNIK glaubt, aber überzeugt ist, daß jedes Projekt ein Zug in der Auseinandersetzung über die Richtung des Fortschrittes und den Inhalt der TECHNIK ist. Er ist immun gegen technokratische Anwandlungen, denn er kennt ihre schwache theoretische Basis, und er richtet sein besonderes Augenmerk auf die Schwierigkeit, in jedem Projekt jeweils von Neuem zu ermitteln, was eigentlich gewollt werden soll (oder: gesollt werden will) – anstatt zu versuchen, einer Problemsituation von vornherein eine Lieblingstechnik auf zunötigen. Am liebsten wäre diesem Planer eine Welt, in der man nicht mehr für andere und über andere zu planen hat. Es ist die Hypothese dieser Ausführungen, daß diese Art von Planern das « Sollprodukt » unserer Ausbildungssysteme sein sollte.
290 SPEZIELLE P ROBLEME
5. Die TECHNIK und die WISSENSCHAFT Man hat sich angewöhnt, WISSENSCHAFT und TECHNIK in einem Atem zu nennen, obwohl sie trotz aller symbiotischen Verbindungen – zumindest gemäß i hren klassischen Programmen – verschiedene Ziele verfolgen. Diese Programme sehen vor, daß die TECHNIK auf instrumentelles Wissen und seine Nutzung aus ist; dagegen soll die Wissenschaft universelles, erklärendes Wissen erzeugen, dessen Ausbeutung für praktische Zwecke nicht ihre Sache ist. Von der WISSENSCHAFT wird erwartet – und viele ihrer Vertreter stimmen zu –, daß ihre Produkte zur freien Bedienung, etwa durch die TECHNIK, verfügbar sind. WISSENSCHAFT nimmt an, daß die Trennung zwischen Erkenntnis und Handeln nicht nur möglich, sondern auch erstrebenswert ist. Dabei liegt es auf der Hand, daß dieses Programm längst nicht mehr (wenn je) unangefochten ist – nicht zuletzt aufgrund analoger Phänomene, wie sie eingangs für die TECHNIK geschildert wurden: Die WISSENSCHAFT stellt einen Machtfaktor dar, dessen Kontrolle ein politisches Problem ist. Große Segmente der WISSENSCHAFT stehen im Dienste der TECHNIK des militärisch-industriellen Komplexes, und sei es nur, weil die Aufgabenstellungen und das Geld von den Promotern der TECHNIK kommen. Diese Tatsache schließt nicht aus, daß es viele Wissenschaftler gibt, welche naiv oder gar aufgrund politischer Überzeugung so agieren, als ob das Ideal der klassischen Wissenschaft gelten würde. Die WISSENSCHAFT hat ihre Autonomie als objektive Instanz und neutrale, introvertierte Subkultur verloren. Es mehren sich die Stimmen, welche sich um ihre Entwicklung sorgen. Auch und vor allem in den Reihen der Wissenschaftler gibt es die kürzlich noch tabuierte Diskussion darüber, ob Wissenschaftler berechtigt sein sollten, Erkenntnisse « um ihrer selbst willen » gewinnen zu dürfen, d. h., ob sie sich um die Folgen ihres Tuns nicht zu sorgen brauchen. Diese Frage ist keineswegs moralisch trivial: Ob man ein Projekt überhaupt annehmen soll oder stattdessen nicht etwas anderes tun sollte, welche « Überlegungstiefe » man entwickeln sollte, um die denkbaren Auswirkungen eines vielleicht praktikablen Resultates zu beurteilen usw., sind traumatische Themen der Metaebene wissenschaftlichen Diskurses geworden. Seit einiger Zeit wird in den USA sogar die Einführung einer Art Wissenschaftsgerichtsbarkeit diskutiert, welche im Streitfalle über die Tunlichkeit von bestimmten Forschungsprojekten urteilen soll.4 Je mehr die Institution WISSENSCHAFT die manifeste oder potentielle Instru mentalität ihrer Produkte für außerwissenschaftliche Zwecke zum Diskursobjekt erhebt, um so mehr verwischt sich ihre herkömmliche Abgrenzung zur TECHNIK. Man mag diese Entwicklung – von der kaum eine Wissenschaft verschont geblieben ist (vielleicht die Archäologie, aber nicht einmal die Germanistik) – beklagen: Man ist wohlberaten, die WISSENSCHAFT nicht mehr als vom übrigen Weltgeschehen sorgfältig abgeschirmte Provinz mit Autonomieanspruch zu betrachten.
DIE ENTWICKLUNG DER TECHNIK 291
Diese Entwicklung impliziert noch nicht, daß sie zum Bösen führen muß. Man wird sich daran gewöhnen müssen, daß auch Wissenschaftler nicht nur gegenüber ihresgleichen verantwortlich sind. Die WISSENSCHAFT taugt weder dazu, die Frage der Sollwelt autoritativ zu beantworten, noch unterliegt sie einem eingebauten Zwangslauf, welcher vom FORTSCHRITT determiniert ist.
5.1 TECHNIK und WISSENSCHAFT im Bauwesen Im Bauwesen erhofft man sich große Ergebnisse von der Wissenschaft auf vielen Gebieten. Man hat den Eindruck, daß auf diesem Felde eine gewisse passivistische Gläubigkeit vorherrscht, nämlich, daß es nur eine Frage der Intensität der Forschung sei, wann und wie die Bautechnik den angemessenen Stand erreichen wird. Es gibt eine große Anzahl von Forschungs- und Entwicklungsvorhaben auf dem Gebiet des Bauwesens: Über Baustoffe, Fertigungsverfahren, Benutzerverhalten, Marktstrukturen, Gebrauchseigenschaften usw., usw. Diese Projekte sind indessen bislang nur schwach miteinander koordiniert. Sie sind recht unabhängig voneinander, und neue Projekte ziehen wenig Nutzen aus den Ergebnissen früherer Projekte. Nur wenige Resultate werden von der Bauindustrie wirklich genutzt. Die Folge ist ein Bild von der BAUTECHNIK, welches eher molochartige Züge hat als die einer wohltätigen, sich selbst regulierenden Fortschrittsmaschine. Dieser Zustand ist von kaum jemandem beabsichtigt und liefert ein weiteres Beispiel dafür, wie aus unkoordinierten, kurzsichtigen Einzelaktionen kumulative Effekte resultieren können, die niemand gewollt hat und die fast jedermann unerwünscht sind. Besonders im Bauwesen ist man wohlberaten, die Grenzen zwischen der WISSENSCHAFT und der TECHNIK nicht allzu scharf ziehen zu wollen: Es geht um die Umstrukturierung der bestehenden Verhältnisse durch innovierende A ktivitäten. Welche dieser Bemühungen man als « Forschung » zur « WISSENSCHAFT », und welche man als « Entwicklung » zur « TECHNIK » rechnen soll, ist besonders im Bau wesen eine akademische Frage.
5.2 Strategien der Forschung und Entwicklung im Bauwesen Welche Strategien empfehlen sich für Forschung und Entwicklung im Bauwesen, also für die nicht an einzelne Bauprojekte oder Produktionsprogramme gebundene « Innovationsarbeit »? Angesichts der « fast beliebigen Machbarkeit » von Hardware-Techniken (vgl. 2.4) im gegenwärtigen Innovationssystem der Technik konzentrieren sich die Schwierigkeiten auf die Entscheidung, welche Hardware man eigentlich entwickeln
292 SPEZIELLE P ROBLEME
sollte, um das etablierte BAUWESEN in Bewegung zu bringen. Um es überspitzt zu formulieren: Es ist schwieriger festzustellen, welche Entwicklung welcher Bautechniken etwa in der BRD gefördert werden sollte, als diese Techniken dann zu entwik keln. Schon heute ist die Fülle der konzipierten oder prototypisch entwickelten, aber auch der produzierten und verkauften Bausysteme unübersehbar. Es besteht kein Mangel an Ideen, Prinzipien und Experimenten, aber es fehlt an Techniken der Koordination, Organisation, Bewertung, Voraussage, Planung und Implementierung, um eine zielstrebige Politik für das Bauwesen zu entwickeln und durchzusetzen. Sicherlich ist das gegenwärtige Chaos vor allem eine Folge der Organi sation der Bauindustrie (vgl. 2.5) und jahrelanger staatlicher Patronage. Es fehlt indessen am Know-how, um diese Verhältnisse zu ändern, selbst unter der Voraussetzung der Kooperationsbereitschaft aller Beteiligten. Forschung und Entwicklung im Bauwesen sollte nicht auf « harte » Techniken konzentriert werden, sondern auf « Software »-Techniken für die Planung und Durchführung von Projekten. Einige Beispiele mögen illustrieren, welche Aufgabenbereiche dieser Art von Forschung und Entwicklung zukommen: • Bewertungsprozeduren, welche es erlauben, alle signifikanten Aspekte für die Beurteilung eines Lösungsvorschlages explizit und kommunikabel einzubeziehen. Solche Verfahren sollen es ermöglichen, die Standpunkte und Urteilsgrundlagen verschiedener Beurteiler kommensurabel darzustellen, anstatt nur die « klassischen », leicht meßbaren Aspekte wie « Quadratmeter Nutzfläche », « Baukosten pro Quadratmeter », « Mannmeilen » als einzige explizite Entscheidungsgrundlagen zu benutzen. « Intangible » Faktoren wie « Einfluß eines Projektes auf die Sozialstruktur » oder « Politische Realisierbarkeit » sollten nicht wegen ihres « subjektiven » Charakters beiseite gelassen werden (bei näherem Zusehen erweist sich ohnehin alles Messen als « subjektiv »), sondern mit allen anderen, jeweils angemessen gewichteten Aspekten in die Bildung des Gesamturteils einbezogen werden.5 Der Nutzen solcher Verfahren liegt in der Hoffnung, daß durch die Explizierung der Urteilsgrundlagen verschiedener Personen besser durchdachte Entscheidungen zustande kommen: Daß weniger Faktoren vergessen werden, daß krasse Unterschiede in den Bewertungssystemen verschiedener Teilnehmer « lohnende » Konflikte identifizieren helfen, daß Lernprozesse über das, was als gute Lösung gelten soll, stimuliert werden.
DIE ENTWICKLUNG DER TECHNIK 293
• Die Untersuchung der Logik des Planens: Welches Wissen braucht und benutzt der Planer und Entwerfer in welcher Form in einer gegebenen Situation, um eine Entscheidung zu treffen? Das Studium des Problemlösungsverhaltens von Planern in Abhängigkeit von ihrer Informationsumwelt ist die Grundlage für den Entwurf angemessener Planungssysteme. • Techniken für die Aktivierung der Expertise der von der Planung Betroffenen und deren Beteiligung an der Planung: Wie oben skizziert (3.5), ist es in immer mehr Projekten immer weniger angebracht, das Planen den fachmännischen Experten zu überlassen, denn sie haben keine fachmännische Expertise darüber, was mit dem Plan « gesollt werden soll ». Es empfiehlt sich folglich, Planungsformen zu suchen, welche die von der Planung Betroffenen in den Planungsprozeß aktiv einbeziehen – in der Annahme, daß sie die besten Experten über ihre eigenen Lebensumstände sind. Obwohl in den letzten Jahren mannigfaltige Sozialtechniken entwickelt worden sind (Advokatenplanung, Gaming usw.), ist dieses Problem weit von einer befriedigenden Lösung entfernt. • Die Erzeugung projektspezifischen Wissens: Es fehlt an Methoden, welche die rasche und billige Information über die Gegebenheiten in einer bestimmten Situation ermöglichen. Hierbei kommt es vor allem auf die Ermittlung der richtigen Größenordnungen an, weniger auf teure Präzision. Die Standardpraktiken der Sozialforschung oder der Marktforschung sind hierfür meist zu träge, zu präzise und zu teuer, wenn man etwa feststellen will, wie ein Gebäude tatsächlich genutzt wird oder welche Mängel ein eingeführtes Bausystem zeigt. • Methoden der Arbeitsteilung in Planung und Entwicklung: Wie kann man große Projekte strukturieren und steuern, zumal wenn viele Institutionen beteiligt sind und die « Mission » des Projektes nicht bereits am Anfang einfach und klar definiert werden kann? Es hat sich gezeigt, daß eine direkte Übertragung etwa der NASA-Praktiken auf Projekte im Bauwesen nicht möglich ist. Mittlerweile verbreitete Techniken wie PERT sind nicht zureichend, um die besonders kritischen Anfangsphasen von Projekten zu strukturieren. • Einrichtung eines Forschungs-Informationssystems für das Bauwesen: Ein solches System sollte abzufragen erlauben, wer gerade an welchem Projekt arbeitet, wie weit es gediehen ist, was die Ergebniserwartungen sind. Es sollte einen Überblick über Schwerpunkte, Parallelprojekte und Forschungslücken
294 SPEZIELLE P ROBLEME
vermitteln helfen und eine besser informierte Diskussion über das Bauwesen und die Baupolitik ermöglichen. Es ist eine notwendige Grundlage für eine zielstrebige Forschungsund Entwicklungsplanung. • Die Einrichtung eines Produkt-Informationssystems für das Bauwesen, welches die Suche nach Produkten mit gegebenen Eigenschaften unterstützt. Ein solches System müßte die vergleichende Produktanalyse gestatten und auch Gebrauchs erfahrungen und Testergebnisse beinhalten. Hier wird besonders klar, daß die kritischen Innovationen im Bauwesen Politica sind: Zwar mag jeder Verbraucher an einem solchen System interessiert sein, aber welcher Hersteller von Aluminiumfenstern sähe schon gern sein Produkt in einer Form beschrieben, aus der explizit hervorgeht, daß es Situationen gibt, in denen es Stahlfenstern unterlegen ist? Weitere Themen für methodologische Forschung und Entwicklung lassen sich aufzählen. Für die genannten Themen gibt es Ansätze und Resultate; vieles läßt sich aus anderen Gebieten ins Bauwesen übertragen.
6. Eine optimistische Annahme Anfangs wurde der Standpunkt, von dem aus diese Ausführungen entwickelt wurden, als « gemäßigt aktivistisch, leicht pessimistisch » bezeichnet. Er ist aktivistisch insofern, als postuliert wird, daß die TECHNIK nicht ein unbeeinflußbares Schicksal ist, auf das man sich einzurichten hat. Jede hinreichend kräftige Koalition kann sie umlenken, wenn sie nur die geeigneten Mittel und Techniken dafür zustande bringt. Der Pessimismus beruht auf dem Eindruck, daß die etablierte TECHNIK kaum motiviert ist, Versuche zu ihrer Entthronung als Vollstrecker des Fortschrittes und zur Politisierung ihrer Fortschreitungsrichtung zu unterstützen oder die Entwicklung von Techniken zu ihrer Kontrolle zu betreiben. Zudem bietet die Entwicklung solcher Techniken keine Garantie, denn jede Technik ist zielneutral, und ihre Effekte hängen von den Absichten derer ab, die sie anwenden (man kann einen Hammer benutzen, um einen Nagel einzutreiben oder jemanden auf den Kopf zu schlagen). Techniken für die Steuerung und Anwendung der TECHNIK sind notwendige, wenn auch nicht hinreichende Bedingungen. Es gibt indessen auch eine optimistische Komponente: Sie ist die Hoffnung, daß technische Hilfen bei der Explizierung von Zielen, bei der Identifizierung der lohnenden Streitfragen, bei der skeptischen Analyse von Lösungsvorschlägen und
DIE ENTWICKLUNG DER TECHNIK 295
bei der Aushandlung der Verteilung von Konsequenzen eines Planes die Wahrscheinlichkeit unvorhergesehener, unerwünschter Planfolgen nicht vergrößern. Man mag diese Annahme als aufklärerisch bezeichnen, da sie voraussetzt, daß die meisten Fehlplanungen nicht das Produkt bösen Willens, sondern unzulänglichen Problemverständnisses sind, und daß folglich Lernen helfen kann.
1 In den USA versucht der ACSA (Association of Collegiate Schools of Architecture) diese Rolle wahrzunehmen. Er veranstaltet regelmäßige regionale und nationale Seminare über spezifische Fragen des Bauens für die Lehrer der Architektur. 2 K. E. Boulding; The Image; Ann Arbor, Mich.: The University Press, 1961, S. 162. 3 Science, 12. Oktober 1962, und K. M. Starr, «Product Design and Decision Theory, Englewood Cliffs, NJ: Prentice Hall, Inc., 1963 4 Dieser Vorschlag wurde auf der Konferenz der American Academy of Arts and Sciences im Dezember 1969 in Boston ausführlich erörtert. 5 Ein solches Verfahren ist beschrieben in A. Musso, H. Rittel; Über das Messen der Güte von Gebäuden,** in: Arbeitsberichte zur Planungsmethodik 1, Bewertungsprobleme in der Bauplanung; herausgegeben vom Institut für Grundlagen der modernen Architektur, Prof. Dr.-Ing. Jürgen Joedicke, Universität Stuttgart. Karl Krämer Verlag, Stuttgart 1969.
* Quelle: Bericht Nr. 113 der Studiengruppe für Systemforschung e. V. Heidelberg. Verlag Dokumentation Säur KG, Pullach 1972. Der Text basiert auf einem Vortrag vor dem 3. Deutschen Fertigbautag in Hannover am 28. Januar 1970; ein Transkript der ursprünglichen Version wurde im Konferenzbericht abgedruckt. ** Dieser Beitrag ist in dem vorliegenden Buch abgedruckt.
296 SPEZIELLE P ROBLEME
Gesellschaftliche Alternativen im Berufsverkehr* Kurzfassung Fragen des Nahverkehrs sind politische Fragen. Es lassen sich drei Typen von Standpunkten zu ihnen einnehmen: Daß es mit dem Nahverkehr überhaupt keine dringenden Probleme gibt (da er in seiner jetzigen Form offensichtlich « gewollt » wird), daß er zwar in einem schlimmen Zustand sei, aber man eine Politik des Laissez-faire und der kleinen Schritte verfolgen solle, oder aber, daß er einer langjährigen Politik der Strukturänderung bedarf. Gegen die ersten beiden Standpunkte sprechen der SAY-Effekt der « Verschlimmbesserung » durch kleine Schritte und der « Mitläufer »-Effekt (Enthaltung vom Individualverkehr zahlt sich nicht aus). Der dritte Standpunkt wird weiter verfolgt, und zwar beschränkt auf den Berufsverkehr. Die Störphänomene des Berufsverkehrs sind einfach aufzuzählen, jedoch die Deutung ihrer Ursachen läßt einen weiten Spielraum von Alternativen, deren Auswahl eine sozialpolitische Stellungnahme darüber erfordert, was man als invariant und was als veränderbar ansieht. Strukturelle Änderungen erfordern eine Entscheidung, was man in der Zukunft « wollen dürfen soll ». Das Dilemma ist, daß dies eine Bewertung von Wertsystemen erfordert. Eine Strategie der maximalen Argumentation durch die Betroffenen scheint der einzige Ausweg zu sein. Grundsätzlich sollte jeder sein Auto fahren dürfen, bis er einsieht, daß er es nicht sollte (und nicht, weil er es nicht darf). Einige Faustregeln identifizieren die wichtigsten Variablen des Berufsverkehrs, ihre Größenordnungen und die Beziehungen zwischen ihnen. Alternativen für eine Verkehrspolitik lassen sich durch ihren Einfluß auf die Variablen beschreiben. Geschwindig keit, Zahl der Arterien, Fahrzeuglänge, Reaktionszeit des Fahrer-/Fahrzeugsystems bieten Ansatzpunkte für Verbesserungen (Schnellstraßen- und U-Bahn-Bau, computer gesteuerte Fahrzeugkontrolle usw.), welche jedoch den gegenwärtigen Zustand bestärken und den SAY-Effekt provozieren. Wirksamer und radikaler wäre eine langfristige Politik, welche sich auf die Verkleinerung städtischer Ballungen, Vergrößerung der Zahl der Passagiere pro Fahrzeug, Erhöhung der Besiedlungsdichte, Vermehrung der Zahl der Beschäftigungszentren, die Verlängerung der Ankunftsspanne des Berufsverkehrs oder gar die Verminderung der Anlässe für den Berufsverkehr richtet. Alternativen dieser Art hätten äußerst drastische Folgen für Lebensstile, Verbrauchsgewohnheiten und Arbeitsorganisation. Jede langfristige Politik für den Berufsverkehr sollte Spielraum für eine sehr große Zahl von Lebensstilen bieten. Sie sollte alle Verhaltensformen – und nur diese – ermöglichen, die allgemeiner Brauch werden könnten.
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 297
I. Standpunkte Verkehrsprobleme sind politische Probleme Jede Epoche hat ihre Agenda von Themen, auf die sich die Aufmerksamkeit konzentriert. Sie sind die « Topoi », über die man spricht, die man als problematisch, wenn nicht gar kritisch ansieht und die die Brennpunkte der politischen Aktivität bestimmen. Topoi kommen und gehen. So ist der Topos « Wiedervereinigung » von der Agenda der BRD verschwunden; der Topos « Umwelt » erringt immer höhere Rangplätze; « soziale Gerechtigkeit », « Eigentumsbildung », « Einkommensverteilung » sind seit langem aktuell, allerdings meist in nicht allzu günstiger Plazierung. Einen besonders prominenten Platz auf den Agenden, mittlerweile nicht allein der Industrieländer, hat der Topos « Verkehr », vor allem der Nahverkehr in den städtischen Ballungszentren. Er fehlt in kaum einer Regierungserklärung; er ist der Gegenstand unzähliger kostspieliger Projekte und Programme; die publizistischen Medien räumen ihm breite Schilderung und Würdigung ein; er ist des Bürgers und Verkehrsteilnehmers mindestens zweitliebstes Thema. Jeder kennt die Phänomene des Nahverkehrs aus eigener, regelmäßiger Anschauung; fast jeder ist mit dem gegenwärtigen Zustand äußerst unzufrieden; alle haben dezidierte Meinungen und Vorstellungen zur Verbesserung. Eigentlich sollte zum Nahverkehr bereits alles gesagt worden sein, und man scheut sich fast, dem noch etwas hinzuzufügen. Es ist verwunderlich, daß sich trotz aller Intensität der Privilegien und des Einsatzes von Mitteln der Topos « Nahverkehr » so hartnäckig aktuell erhält. Ein Grund hierfür liegt in der engen Verknüpfung aller Aspekte der sozialen Wirklichkeit: Das Verkehrssystem hängt mit dem Wirtschaftssystem, der Raumordnung, dem Umweltschutz usw. zusammen und umgekehrt. Jeder Topos ist nur eine der Ausprägungsformen der gesellschaftlichen Struktur in einem Erscheinungsbereich. Der Nahverkehr ist lediglich eine Projektion, ein Bündel von Symptomen, von Lebensstilen, von Machtverhältnissen, von Arbeitsorganisationen und Wertvorstellungen, die ihrerseits wieder von Veränderungen des Verkehrssystems beeinflußt werden. Wenn man politische Probleme dadurch definiert, daß sie mit der unterschied lichen Verteilung von Kosten und Nutzen auf die Mitglieder einer Gesellschaft verbunden sind, dann ist der Nahverkehr sicherlich eine reiche Quelle sozialpolitischer Probleme. Damit gibt es keine « objektiv besten » Lösungen im Nahverkehr, sondern nur verschiedene Zuteilungen von Vor- und Nachteilen, und es hängt von dem jeweiligen Engagement ab, ob jemand eine dieser Möglichkeiten für erstrebenswert hält.1 Es bleibt dem politischen Prozeß überlassen, eines dieser gewöhnlich kon troversen Problemverständnisse zur Durchsetzung zu bringen. Die zukünftige Lebensqualität – zu der der Nahverkehr sicherlich wesentlich beiträgt – ist auszuhandeln. Dies ist trivial genug, wird aber trotzdem häufig vergessen oder geleugnet.
298 SPEZIELLE P ROBLEME
Wer kennt nicht die Betrachtungen zur « wissenschaftlich richtigen » Stadtgröße, zum « technisch besten » oder « wirtschaftlichsten Verkehrssystem ».
Alternative Standpunkte im Nahverkehr Zum Topos Nahverkehr lassen sich drei alternative Standpunkte einnehmen: • Die heutige Form des Nahverkehrs mag zwar für einige unerfreuliche Züge haben, im großen und ganzen ist jedoch alles in Ordnung. Der Nahverkehr stellt keine wichtigen Probleme und sollte sich selbst überlassen bleiben. • Der heutige Zustand des Nahverkehrs ist katastrophal. Man sollte die Verbesserung jedoch der Selbstregelung durch Angebot und Nachfrage überlassen und nicht versuchen, grundsätzliche Veränderungen von Staats wegen zu oktroy ieren. • Der Nahverkehr entwickelt sich in eine Krise; es bedarf der wohlgeplanten und konzertierten strukturellen Veränderung, um die Katastrophe abzuwenden. Für alle drei Standpunkte lassen sich plausible Begründungen finden; keiner von ihnen ist durch Fakten zu widerlegen. Sie sind Ausdrücke verschiedener Ansichten darüber, wie die Welt beschaffen ist und wie sie sein sollte.2
Es ist alles in Ordnung Obschon Fachleute und Politiker heute selten zum ersten Standpunkt neigen, läßt er sich doch mit guten Gründen verteidigen: Im Prinzip sei mit dem Nahverkehr alles in Ordnung, er verlange folglich keine Eingriffe. In der Tat: Verkehrsstauungen, Verzögerungen, Umweltschäden sind die Nebenprodukte der freien Wahl der Verkehrsteilnehmer. Fast jeder Berufspendler hat die Wahl, statt seines Automobils ein öffentliches Verkehrsmittel zu benutzen. Wenn nur so wenige (und es werden immer weniger) von dieser Möglichkeit Gebrauch machen, ist das zweifellos eine Indikation dafür, daß sie die Fahrt im eigenen Wagen trotz aller Widrigkeiten des Straßenverkehrs vorziehen. Andernfalls wären die öffentlichen Verkehrsmittel nicht in einem so desolaten Zustand, da sonst die erhöhte Nachfrage allen Grund bieten würde, sie auszubauen und zu verbessern. Die Prozesse der politischen Willensbildung würden schon dafür gesorgt haben, daß die großen Investitionen für den Verkehr nicht in den Straßenbau, sondern in den Ausbau der öffentlichen Verkehrsmittel geflossen wären. Dies
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 299
war offensichtlich nicht der Fall. Der Spaß am eigenen Automobil ist offensichtlich den meisten die Unbill seiner Benutzung wert. Das schließt nicht aus, daß die Erlebnisse im Verkehr dem Bürger ein stän diges Ärgernis sind und deshalb einen Lieblingsgegenstand seiner Unterhaltung bilden. Daraus darf man jedoch nicht schon folgern, daß dies « echte » Klagen sind, die energische Abhilfe verlangen. Bekanntlich ist der Straßenverkehr auch Wettkampfarena, Bühne zur Darbietung sozialen Prestiges und Blitzableiter für Aggressionsbedürfnisse.3 Auch in anderen Ländern, in denen ein abgeklärteres Verhältnis zum Automobil vorherrscht, wird das Nahverkehrschaos weitgehend als Gegebenheit akzeptiert. Wer – etwa in den USA – die Gelassenheit beobachtet, mit der Autofahrer in kilometerlangen, festgefahrenen Sechserkolonnen ausharren, ohne zu hupen und zu fluchen, mag dies durch Gewöhnung und Selbstdisziplin erklären. Man kann aber auch zu dem Eindruck gelangen, daß die so verbrachte Zeit nicht als verloren betrachtet wird. Schließlich ist es die einzige Zeit am Tage, in der man für sich allein ist, ungestört seinen Gedanken nachhängen kann und zur Besinnung kommt. Diese Zeit ist nicht als Verlust zu verbuchen, sondern als Bonus. So zynisch manchem diese Betrachtungen erscheinen mögen, so schwer sind sie zu entkräften. Phänomene wie die des Nahverkehrs sind nicht « offensichtlich » problematisch. Probleme sind immer jemandes Probleme, und die der Fachleute und Kulturkritiker sind nicht unbedingt jedermanns Probleme.
Der Liberalist Vom zweiten Standpunkt aus ist das Verkehrssystem voller Widrigkeiten, man ist aber davon überzeugt, daß es sich dabei um Auswüchse handelt, die sich schrittweise durch unternehmerische Initiative und die Vernunft der Verkehrsteilnehmer lösen werden. Das Verkehrssystem muß eben allmählich so ausgebaut und modifiziert werden, daß es den Anforderungen der verschiedenen Seiten gerecht wird. Wenn ein Bedürfnis nach sauberen Autoantrieben besteht, wird die Indu strie schon welche entwickeln. Wenn der Verkehrsdruck an einer Stelle zu stark wird, werden die Bürger sicherlich den Ausbau der Straßen durchsetzen. Der Nahverkehr ist ein Markt, auf dem zureichende Nachfrage schon einen Anbieter finden wird. Der Proponent dieser Einstellung sieht die Veränderung des Verkehrssystems als evolutionären Vorgang und nicht als eine Aufgabe langfristiger, zentralistischer und synoptischer Planung. Er ist von der Erfindungskraft zukünftiger Generationen überzeugt, die schon die ihnen – samt Problemen – überlassene Welt in erträglichem Zustand erhalten werden. Für ihn kommt das individuelle Fahrzeug einem elementaren Bedürfnis nach Beweglichkeit entgegen: « The automobile is here to stay. »
300 SPEZIELLE P ROBLEME
Der Aktivist Von dieser liberalistischen Haltung unterscheidet sich der dritte Standpunkt vor allem dadurch, daß er nicht an die gütige « hiding hand » der Selbstregelung glaubt, also an eine wohltätige Kraft, welche die Resultante der individuellen Handlungsweise schon zum besten kehren wird. Ihr Proponent ist ein Aktivist, der ohne konzertierte, langfristige geplante Aktion das Chaos obsiegen sieht. Für ihn liegt die einzige Lösung für die Misere des Nahverkehrs in einer grundsätzlichen Abkehr von den Lebensstilen und Wertvorstellungen, die die gegenwärtige Situation erzeugt haben und eine noch düstere Zukunft erwarten lassen, falls eine solche Ände rung ausbleibt. Er mißtraut der Selbstregelung, weil sie ja die Ursache der bestehenden Mißstände ist. Wenn die Beurteilung der Lebensqualität in der Zukunft weiterhin an den Idealen von gestern und heute orientiert wird, die das gegenwärtige Chaos erzeugt haben, gibt es keine Lösung für die Probleme des Nahverkehrs.
Der SAY-Effekt Ein starkes Argument gegen das Vertrauen in die Selbstregelung und die Vernünftigkeit modifizierender lokaler Maßnahmen liefert der SAY-Effekt.4 Starke Verkehrsstauungen in einer Arterie induzieren eine starke Nachfrage. Nach dem Prinzip der lokalen Modifikation wird die Straße ausgebaut. Man kommt schneller in das Zentrum als bisher. Das gilt aber auch für diejenigen Pendler, die gerade jenseits der Grenzen des bisherigen Einzugsbereiches wohnen. Auch für sie wird es jetzt attraktiv, über die Arterie in das Zentrum zu pendeln. Zudem regt die verbesserte Zugänglichkeit des Zentrums in jenen Bereichen zum Bau von Wohnhäusern an. Das Einzugsgebiet breitet sich aus, bis wieder ein starker Verkehrsdruck auf die Arterie ausgeübt wird, der vielleicht noch höher ist als der anfängliche. Die Maßnahme war kontraproduktiv: Anstatt den Verkehr zu mildern, hat man neuen Verkehr « erzeugt » und die Suburbanisierung gefördert. Dieser Effekt ist mit monotoner Regelmäßigkeit in allen Ballungszentren zu beobachten. Es wäre nur zu unterbinden, wenn die Motivation der Umwohner schwände, mit dem Auto in die Stadt pendeln zu wollen, sofern nur die Verkehrsbedingungen etwas günstiger würden. Oder man reguliert die Landnutzung, koordiniert mit dem Straßenbau, um diesen « zersiedelnden » Einfluß zu kontrollieren.
Der « Mitläufer »-Effekt Noch ein anderes Phänomen läßt sich gegen den zweiten Standpunkt anführen. Mangels einer besseren Bezeichnung sei er « Mitläufer »-Effekt genannt, nach dem Motto « Wer nicht mitmacht, hat selbst schuld ».
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 301
Ein Teilnehmer am Berufsverkehr hat die Wahl zwischen dem Pendeln mit eigenem Auto und der Benutzung eines öffentlichen Verkehrsmittels. Er pflegt das Auto zu benutzen. Nehmen wir an, er kommt eines Tages zu der Einsicht, daß es mit dem Verkehr so nicht weitergeht und er mit gutem Beispiel vorangehen sollte. Er erwägt schweren Herzens, in Zukunft öffentliche Verkehrsmittel zu benutzen. Nach einigem Nachdenken kommt er jedoch zu dem Schluß, daß seine « Konsum askese » nichts nutzen würde: Durch seine Enthaltsamkeit vom Individualverkehr bringt er sich selbst nur Unannehmlichkeiten (abgesehen von dem angenehmen Bewußtsein, eine gute Tat zu tun); alle anderen Verkehrsteilnehmer gewinnen dadurch, wenn auch nur marginal, da er ja den Verkehrsdruck um seinen Anteil reduziert hat. Er hat sogar einem neuen Pendler die Teilnahme am Individual verkehr ermöglicht. Kurz, er hat nichts mit seiner Enthaltsamkeit erreicht. Selbst wenn sein Beispiel epidemisch wirken sollte und sich ihm eine größere Zahl anschließt – um so besser für den Rest, dessen Motivierung zur Konversion mit jedem Konvertiten sinkt. Obendrein wird die Attraktivität des öffentlichen Verkehrsmittels durch höhere Belastung mit jedem Konvertiten geschmälert. Es zahlt sich aus, reumütig zum Individualverkehr zurückzukehren.5 Die stabilisierende und verstärkende Wirkung durch diesen « Mitläufer »-Effekt ist enorm. Er zeigt, daß an sich vernünftiges Einzelverhalten zu monströsen Phäno menen kumulieren kann – entgegen der liberalistischen Annahme, daß die zwar eigennützigen, aber vernünftigen Individualentscheidungen zu einem akzeptablen Zustand des Nahverkehrs führen werden.6 Wie gesagt: Die « Richtigkeit » der geschilderten drei Standpunkte ist nicht logisch entscheidbar. Sie sind nur für jeden einzelnen mehr oder weniger plausibel, und es ist eine Sache der Überzeugung, für welchen man sich entscheidet. Im folgenden soll der dritte Standpunkt eingenommen werden, also daß • der Nahverkehr dringende Probleme stellt; • lokale, kurzsichtige Korrekturmaßnahmen nicht zureichen, um diese Probleme zu beheben, sondern im Gegenteil zur « Verschlimmbesserung » des jetzigen Zustandes auf lange Sicht beitragen; • eine langfristige Politik gebraucht wird, die den Sollzustand des Verkehrs im Zusammenhang mit Raumordnung, Umweltschutz, aber vor allem mit der Sozialordnung festlegt; • die Maßnahmen der nächsten Zukunft an dieser Politik orientiert werden. Die nachfolgenden Überlegungen sollen die « Zutaten » und Entscheidungen bei der Entwicklung einer solchen Politik schildern. Dabei wird die Diskussion auf den Berufsverkehr beschränkt, der Vereinfachung halber und wegen der beson-
302 SPEZIELLE P ROBLEME
deren Wichtigkeit dieser Verkehrsart. Die anderen Sektoren des Nahverkehrs, wie Versorgungs-, Freizeit-, Geschäftsverkehr, können analog behandelt werden.
II. Aspekte einer Politik für den Berufsverkehr Störphänomene Die störenden Symptome des Berufsverkehrs sind rasch aufgezählt: • Zweimal werktäglich kommt es zu einer kritischen Überla stung der Verkehrssysteme in den Ballungszentren. • Die Hauptverkehrslast wird durch den Individualverkehr der Pendler erzeugt. • Die öffentlichen Verkehrsmittel sind zwar in den Spitzen zeiten überlastet, während der übrigen Zeit jedoch unterbelastet. Ihr Anteil an der Beförderungsleistung sinkt, sie sind notorisch defizitär. • Die Umweltbelastung durch den Straßenverkehr hat kritische Ausmaße angenommen. • Die Ausbreitung des Individualverkehrs wurde von der Aus weitung der Einzugsgebiete begleitet. Die suburbane Verdünnung macht die Versorgung mit öffentlichen Verkehrsmitteln schwierig; die Zersiedlung (urban sprawl) ist weit fortgeschritten. • Die Kosten des Berufsverkehrs durch Unfälle, Zeitverlust usw. sind hoch.
Ursachen Der erste Schritt zur Entwicklung von politischen Alternativen besteht in der ursächlichen Erklärung dieser Störphänomene. So einig man sich über die letzteren sein mag, so kontrovers sind die Möglichkeiten für die kausalen Erklärungen. Zur Erklärung des Berufsverkehrs-Syndroms mag man postulieren: • Das Automobil hat die suburbane Zersiedlung verursacht. • Das suburbane Wohnideal hat die Ausbreitung des individuellen Automobils bewirkt.
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 303
• Automobil und suburbane Wohnformen sind Bestandteile eines Lebensstils, der mit dem Stil dessen, für den die Städte gebaut worden sind, unverträglich ist. • Automobil und suburbane Wohnformen sind das Ergebnis einer jahrzehntelangen, auf die Forderung von Konsumgeltung und Kleineigentum gerichteten Sozialpolitik. • Eine verfehlte Verkehrspolitik hat den Veränderungen der Wohn- und Verkehrsgewohnheiten nicht Rechnung getragen. • Die antisoziale, individualistische Ethik einer Wohlstandsgesellschaft läßt Verhaltensweisen zu, die durch Geltungsnutzen und Bequemlichkeit bestimmt sind. • Die Politik, welche angesichts des veränderten Wohnverhaltens weiterhin die Konzentration der Arbeitsplätze in den alten städtischen Zentren gefördert hat (etwa durch die Koppe lung der Gewerbesteuern an die Kommunen), hat den Pendel aufwand im Gefolge. • Die Probleme des Berufsverkehrs sind nur ein Symptom der kapitalistischen Gesellschaftsordnung, eine der Formen zur Ausbeutung der arbeitenden Klasse. Alle diese Erklärungen lassen sich durch Fakten unterstützen (oder angreifen). So gibt es viele Korrelationen, die zeigen, wie die Verbreitung des Automobils von mannigfachen Veränderungen der Lebensstile7, wirtschaftlichen Gegebenheiten usw. begleitet worden ist. Es bleibt jedoch der Interpretation überlassen, welche Kausalrichtung man derartigen sozialstatistischen Beziehungen zuweist. Da – post festum – keine Experimente oder Manipulationen vorgenommen werden können, kann man « A korreliert mit B » deuten als « A verursacht B », « B verursacht A », « A und B sind Produkte eines dritten – vielleicht verborgenen – Faktors C », oder auch « A und B bedingen sich gegenseitig ». Das letztere ist der « HuhnEi »-Fall, wo man behauptet, daß es müßig sei, eine Richtung der Verursachung feststellen zu wollen. Wenn man indessen eine Politik zur Behebung einer Diskrepanz aufstellen will, braucht man eine kausal gerichtete Erklärung, denn nur die Beseitigung einer Ursache kann eine Wirkung haben. Offenbar ist die Wahl der ersten Kausalerklärung entscheidend für das Problemverständnis und somit die politischen Alternativen, welche man in Betracht zieht. Die Formulierung der kausalen Erklärung wird natürlich von den Vorstellungen des Planers geprägt, von seinem Verständnis von den Grundmechanismen der Gesellschaft und den Sollvorstellungen über ihre Zukunft. Der Liebhaber des suburbanen Automobilismus wird sicherlich nicht eine Erklärung suchen, die einer Politik der Besiedlungsverdichtung oder der Einschränkung des Individualverkehrs die Grundlage verschafft. Der Liebhaber städtischer Existenz wird ungern eine Erklärungsstruktur akzeptieren,
304 SPEZIELLE P ROBLEME
die zu dem Schluß führt, daß die alten Städte obsolet sind. Und der Industrielle oder auch der Beschäftigte in der Automobilindustrie wird die Probleme des Berufsverkehrs nicht gern so deuten, daß eine Politik der Minderung des Automobilabsatzes nahegelegt wird. Auf eine solche Erklärung werden sie – mit einiger Plausibilität – einwenden, daß diese Politik äußerst negative gesamtwirtschaftliche Konsequenzen haben würde.8 Es gibt keine Möglichkeit, diese Divergenz mit Hilfe der Wissenschaft zu überspielen, und hinter jeder wissenschaftlichen Stellungnahme zum Verkehrsproblem steht – mehr oder weniger explizit – die Weltansicht ihres Autors.9 Man schaue auf ihre Schlußfolgerung und schließe auf ihre Grundüberzeugungen.
Invarianten und Veränderbare Wer eine Politik entwerfen will, muß sich entscheiden, was er für invariant und veränderbar10 halten will. Er mag etwas als invariant betrachten, • weil er keine Veränderung wünscht (es soll so bleiben, wie es ist), • weil er glaubt, keine Veränderung herbeiführen zu können, da dies seine Kräfte überschreiten würde. Soll die Verbreitung des Lebensstils, der das Automobil für den Berufsverkehr braucht, als Faktum hingenommen werden oder soll sie als beeinflußbar angesehen werden? Soll die Gewerbesteuerordnung als strukturelle Invariante in Kauf genommen werden? Sollte man die Arbeitszeitordnungen der Betriebe als veränderbar betrachten? Es gibt keine « Sachzwänge », die einem diese Entscheidungen abnehmen. Vielmehr ist es eine Frage des Selbstvertrauens und des Mutes, was man als veränderbar ansieht. (Selbst wenn man sich nicht zutraut, etwas selbst verändern zu können, mag man sich dennoch zutrauen, eine « Koalition » zusammenzubekommen, die die Veränderung mit vereinten Kräften erzielt.) « Trends » sind nur Indikationen, was « geschehen würde, wenn nichts geschieht », das heißt, wenn keine Intervention stattfindet. Sie sind Extrapolationen von Zeitreihen in die Zukunft gemäß irgendeinem statistischen Modell. Gewöhnlich sind sie widersprüchlich, und man kann sich aussuchen, welche man als gegeben und welche man als umlenkbar betrachten will, um zu einem konsistenten Bild der Zukunft zu gelangen. So führt etwa die Projektion des Kfz-Bestandes und der Verkehrsdichte zu Zahlen, die den Bedarf an Zugangsstraßen über die nächsten Jahrzehnte bestimmen, wenn die Entwicklung so weitergeht. Man kommt zum Beispiel zu dem Schluß, daß der
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 305
Flächenbedarf für Straßen und Parkplätze in den Ballungszentren (der beispielsweise in Minneapolis schon 1961 48,3 v. H. der Fläche ausmachte) sich bis zum Jahre 2000 fast vervierfachen müßte.11 Dies ist ein unsinniges Ergebnis, und man muß einige der Invarianzannahmen aufgeben. Die Frage ist, welche. Es ist der Mangel an « Notwendigkeit », an « selbstverständlichen » Gegebenheiten und Möglichkeiten, welcher das Planen für die Verbesserung der « Lebensqualität in der Zukunft » schwierig macht. Soziale « Gesetzlichkeiten » sind nur Regularitäten vergangener Entwicklungen. Sie beruhen auf Gewohnheiten, die nicht grundsätzlich unveränderbar sind – wie die Vergangenheit zeigt. Wertsysteme sind nicht notwendig invariant und schließen das Umlernen nicht aus. Der Mangel an Notwendigkeit eröffnet sehr große Spielräume für das, « was gewollt werden kann ». Es ist unmöglich, diese Spielräume durch Aufzählung erschöpfend zu beschreiben.
Technische Möglichkeiten Auch die Technik bietet kaum Einschränkungen als Hilfe bei der Bestimmung der Invarianten für den Berufsverkehr. Die « Technik der Technik » im Zeitalter der Machbarkeit liefert Prozeduren, um Geräte, Materialien und Systeme nach Wunsch und Spezifikation zu erfinden. Auch die Techniken der Fortbewegung und des Transports sind keineswegs das Produkt einer Evolution, vergleichbar den Darwinschen Prozessen, die zur Entwicklung des Tierreichs geführt haben sollen. Technische Innovation ist das Ergebnis von Problemlage, Erfindungen, Aufwand und der Macht zur Durchsetzung. Deshalb wäre es verfehlt, die zukünftige Verkehrstechnik und die Zukunft des Verkehrs aus « technischen Zwängen » und bisherigen Entwicklungen e xtrapolieren zu wollen. Dieser Standpunkt wird gestützt durch die große Zahl von alternativen Technologien des Nahverkehrs, die von der Industrie und an Hochschulen als « prinzipiell möglich » ausgedacht und angeboten werden. Und gerade diese Vielfalt deutet darauf hin, daß sich noch viele weitere Alternativen erfinden lassen und daß man wohlberaten ist, keine voreiligen Entscheidungen zugunsten eines der vorgeschlagenen Systeme zu treffen. Eine Politik des Nahverkehrs sollte nicht auf eine der angebotenen technischen Alternativen fixiert sein. Sie sollte vielmehr spezifizieren, welche Art von Technik man zur Behebung der Probleme des Nahverkehrs haben will. Sie wird sich dann schon erfinden und entwickeln lassen. Wenn man durchaus zum Mond will, dann kann man das schon schaffen. Die schwierige Frage ist, ob man überhaupt dahin will. Technische Probleme sind vergleichsweise einfache, abhängige Probleme, der Teufel sitzt in den verzweigten Auswirkungen technischer Veränderungen. Der « saubere Antrieb » ist auf viele Weisen zu verwirklichen. Die Schwierigkeiten liegen in der mangelnden Motivierung, dafür zu bezahlen, oder in dem Einfluß, den eine Veränderung der Antriebstechnologie auf Industrie- und Beschäftigungsstruk-
306 SPEZIELLE P ROBLEME
tur ganzer Landstriche haben würde (wie der Beschluß in den USA, das Überschall passagierflugzeug nicht zu produzieren), oder in der fehlenden Bereitschaft, seinen Lebensstil zu ändern (etwa sein Elektroauto alle paar Kilometer wieder aufzutanken oder sich mit seinen schlechten Fahreigenschaften abfinden zu müssen). Es kommt darauf an, technokratischen Determinismus12 zu vermeiden, selbst wenn durch den resultierenden « Sachzwangverlust » die Planung noch schwieriger wird.
Was soll man wollen dürfen? Es ergibt sich ein Dilemma des Planens für andere, vielleicht noch nicht einmal Geborene. Der Versuch, die Lebensumstände anderer zu verbessern, stößt auf zwei Grenzfälle. Die meisten praktischen Fälle sind Mischformen zwischen diesen Extremen. In einem Fall wird die Welt eines Menschen verbessert, weil eine veränderte Situation eingetreten ist, die er gemäß seinem ursprünglichen Wertsystem der Ausgangssituation vorzieht. Im anderen Extrem ändert sich « draußen » nichts, aber man hat es gelernt, die Welt mit anderen Augen zu sehen, und siehe, sie ist besser geworden. Man hat seine Wertvorstellungen den Gegebenheiten angepaßt. Man streckt sich nach der Decke, gewöhnt sich und lernt, seine Gewohnheiten zu schätzen, oder man hat es gelernt, daß das bislang Gewollte doch nicht zum eigentlich Erstrebten beiträgt und folglich nicht gewollt werden sollte. Wer immer sich mit der « zukünftigen Lebensqualität » beschäftigt, kommt nicht umhin zu postulieren, was « wir » – das heißt vorwiegend andere Leute – « wollen dürfen sollten ». Es geht also um Fragen der absichtlichen Veränderung von Wertsystemen anderer. Offensichtlich bedarf jeder Lösungsvorschlag eines Wertsystems, das die Angemessenheit anderer Wertsysteme zu beurteilen erlaubt und für das Invarianz angenommen wird, während die anderen als veränderbar angesehen werden. Woher kommt die Legitimation hierzu? Wessen Urteil ist privilegiert, die « Höhe » der Lebensqualität anderer zu bemessen? Sicherlich sind auch hierfür die Wissenschaftler nicht zuständig. Weder Psychologen, noch Soziologen, Kulturkritiker oder Theo logen können objektive, überlegene Autorität geltend machen. Es besteht vielmehr volle Symmetrie der Expertise (oder der Ignoranz) zwischen den Betroffenen – wenn man ohne die Überzeugung auskommen will, daß es Eliten gibt, die wissen, daß sie am besten wissen, was für andere gut ist. Eine Folgerung ist, daß die Politik des Nahverkehrs möglichst argumentativ von möglichst vielen Betroffenen entwickelt wird – in der aufklärerischen Hoffnung, daß so die Chance vergrößert wird, eine Po litik zu finden, die nicht nur einigen Fachleuten oder auch e iner Majorität, sondern jedermann plausibel ist. Im Idealfall soll Herr A mit seinem Auto zur Arbeit fahren dürfen, bis er überzeugt ist, daß er es nicht tun sollte (und nicht, weil er es nicht darf).
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 307
III. Einige Faustregeln Nachfolgend wird ein – zugegeben simplistisches – Modell skizziert, welches die Störphänomene des Berufsverkehrs beschreibt. Es wird dazu benutzt, die einflußreichsten Parameter zu identifizieren. Die « Faustregeln » sollen die Größenordnungen der Phänomene und ihre Zusammenhänge abzuschätzen erlauben. Auf dieser Grundlage werden anschließend alternative Strategien für den Berufsverkehr entwickelt und diskutiert.
Spitzenbelastungen durch den Berufsverkehr: Parameter Betrachten wir ein einzelnes Beschäftigungszentrum innerhalb einer städtischen Agglomeration, dann ergibt sich die Zuflußkapazität des einmündenden Verkehrssystems nach der Faustregel: vap (1) C = L + rv In Worten: Die Zahl der Personen, die pro Zeiteinheit in das Zentrum ein- und ausfahren können, ist proportional der Geschwindigkeit der Fahrzeuge v, der Zahl a der einmündenden Arterien oder Fahrbahnen (« Stromfäden »), der Zahl der Personen pro Fahrzeug p und umgekehrt proportional dem Raumbedarf pro Fahrzeug. Dieser setzt sich zusammen aus der Länge L des Fahrzeuges und dem Sicherheitsabstand, der hier der Einfachheit halber und gemäß den üblichen Verhaltensregeln als proportional der Geschwindigkeit v und der Reaktionszeit r des Fahrers samt seinem Gefährt angenommen ist.13 Übliche Größenordnungen sind p = 1,5 Personen pro Automobil, v = 50 km/h, r = 2 Sekunden, L = 5 m, was pro Fahrbahn eine Kapazität von 2300 Personen pro Stunde ergibt. Für einen Bus ergibt sich bei gleicher Geschwindigkeit und 50 Passagieren eine Kapazität von ca. 50 000 Passagieren pro Stunde (allerdings bei einer resultierenden Dichte von einem Bus alle 4 Sekunden; wenn nur ein Bus pro Minute fährt, ergeben sich nur ca. 9000 Passagiere pro Stunde). Eine Schnellbahnlinie kann bei dichter (etwa minütlicher Zugfolge) und halber Besetzung etwa 40 000 Passagiere pro Stunde herein- oder herausschaffen.
Verkehrsbelastung Die Zuflußkapazität eines Zentrums sollte zu keiner Zeit von der tatsächlichen Verkehrslast übertroffen werden. Unter einigen vereinfachenden Annahmen14 – die hier erlaubt sein mögen, weil es ja nur auf die Richtung der Effekte und ihre Grö-
308 SPEZIELLE P ROBLEME
ßenordnungen ankommt – ergibt sich für die Verkehrsbelastung auf den Zugängen zu einem Beschäftigungszentrum: Nbc (2) B = zT Das heißt: Innerhalb der Ballung gäbe es z Beschäftigungszentren und N Einwohner; dann ist der Verkehrsdruck auf die Zugänge zu den Zentren proportional dem Bruchanteil c der in den Zentren Beschäftigten an der Gesamtzahl b · N der überhaupt Beschäftigten und umgekehrt proportional der Zahl der Zentren z in der Ballung sowie der Zeitspanne T, über die sich die Ankünfte (Arbeitsanfangs- beziehungsweise Schlußzeiten) verteilen. Ein Beispiel: Für N = 1 Million, b = 30 v. H., c = 100 v. H., z = 1, T = 2 Stunden ergibt sich täglich in jeder Richtung ein zwei Stunden anhaltender Verkehrsdruck von B = 150 000 Personen pro Stunde. Wollten sie alle mit 50 km/h im Automobil ohne Verzögerung eintreffen, so brauchte man (bei einer Besetzung von 1,5 Personen/Auto) ca. 70 Straßenfahrbahnen in das Zentrum. Es sei darauf hingewiesen, daß B nicht von der Besiedlungsdichte der Ballung abhängt: Wer weiter draußen wohnt, muß halt früher abfahren, um zur Zeit zu kommen.
Verkehrsvolumen Als Faustregel für das Verkehrsvolumen kann man die durchschnittliche Weglänge eines Pendlers mit der Zahl der in den Zentren beschäftigten Arbeitnehmer multiplizieren. Selbstverständlich hängt diese Größe von der Geometrie der Ballung und von der Wahl des Arbeitsplatzes ab. Wenn jeder seinen Wohnsitz nahe seinem Beschäftigungsort wählt (Fall 1), ist diese Größe klein; wenn Arbeits- und Wohnort unabhängig voneinander gewählt werden (Fall 2), ist die durchschnittliche Entfernung und damit das Verkehrsvolumen größer. Es sollen nur diese zwei Grenzfälle unterschieden werden15 : (Fall 1): bc (3a) v1 = k1 p
N3 dz
für den Fall, daß jeder im nächstgelegenen Beschäftigungszentrum arbeitet. Ande rerseits ist (Fall 2): bc (3a) v2 = k2 p
N3 d
für den Fall, daß Wohnort und Beschäftigungsort unabhängig voneinander gewählt worden sind. Das Verkehrsvolumen ist direkt proportional dem Anteil b · c
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 309
der pendelnden Beschäftigten, stärker als proportional der Einwohnerzahl N, umgekehrt proportional der Zahl der Pendler pro Fahrzeug und der Quadratwurzel der Besiedlungsdichte d in der Region. Im Fall 1 nimmt das Volumen mit der Quadratwurzel aus der Zahl z der Zentren ab. Im Fall 2 spielt die Anzahl der Zentren keine Rolle, k1 und k2 sind Faktoren, die von der Geometrie des Verkehrsnetzes abhängen (für eine « Arterienspinne » ist k1 = 0,21; für ein « Manhattan-Netz » ist k1 etwa 0,5; für ein Manhattan-Netz vom Fall 2 mit sehr vielen Zentren liegt k2 bei 0,7).
Maximalwege Nicht nur die durchschnittlichen Wege, sondern auch die längsten Pendeldistanzen sollten im Auge behalten werden, wenn man die « Gerechtigkeit » eines Nahver kehrssystems beurteilen will. Im Fall 1, wo jeder Pendler im nächstgelegenen Zentrum arbeitet, ist der Maximalweg gleich dem Einzugsradius des Z entrums. Im Fall 2, der Unabhängigkeit von Arbeits- und Wohnort, ist der Maximalweg gleich dem Durchmesser der gesamten Ballungsregion, also mindestens das Doppelte vom ersten Fall: Freizügigkeit produziert Verkehr.
Kosten und Nebenfolgen Die direkten Kosten für den einzelnen Verkehrsteilnehmer (Treibstoff, Verschleiß) wachsen mit der Entfernung (die proportional dem Volumen V ist) und mit der Verkehrsdichte (deren Maximum durch die Verkehrsbelastung B und die Zugangskapazität c bestimmt ist). Außer einigen Kostenfaktoren kommen keine neuen Parameter hinzu. Ähnlich verhält es sich mit den Umweltschäden. Sie sind einerseits aggregativ (wie die Anreicherung der Atmosphäre mit Kohlendioxyd durch Abgase) und sind dann etwa proportional dem Verkehrsvolumen V, oder sie bestehen in lokalen Anreicherungen (etwa von Kohlenmonoxyd oder Kohlenwasserstoffen), die mit der Verkehrsdichte zunehmen. Verborgene Kosten für den Verkehrsteilnehmer (wie psychische Überreizung) und soziale Kosten (durch Zersiedlung, Passagierentzug von öffentlichen Verkehrsmitteln usw.) sind nicht so einfach mit den aufgeführten Parametern zu verknüpfen, dürften jedoch ebenfalls in gleicher Richtung wie B und V variieren. Ähnliches gilt für die Unfallkosten. Der Parkbedarf für den Individualverkehr ist proportional der Zahl der Fahrzeuge (b · c · N/p). Für alle Verkehrsmittel spielt der Auslastungsgrad eine Rolle. Für den Individualverkehr entspricht er dem Prozentsatz der verfahrenen Zeit an der Gesamtzeit. Bei öffentlichen Verkehrsmitteln nimmt er besonders stark mit T, der Ankunfts- beziehungsweise Abfahrtsspanne der Pendler zu.16
310 SPEZIELLE P ROBLEME
IV. Alternative Strategien Die skizzierten Faustregeln identifizieren eine Reihe von Parametern, welche die Ärgernisse des Berufsverkehrs direkt beeinflussen. Alle Veränderungen dieser Variablen – in der richtigen Richtung – bieten eine Alternative zur Situation des Berufsverkehrs. Sie haben sozialpolitische Konzequenzen verschiedener struktureller Wirksamkeit. Sie sollen ungefähr in der Rangfolge zunehmender Wirksamkeit besprochen werden.
Vergrößerung der Reisegeschwindigkeit v Die Vergrößerung von v erhöht die Zuflußkapazität der Beschäftigungszentren und verkürzt die Pendelzeiten.17 Es gibt viele konventionelle Mittel, um dies für den Individualverkehr zu erreichen: Anlage von Schnellstraßen, Trennung der Verkehrsarten und dergleichen. Eine gelegentlich eingeführte Möglichkeit ist die Beschleunigung der öffentlichen Straßenverkehrsmittel, indem man ihnen ausschließlich vorbehaltene Fahrbahnen reserviert.
Vergrößerung der Anzahl a der Arterien Auch diese Strategie ist üblich: Man fügt Arterien hinzu (man baut Einfallstraßen oder U-Bahnen). Weniger konventionell ist der Vorschlag, Autos halb so breit zu machen und somit die Anzahl a der Arterien zu verdoppeln. Solche « Pendlerautos » mit nur zwei Plätzen würden hinreichen, da die Belegungsdichte p pro Wagen ohne hin (in den USA) bei nur 1,5 Personen liegt. Auch der erforderliche Parkraum würde halbiert, die direkten Kosten würden sinken. Sicher würde sich ein solches Gefährt nicht für den Familienausflug eignen, und die Zahl der Automobile pro Familie würde vermutlich noch rascher ansteigen als bisher.
Verkürzung der Länge L der Fahrzeuge Der Effekt der Verkürzung der Fahrzeuglänge L schwindet rasch mit zunehmender Geschwindigkeit, weil der Sicherheitsabstand dann immer größere Bedeutung g ewinnt.
Verkürzung der Reaktionzeit r Die Verkürzung der Reaktionszeit r von Fahrer und Maschine hätte beträchtliche kapazitätsausweitende Wirkungen. Da es bislang an Ideen fehlt, die « Schrecksekunde »
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 311
zu verkürzen, und da auch Reibungskoeffizienten nicht beliebig erhöht werden können, gibt es einstweilen keine andere Möglichkeit zur Verkürzung von r, als dem Fahrer – wenigstens auf den dichtbefahrenen Strecken – seine Autonomie zu nehmen und sein Gefährt an ein mechanisches und/oder elektronisches Leitsystem zu koppeln, das die Steuerung des Verkehrsflusses übernimmt und einen kurzen Wert für r hat. Die bisher genannten Maßnahmentypen weiten die Zuflußkapazität aus. Sie sind verhältnismäßig undramatisch und erfordern kaum große Änderungen des gewohnten Lebensstils. Allenfalls muß man sich an das neue Fahrgefühl gewöhnen, wenn man an einem Draht hängt und nicht mehr der uneingeschränkte Herr seines Wagens ist. Fast alle diese Alternativen sind mit technischem Aufwand und hohen Investitionen verknüpft. Alle solche Maßnahmen zur Kapazitätsauswertung können indessen kontraproduktiv werden: Der SAY-Effekt sorgt dafür, daß die zusätzliche Kapazität mehr Verkehr erzeugt, als sie bewältigen kann. Eine Alternativstrategie ist es, keine der bislang genannten Maßnahmetypen zu ergreifen, sofern sie den Individualverkehr vereinfachen, in der Erwartung, daß schon dadurch die Attraktivität der öffentlichen Verkehrsmittel zunimmt, zumal, wenn deren Kapazität und Komfort gleichzeitig ausgebaut werden. Dies ist die « Münchner Lösung ». « Strukturell » wirksamer sind die alternativen Strategien, welche zur Reduktion des Verkehrsdruckes B und des Verkehrsvolumens V führen.
Weniger Einwohner N in den Ballungsgebieten Wie die Faustregeln (3a) und (3b) für das Verkehrsvolumen V angeben, wächst der Verkehrsaufwand proportional zu √ N3. Das heißt, daß zwei Ballungen unter sonst gleichen Bedingungen nur 70 v. H. des Verkehrsvolumens einer einzigen großen Ballung gleicher Gesamtgröße erzeugen. Die Annahme dieser Strategie bedeutet, daß die Raumordnungspolitik eher die Entwicklung neuer Ballungen fördern sollte als das weitere Wachsen bereits bestehender. Das würde die Abkehr von der zentralistischen Megalopolis bedeuten.
Erhöhung der Bevölkerungsdichte d Je dichter die Besiedlung, um so geringer ist das Verkehrsvolumen gemäß (3a) und (3b). Diese Abhängigkeit ist jedoch wesentlich schwächer als die von der Einwohnerzahl: Um das durch Verdoppelung von N erzeugte Verkehrsaufkommen wettzumachen, müßte die Dichte auf das Achtfache ansteigen; eine vierfache Dichte würde die Halbierung des Verkehrsaufkommens bewirken. Die tatsächliche Einwohnerdichte ist in den verschiedenen Ballungsgebieten und Städten sehr unter-
312 SPEZIELLE P ROBLEME
schiedlich. In Los Angeles sind es etwa 2000/km2, in San Francisco 6500/km2, in Manhattan 30 000/km2. Es ist vielfach plausibel gezeigt worden18, daß Dichten von 100 000 Einwohner/km2 durchaus im Bereich städtebaulicher Möglichkeiten liegen – wobei noch eine zureichende Menge von Arbeitsplätzen auf der gleichen Fläche untergebracht werden könnte.19 Bei dieser Dichte könnte die Erdbevölkerung in einer einzigen Ballung mit einem Durchmesser von etwa 250 km untergebracht (und beschäftigt) werden. Für die Bevölkerung der BRD reichten 25 km; jeder Einwohner wäre mit dem Fahrrad erreichbar. Aber auch die recht urbane und lockere Bebauung von San Francisco ist äußerst verkehrssparend: Die Bevölkerung der BRD könnte in einem Gebiet mit dem Durchmesser von 85 km wohnen. Die Annahme der Strategie der städtischen Verdichtung hätte sehr weitreichende gesellschaftspolitische Folgen. Das Ideal vom Wohnen im Grünen, das Bedürfnis nach einem eigenen Haus, um das man « herumgehen » kann, müßte aufgegeben oder mindestens nicht mehr staatlich gefördert werden – es würde die Abkehr von einer jahrzehntelangen Sozialpolitik bedeuten. Mit zunehmender Verdichtung schwindet das Motiv, das Automobil zum Pendeln zu benutzen. Die Nahverkehrsmittel können bei gleichem Aufwand ein dichteres Netz anbieten. Der Treibstoffverbrauch geht zurück und damit die Umweltschäden durch Abgase. Da dieser Prozeß nur sehr langsam stattfinden kann, hat die Industrie Gelegenheit, sich den Veränderungen der Bedarfsstruktur anzupassen.
Erhöhung der Fahrzeugbelegung p C, 1/B und 1/v hängen proportional von p, der Zahl der Passagiere pro Fahrzeug ab. Es gibt zwei Möglichkeiten, um p zu erhöhen. a) Höhere Belegung der Individualfahrzeuge In den USA fahren durchschnittlich weniger als 1,5 Personen pro Auto zur Arbeit, und in der BRD wird es nicht wesentlich anders sein. Pro Fahrzeug sind das 3,5 leere Plätze. Die ganze Bevölkerung der USA hätte bequem auf den Rücksitzen ihrer Autos Platz. Die leeren Sitzplatz-Kilometer pro Jahr würden ausreichen, um die US-Bevölkerung einmal im Jahr nach Europa und zurück zu befördern. Würden nur durchschnittlich 1,8 Personen pro Wagen entfallen, würde so viel Treibstoff pro Jahr gespart, daß damit alle Omnibusse der USA zwölf Jahre lang fahren könnten.20 Folglich bietet sich die Erhöhung von p als wirksame Strategie an. Eine Möglichkeit ist die Ermutigung von « car pools », in denen sich einige Pendler zusammentun, um gemeinsam zur Arbeit zu fahren. In der Ballung von San Francisco gibt es von Computern unterstützte Vermittlungen, welche die Pendler zusammen führen.
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 313
Man gibt einen Anreiz zur Beteiligung, indem Fahrzeuge mit mindestens drei Insassen in den Spitzenzeiten gebührenfrei die Brücke benutzen und obendrein die schnellen, sonst nur Bussen vorbehaltenen Fahrbahnen benutzen dürfen. Die Fahrkostensenkung für die Teilnehmer ist beträchtlich, aber vieles von den Bequemlichkeiten des individuellen Fahrzeugs geht durch den Koordinationsaufwand und das Warten aufeinander verloren. Dieses System hat dennoch bemerkenswerten Anklang gefunden, obwohl sein Einfluß auf den Verkehrsfluß bislang kaum spürbar war (höchstens an der Indignation der festgefahrenen Solofahrer). Drastischer sind die Vorschläge, alle privaten Automobile in ein Taxisystem einzubeziehen, in dem jeder, der will, über Funk seine Fahrtziele meldet und von einer Zentrale angegeben erhält, wen er wo am Wege mitnehmen kann. Hierfür würde er ein Entgelt erhalten, welches allmonatlich mit Hilfe eines Computers errechnet würde. Diese Möglichkeit erfordert sicherlich eine gründliche Änderung der Einstellung zu « seinem » Fahrzeug.21 b) Stärkere Benutzung der öffentlichen Verkehrsmittel Wie die erwähnten Kapazitätszahlen angeben, ist das Fassungsvermögen öffent licher Verkehrsmittel um ein Vielfaches höher als das des « Individualverkehrs ». Man kann ihre Benutzung anreizen, indem man sie • attraktiver macht und ihr « Image » hebt, • ein dichteres Angebot schafft, das heißt, ihre Zugänglichkeit vergrößert, • sie billiger macht. Es gab eine Zeit, in der die Pendler die Bars auf den Fährbooten über die Bucht von San Francisco so attraktiv fanden, daß viele auf dem Nachhauseweg die Fahrt mehrfach machten (zumal das Fahrgeld nur einmal, beim Aussteigen, kassiert wurde). Die meisten gegenwärtigen Verkehrsmittel sind nicht dazu angetan, vergleichbare Wirkungen zu erzielen. Ihre Benutzung ist meist eine Pein. Es wäre eine wirksame Idee, die Benutzung unterhaltend und erbaulich zu machen, etwa durch bequeme Ausstattung, das Angebot von TV, Radio, Filmen, Modeschauen, eine Bar usw. Die Verdichtung des Netzes ist in suburbanen Gegenden kostspielig. Eine Zwischenlösung ist es, die Zubringung an das System mit dem eigenen Fahrzeug vorzunehmen, welches dann an der Haltestelle « draußen » entweder geparkt oder von der Ehefrau zurückgefahren wird (was viele Gründe für den Zweitwagen entkräftet). Eine andere Möglichkeit sind Random-Busse, die auf Funkanforderung eine Route nehmen, auf der sie jeden zu Hause abholen – was sicherlich die Fahrzeit verlängert. Auch diese Möglichkeit wird erprobt.
314 SPEZIELLE P ROBLEME
Die Wirksamkeit der Verbilligung, unter Umständen bis zum Nulltarif oder gar darüber hinaus, ist fraglich. Sicher sind die direkten Auslagen nur ein Bruchteil derer für den Individualverkehr. In den USA geben Autobesitzer mittleren Einkommens rund 10 v. H.22 des Familienbudgets für ihren Verkehrsaufwand aus, während Nicht-Autobesitzer nur rund 2 v. H. aufwenden. Oder: Ein Haus in Suburbia mit einem Kaufpreis von 24 000 Dollar kostet « tatsächlich », das heißt unter Einbeziehung der Verkehrskosten, 30 000 Dollar.23 Und ein Kilometer VW-Fahrt kostet 0,30 DM, also mehr als das Doppelte des Bundesbahntarifes 1. Klasse. Alle derartigen Berechnungen mögen zwar aufschlußreich sein, aber der Autofahrer, der dennoch nicht « umsteigt », ist deswegen noch nicht « nicht rational »: Es ist ihm eben den finanziellen Aufwand wert. Andererseits ist auf das Argument, daß die öffentlichen Verkehrsmittel kosten deckend arbeiten müßten, zu entgegnen, daß dieser Gesichtspunkt für öffentliche Dienste nicht unabdingbar ist. Post und Bundeswehr sind auch Defizit-Dienste. Öffentliche Güter (public goods) haben keinen gerechten Preis, der sich nach Angebot und Nachfrage bestimmen läßt. Gebührenerhebung ist vorwiegend ein sozial politisches Instrument.24
Abschreckung Eine andere Gruppe von Alternativen zur Hebung der Benutzung öffentlicher Verkehrsmittel zielt auf die Abschreckung vom Individualverkehr • durch Versteuerung (Kfz-Steuern, Treibstoffsteuern, Straßen benutzungsgebühren, Abgassteuern, Park- und Benutzungsgebühren), • Sperrung von Zonen der Innenstädte (unter Umständen bei gleichzeitiger Einführung des Nulltarifs, wie experimentell in Rom). Je nach ihrer Höhe können diese Maßnahmen sehr wirksam sein. Gegen die Versteuerung spricht, daß derartige « Verbrauchssteuern » hauptsächlich die unteren Einkommensgruppen treffen. Die zuletzt Abgeschreckten sind die Reichen. Will man das Automobil nicht zum Luxus werden lassen, dann haben Verbote den Vorzug, daß sie jedermann gleichmäßig betreffen. Wenn man der Meinung ist, daß die Reform des Berufsverkehres durch Einsicht und nicht durch Zwänge erfolgen sollte, ist diese ganze Maßnahmengruppe nicht sehr attraktiv. Allerdings: Auf den häufigen Einwand, daß Kfz-Steuern ausschließlich für die Kraftfahrer verwendet werden müssen, ist zu entgegnen, daß Branntweinsteuer nicht nur zum Wohle der Trinker und Erbschaftssteuer nicht nur zum Vorteil der Erben verwendet werden.
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 315
Vermehrung der Zahl z der Zentren Je mehr Beschäftigungszentren in der Ballung sind, um so kleiner V und B, sofern (im Fall 1) jeder in dem seiner Wohnung nächstgelegenen Zentrum arbeitet. Im Grenzfall gibt es gar keine « Zentren »; Wohn- und Arbeitsstätten sind durchmischt, und es gibt keinen konzentrierten Massenpendelverkehr. Dies würde die Aufgabe des Prinzips der Ballung von Beschäftigungszentren bedeuten. Mit abnehmender Abhängigkeit von Bodenschätzen, Massentransportund Umschlagplätzen ist es für viele Industrien und auch Dienstleistungstriebe nicht einzusehen, warum sie alle konzentriert sein sollten. Elektronikfirmen, Verlage, Bankverwaltungen, aber auch – bei hinreichender Zugänglichkeit – Kranken häuser sind standortunabhängig. Eine Streuung der Beschäftigungszentren braucht nicht zur Folge zu haben, daß die Stadtkerne veröden. Im Gegenteil, sie können an Attraktivität gewinnen – als Wohnort und Zentren der Versorgung, Unterhaltung und « Kultur ». Die zwischenbetriebliche Kommunikation erfordert in sehr vielen Fällen keine räumliche Nähe. Es lohnt sich zu überprüfen, ob der « Basareffekt » noch gerechtfertigt ist, wonach etwa alle Banken in der gleichen Straße der Innenstadt lokalisiert sind. Auch für den Fall extremer Freizügigkeit (Fall 2), also bei völliger Unabhängigkeit der Wahl von Wohnort und Arbeitsplatz, nimmt (gemäß (2)) der maximale Verkehrsfluß B mit der Zahl der Zentren ab. Das Verkehrsvolumen V2 ist jedoch (gemäß (3b)) von z unabhängig und somit wesentlich höher als für Fall 1. Es ist zu erwägen, ob die Belebung des frühkapitalistischen Prinzips von der Werkswohnung gleich neben der Fabrik sich lohnt. Eine Alternative wäre es, jeweils « mit seinem Job umzuziehen ». Hierzu müßte ein ausreichender Wohnungsmarkt (mit hoher Vakanzrate) vorhanden sein, und die emotionalen und sozialen Bindungen an einen bestimmten Wohnplatz (zum Beispiel weil es Eigentum ist; oder weil man die Nachbarn dort gut kennt; oder weil die Kinder dort zur Schule gehen) dürften dann nicht stärker sein als das Bedürfnis nach bequemer Nähe zum Arbeitsplatz.
Verlängerung der Ankunftsspanne T Da alle pünktlich zur Arbeit kommen wollen, konzentriert sich die gesamte Last des Berufsverkehrs auf die Zeitspanne T, um welche die Arbeitsanfänge variieren. Die Vergrößerung von T wäre äußerst wirksam für die Reduktion der Belastung B. Die Ausweitung von T in der Form gestaffelter Arbeitszeiten hat mannigfache inner- und zwischenbetriebliche Konsequenzen. Vor allem die zur inner- und zwischenbetrieblichen Kommunikation notwendige Überlappung der Arbeitszeiten wird mit zunehmendem T (um T) verkürzt. Außerdem – wenn T etwa auf fünf Stun-
316 SPEZIELLE P ROBLEME
den ausgedehnt würde – würden (bei achtstündiger Arbeitszeit) die ersten um sechs Uhr morgens anfangen und die letzten um 19 Uhr aufhören (und es blieben drei Stunden « Kommunikationszeit »), was einschneidende Wirkungen für Familienbetrieb, Schlaf- und Fernsehgewohnheiten zur Folge hätte. Hierzu kommen die Koordinationsschwierigkeiten für den Produktionsprozeß (Fließbänder erfordern gleiche Arbeitszeiten, Läden möglichst überlappende Öffnungszeiten). Für viele Arbeitsplätze erlaubt es die Natur der Arbeit, den Mitarbeitern die Wahl ihrer Arbeitszeiten selbst zu überlassen, sofern nur minimale Kommunikationsspannen gewährleistet sind. Unglücklicherweise ist dieses Prinzip häufig nicht auf alle Arbeitsplätze eines Betriebes anzuwenden, und deshalb räumt man dieses Recht im Interesse der Gerechtigkeit keinem ein. Es gibt eine Vielzahl von Varianten der Verlängerung von T, die hier nicht erörtert werden können.
Verringerung der Verkehrsanlässe Besonders wirksam ist es natürlich, die Anlässe für den Berufsverkehr zu verringern (Verkleinerung von b und/oder c). Eine Möglichkeit, um c, den Pendleranteil zu reduzieren, wurde schon beschrieben: Verkürzung der Arbeitswege durch Mischung von Wohn- und Arbeitsstätten und Wohnungswahl nahe dem Arbeitsplatz. Drastischer ist die Alternative, die Arbeitswege so kurz zu machen (etwa durch die beschriebene extrem hohe Dichte bei gleichzeitiger Durchmischung von Wohn- und Arbeitsorten), daß sich alles in Geh- oder Radfahrweite befindet (und obendrein Freizügigkeit erlaubt). Eine andere Alternative ist die Rückkehr zu einem vorkapitalistischen Prinzip, nämlich der Heimarbeit. Es gibt unzählige Tätigkeiten, bei denen ständige Anwesenheit am Arbeitsplatz nur durch Tradition und das Bedürfnis nach Überwachung erklärt werden kann. Alle Einzelarbeit oder Kleingruppenarbeit, die nicht auf Kopplung an große Produktionsmittel oder persönliche Anwesenheit (Verkäuferin, Polizist usw.) angewiesen ist, brauchte nicht in der Zentrale erledigt zu werden. Solche Tätigkeiten machen einen beachtlichen Teil der Arbeitsplätze aus. Ein großer Teil der Kommunikation ließe sich durch Telekommunikation ersetzen, die etwa durch Fernschreibverbindungen und dergleichen angereichert sein könnte. Man tauscht so oft wie nötig seine Produkte gegen neue Arbeit in der Firma, oder man bekommt sie ins Haus geliefert. Es ist einem weitgehend überlassen, zu welchen Tageszeiten man sie erledigt. Die Folgen für den Lebensstil wären beträchtlich. Viele wären darüber gar nicht glücklich, da ihnen ihr Beruf nicht nur ein Mittel ist, um den Lebensunterhalt zu verdienen, sondern auch die « äußere » Welt bietet, in der sie mit anderen agieren, wo es interessant ist, wo sie ihre Freunde haben. Auch das Familienleben erführe drastische Änderungen: Vater wäre immer zu Hause, und man müßte auch
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 317
noch ruhig sein, weil er arbeitet. Auch die jetzige Konstruktion der Wohnungen wäre nicht geeignet. Man brauchte einen zusätzlichen Arbeitsraum in angemessener Isolation. Es ist schwer vorzustellen, daß sich diese Lösung des Verkehrsproblems durchsetzt, aber Gewohnheiten sind ja, wie diskutiert, veränderbar. Eine schwächere Alternative wäre, daß es überall in den Wohngegenden « Arbeitshäuser » gäbe, das heißt Gebäude mit neutralen Arbeitsräumen (und vielen Telefonanschlüssen), in denen Firmen Arbeitsplätze für ihre dort ansässigen Mitarbeiter und Arbeitsgruppen anmieten würden. Einschneidender wären Strategien zur Reduktion von b, dem Anteil der Werktätigen an der Gesamtbevölkerung. Man kann sich vorstellen, daß sich eine Gesellschaftsform realisieren läßt, in der das biblische Prinzip von der Pflicht zur Arbeit nicht gilt. Wenn das Streben nach wirtschaftlichem Wachstum als höchstes Prinzip aufgegeben wird und statt dessen die Aufmerksamkeit auf die gerechtere Verteilung des Sozialproduktes gerichtet wird, könnte in den Industrieländern die Zahl der Arbeitsplätze bei mindestens gleichbleibender Produktion (und erhöhter Produktivität) zurückgehen. Spätestens dann ist es an der Zeit, das Nichtarbeiten respektabel zu machen und soziale Sicherheit nicht an Scheinarbeitsplätze zu knüpfen, sondern durch – mit der Produktivität steigende – Mindesteinkommen zu gewährleisten. Es steht zu hoffen, daß die so für die Selbstverfügung gewonnene Zeit nicht allein in der Weise verwendet wird, daß der damit reduzierte Berufsverkehr durch – allerdings diffuseren – Freizeitverkehr substituiert wird.
V. Maxime Die unter IV. skizzierten Alternativen sind « reine Strategien », das heißt zum großen Teil miteinander verträgliche Möglichkeiten, die verbunden werden können. Sie sollen ein Feld der Erörterung darstellen, in dem sich eine langfristige Politik aushandeln läßt. Diese Aushandlung wird nicht ohne Leidenschaft und Engagement bleiben, denn jeder ist betroffen. Sie wird ungewöhnliche Fronten aufreißen und Koalitionen herbeiführen. Eine Politik, die etwa den öffentlichen Nahverkehr fördert und den individuellen Automobilgebrauch entmutigt, wird mit dem Beifall der ÖTV rechnen können, aber das Mißfallen von Automobilarbeitern und Autoindustrie, ADAC und Mineralölherstellern auf den Plan rufen. Schließlich bleibt noch als letzte « Richtlinie » für die Entwicklung einer langfristigen Politik für den Berufsverkehr aufzuführen, daß sie Vorsorge für eine große Diversität der Lebensstile und deren friedliche Koexistenz treffen sollte.
318 SPEZIELLE P ROBLEME
Ihr Leitprinzip sollte es sein, « … daß eine jede Handlung recht (ist), die oder nach deren Maxime die Freiheit der Willkür eines jeden mit jedermanns Freiheit nach einem allgemeinen Gesetze zusammen bestehen kann ».25
1 Zur Materie solcher «bösartigen Probleme» vgl.: II. W. J. Rittel; M. M. Webber; «Dilemmas in a General Theory of Planning»,** Institute of Urban and Regional Development, University of California, Berkeley, CA, 1972. 2 Zur Rolle verschiedener Weltansichten für das Problemverständnis vgl. II. Ritte!; «Zukunftsorientierte Raumordnung»,** in; K. Steinbuch (Hrsg.); «System 69», Stuttgart 1970, S. 174 ff. 3 Zur Einstellung der Deutschen zum Auto und dem Verkehr vgl. die SPIEGEL-Umfrage: «Der Deutsche und sein Auto», in: «DER SPIEGEL», Hamburg, Heft 25 (1971), S. 30–56. 4 S. W. Dyckmann: «Transportation in Cities», in: «Scientific American», New York, NY, 213 Nr. B, September 1967, S. 163–174. 5 Hinweise auf diesen Effekt im deutschen Kraftverkehr kann man einer Umfrage («SPIEGEL», vgl. Anm. 3) entnehmen, wonach zwei Drittel der Autofahrer den Nulltarif bejahen. Dieser Anteil wächst mit dem Einkommen. Da die Umfrage sonst keineswegs den Eindruck erweckt, als ob eine Mehrheit der Autofahrer den Nulltarif ausnutzen würde, darf man mutmaßen, daß eine Neigung besteht, ihn dem «anderen» zu gönnen. 6 Der «Mitläufer»-Effekt tritt nicht bei allen Formen sozialen Protests auf. Zum Beispiel Streiks und Boykotts sind immun gegen ihn, da sie auch die «anderen» benachteiligen. – Bei anderen Gütern als dem Verkehr kann auch die Konsumaskese wirksam sein. 7 A. Toffler; «Der Zukunftsschock», Bern/München/Wien 1970. 8 Ein Beispiel für die Analyse des Nahverkehrs mit den Augen eines Suburbanisten gibt L. L. Waters; «Free Transit: A Way out of Traffic Jams», in: G. M. Smerk; «Readings in Urban Transportation», BIoomington/London 1968, S. 139 ff. Jane Jacobs ist die prominente Stadtliebhaberin; sie schlägt Wege zur Reduktion der Autoflut vor. Jane Jacobs; «Time Turns for Transit», in: G. M. Smerk; vgl. Anm. 9, S. 202 ff. Sagisti/Ackoff sagen die fortgesetzte Dominanz des Individualverkehrs voraus und nehmen Suburbia als selbstverständliche Gegebenheit. F. Sagisti, R. L. Ackoff: «Possible and Likely Futures of Urban Trans portation», in: «Socio-Economic-Planning-Science», Elmsford, NY, Bd. 5 (1971), S. 413–428. 9 H. Rittel; «Zukunftsorientierte Raumordnung»,** in: K. Steinbuch (Hrsg.); vgl. Anm. 2. 10 «Veränderbar» soll hier meinen, daß jemand glaubt, etwas aktiv verändern zu können. Es soll unterschieden werden von «veränderlich», welches auch die Bedeutung einschließt, daß «sich» etwas ändert, ohne Eingriffe zu erfordern. Entwicklungen und als zwangsläufig angesehene Veränderungen sind in diesem Sinn «Invarianten». 11 Sagisti, Ackhoff, vgl. Anm. 9, S. 419. 12 Ein Beispiel hierfür: «Die Weiterentwicklung der Fahrzeuge zur Erhöhung der Fahrsicherheit, der Verminderung der Immission und Verbesserung der Fahrerentlastung wird dafür Sorge tragen, daß das Kraftfahrzeug im Individualverkehr auch künftig die Hauptlast des Personenverkehrs zu bewältigen imstande sein wird. Die Verbreitung besser angepaßter Infrastrukturen und Systeme zur Verkehrsregelung kommen diesem Trend entgegen.» Vgl. H. Seidenfuss; «Die Zukunft des Individualverkehrs», in: «Technik im Bild» (VDI-Nachrichten), 15. Dezember 1971. 13 Genauer sollte C als Summe der Kapazitäten für die verschiedenen Verkehrsmittel aufgeschrieben werden. Diese und die folgenden Faustregeln ergeben sich aus einfachen geometrischen Überlegungen, die hier nicht abgeleitet sind. 14 Es ist angenommen, daß die Ankünfte am Rand des Zentrums gleichmäßig über die Ankunftsspanne T verteilt sind und daß sie sich gleichmäßig über alle Arterien verteilen. 15 Auch hier werden wieder grobe Annahmen gemacht: Außer der Homogenität der räumlichen Verteilung von Bevölkerung wird eine kreisförmige Gestalt der Ballung und der Einzugsgebiete angenommen. Die Formel ergibt sich einfach als Produkt der mittleren Weglänge und der Zahl der Pendler.
GESELLSCHAFTLICHE ALTERNATIVEN IM B ERUFSVERKEHR 319
16 Da die Kapazität der öffentlichen Verkehrsmittel auf die Spitzenbelastungen ausgelegt wird, sind sie die meiste Zeit überdimensioniert und in den Spitzenzeiten unterdimensioniert. Die Tatsache, daß zum Beispiel die Personalkosten sich aus tariflichen Gründen nicht den Bedarfsvarianten anpassen lassen, hat viel zum Niedergang der öffentlichen Verkehrsmittel beigetragen. Siehe G. Ponsonby; «The Problem of the Peak, with Special Reference to Road Passenger Transport», in: G. M. Smerk, vgl. Anm. 9, S. 95 ff. 17 Es sollte darauf hingewiesen werden, daß die Kapazitätsausweitung nicht proportional der Geschwindig keit ist, da v auch im Nenner von (1) vorkommt. Der Grenzwert ist p/r. Also bei r = 2 sec und p = 1½ wird die Kapazität pro Autofahrbahn 2700 Personen/Stunde bei beliebig hoher Geschwindigkeit nicht überschritten (in obigem Beispiel waren es 2300 Personen bei 50 km/h). 18 Vgl. z. B. W. L. C. Wheaton; «Form and Structure of the Metropolitan Area», in: W. R. Ewald (Hrsg.); «Environment for Man», Bloomington/London 1967, S. 151 ff. 19 Bei dieser Wohndichte und unter der Voraussetzung, daß etwa ebensoviel Arbeitsfläche wie Wohnfläche gebraucht wird, ergibt sich eine 40stöckige Überbauung, die nur ein Fünftel des Landes bedeckt und den Rest als Freifläche beläßt. 20 D. W. Kean; «Humanistic Technology: A Contradiction in Terms?», in: «The Humanist», Buffalo, NY, Jan./Feb. 1972, S. 22 ff. 21 D. W. Kean, vgl. Anm. 20. 22 US-Census, 1960, Tabelle Nr. 525. 23 G. M. Smerk, vgl. Anm. 9. 24 Zu diesem Abschnitt vgl. Anm. 9: L. N. Moses; «Economics of Consumers Choice in Urban Transportation», in: G. M. Smerk, S. 162 ff. U. Waters; «Free Transit: A Way out of Traffic Jams», in: G. M. Smerk, S. 139 ff. W. S. Vickrey; «Pricing in Urban and Suburban Transit», in: G. M. Smerk, S. 120 ff. G. M. Smerk; «Subsidris for Urban Transports», in: G. M. Smerk, S. 133 ff. 25 I. Kant; «Einleitung in die Rechtslehre» (Akademieausgabe), Berlin, 1910 ff., S. 33.
*
Quelle: Aufgabe Zukunft, Qualität des Lebens; Beiträge zur vierten internationalen Arbeitstagung der I ndustriegewerkschaft Metall für die Bundesrepublik Deutschland vom 11. bis 14. April 1972 in Oberhausen; Band 3: Verkehr; Redaktion: Günter Friedrichs. Europäische Verlagsanstalt, Frankfurt am Main 1973, pp. 76–108. Der Text basiert auf einem Vortrag. ** Diese Beiträge sind in dem vorliegenden Buch abgedruckt.
320 SPEZIELLE P ROBLEME
Energie wird rar? Sachzwänge oder Der Krieg um die Köpfe*
1. Aus den Zukunftswerkstätten « Prophezeien? Prophezeien kann ungestraft jeder. Es genügt schon, daß man’s tut. Zu stimmen braucht nachher nichts, denn es blättert ja keiner zurück … Man sage in seherischem Tonfall dummes Zeug, und man wird eines gewissen Erfolges nicht entraten. » (Kurt Tucholsky, Schnipsel, 1932)
1.1 Die Lichter sind nicht ausgegangen Wenn es nach den Plänen von vor etwa 10 Jahren gegangen wäre, hätten wir heute rund 40 Kernkraftblöcke in der BRD. « Sonst gehen die Lichter aus », orakelte der ehemalige Ministerpräsident Filbinger von Baden-Württemberg, heute sind nur etwa 18 Blöcke in Betrieb, dank den Aktivitäten von umweltbesorgten Alternativen, Bürgerinitiativen und Gerichten. Die Lichter sind offenbar nicht verloschen.1 « Für Kernenergie, ohne Wenn und Aber! » sprach sich der bayerische Mini sterpräsident Strauß 1980 sehr bestimmt aus. « Ohne Kernenergie rücken wir an den Abgrund heran », meinte Otto Graf Lambsdorff. Die Liste solcher bestimmten, wenn nicht gar drohenden Bekundungen der Wirtschaft aus allen politischen Lagern und Gewerkschaften ist eindrucksvoll: Auch heute hört man sie noch, wenn auch seltener. 1986 ist der Ausstieg aus der Kernenergie salonfähiges Thema der energie politischen Agenda; man diskutiert sogar, wie und wann der Einstieg in den Ausstieg am besten zu bewerkstelligen ist. 1986 räumen selbst engagierte Proponenten dieser Energieform – RWE und VDEW – ein, daß selbst bei sofortigem Verzicht nicht automatisch die Lichter ausgehen.2 Allerdings müsse man dann mit gelegentlichen Blackouts rechnen, und der Strom müsse wesentlich teurer werden (die Angaben über das Ausmaß variieren beträchtlich), denn das dann vernichtete Kapital in den bestehenden und im Bau befindlichen Anlagen müsse schließlich bezahlt werden. Wir beobachten das bemerkenswerte Schicksal einer langfristig gemeinten Energiepolitik, die sich schon nach wenigen Jahren als gescheitert erweist. Planung zielt auf die Herbeiführung einer Zukunft mit erwünschten Eigenschaften. Dabei soll der Plan ohne unerwünschte, unvorhergesehene Neben- und Spätfolgen bleiben. Die Energieplanung hat nicht herbeigeführt, was sie erreichen sollte, nämlich den Ausbau der Kernenergie im damals für notwendig befundenen Umfang. Viele ihrer mannigfaltigen unvorhergesehenen Auswirkungen sind selbst für
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 321
die Planer unerwünscht. Hätte man das nicht vorher wissen können? Seit mehr als 20 Jahren hat es nicht an Warnungen gefehlt; alle heutigen Sorgen wurden von Robert Jungk und vielen anderen vorausgesehen und beschrieben. Das Fiasko ist um so erstaunlicher, als die Energieplanung von einem beispiellosen Aufgebot geballter Expertise erarbeitet wurde. Ihre Durchsetzung war das Resultat jahrzehntelanger intensiver politischer Prozesse. Ihre Vertreter waren sich der Richtigkeit, ja Notwendigkeit ihrer Politik so gewiß, daß Kritik gekränkt als verantwortungslos und subversiv abqualifiziert wurde. Die Argumentation über die Energiepolitik ist gesättigt. Eine ganze Bibliothek von Veröffentlichungen dokumentiert alle Standpunkte.3 Die Positionen sind bezogen; die Auseinandersetzungen gehen weiter. Aus der Presse kann man sich täglich über die Lage an der Energiefront unterrichten. Es erübrigt sich, hier abermals die Positionen und ihre Argumente zu entwik keln. Statt dessen möchte ich der unbehaglichen Frage nachgehen, wie es in einer technisch-wissenschaftlichen Welt zu einer so dramatischen Demonstration der Unzulänglichkeit menschlichen Strebens und der Unfähigkeit zum Umgang mit Zukunft kommen konnte. Diese Frage ist sehr akut, denn: • Energieprobleme sind mit vielen anderen Bereichen von Politik und Planung eng verflochten; sie können und sollten als Symptom und als Ursache anderer Probleme verstanden werden; • die Energieplanung ist das Symptom eines Planungsstils, der in vielen Bereichen Anwendung findet. Struktur- und Wirtschaftspolitik, Außen- und Rüstungspolitik, Umweltprobleme und soziale Lage, Stadt- und Verkehrsplanung, innere Sicherheit und damit die Wahrung der Grundrechte, Wissenschafts- und Technikplanung, Lebensstile und Sozialethiken beeinflussen die Energiesituation und hängen ihrerseits von ihr ab. Die heutige Situation zeigt reichliche Evidenz. Zersiedelung erzeugt Straßenverkehr und damit Treibstoffnachfrage; Uran-Nachschub kommt aus Südafrika; das Nebenprodukt Plutonium hat brisante militärische Anwendungen; die Wiederaufbereitungsanlage Wackersdorf verspricht Arbeitsplätze in einer strukturschwachen Region und bringt viel Stacheldraht, Proteste und Polizeimaßnahmen mit sich; jeder Ausbau der Kernenergie verschlechtert die Situation des Kohlebergbaus; jede Subventionsmilliarde für den Schnellen Brüter kann nicht für die Altersversorgung oder die Entwicklung alternativer Energiequellen verwendet werden; die Havarie von Tschernobyl hat beklemmend die katastrophalen grenzüberschreitenden Effekte menschlichen und technischen (also ebenfalls menschlichen) Versagens – einer Panne – auf einen Kontinent und seine Bewohner gezeigt … Daß es mit dem Planungsvermögen auch in anderen Bereichen nicht zum be sten steht, ist ebenso evident. Die Agrarpolitik der EG subventioniert P roduktionen,
322 SPEZIELLE P ROBLEME
deren Produkte nicht gebraucht werden. Die Arbeitslosigkeit hat sich auf ein chronisch hohes Niveau eingependelt. Die Entwicklungspolitik hat die Lage der mei sten Länder der Dritten Welt eher verschlechtert. Seveso, Bhopal, Basel zeigen, daß auch andere Großtechniken nicht gemeistert werden … Im folgenden wird die These diskutiert, daß eine allgemeine Krise des Planungsund Regiervermögens herrscht, was nicht mit dem vielbeklagten Schwund an Regier barkeit verwechselt werden sollte, womit die Aufmüpfigkeit von Bürgern gegen ihnen uneinsichtige obrigkeitliche Maßnahmen gemeint wird (etwa eine Volkszählung). Hier geht es um die Fähigkeiten der Planer, nicht um die Attitüden der Beplanten. Die Unfähigkeit zum Umgang mit der Zukunft ist erschreckend. Wie kommt das? Energiepolitik und -planung der letzten Jahre bieten hierfür ein Lehrstück.
1.2 Rückblick auf die Zukunft von gestern Vergleichen wir die Welt von 1986, wie sie sich in den Köpfen der Energieplaner damals (etwa zwischen 1970 und 1980) darstellte, mit der Welt, die sich heute manifestiert. Einige Schlaglichter mögen genügen. Der Energieabsatz ist weit hinter den Prognosen zurückgeblieben. 1973 wurde der Verbrauch an Primärenergie für das Jahr 1985 auf 612 Mio. t SKE (= Steinkohleeinheiten) prognostiziert. Nach der ersten Ölkrise wurde die Schätzung 1974 zunächst auf 555 Mio. t SKE, dann 1977 auf 496 Mio. t SKE zurückgenommen.4 Tatsächlich betrug er 1986 385 Mio. t SKE, nur unwesentlich mehr als 1973. Das Maximum wurde 1979 mit 412 Mio. t SKE erreicht. Ähnlich steht es mit den Zuwachsraten für elektrischen Stromabsatz. In den verschiedenen Enqueten wurden die angenommenen Zuwachsraten von 7,5 % (1970) allmählich zurückgenommen. Aber noch 1980 prognostizierte das RWE für die Zeit bis 1995 einen jährlichen Zuwachs von 4 %. Laut Statistik betrug der jähr liche Zuwachs von 1980 bis 1985 nur 1,8 %. Zur Zeit stagniert der Verbrauch. Energiesparen war wirksam. Das zeigt sich auf vielerlei Weisen – vor allem am Rückgang des Zuwachses des Gesamtverbrauches. Die grundsätzliche Knappheit von Ressourcen wie der fossilen Energieträger ist allgemein ins Bewußtsein gedrungen. Solarkollektoren, Wärmepumpen, kommunale Biogasanlagen, bessere Wärmedämmungen sind weit verbreitet. Auch Industrieprodukte sind effizienter geworden, denn Sparsamkeit des Verbrauchs ist werbewirksam. Kühlschränke sind besser isoliert. Vergleichbare Automodelle verbrauchen heute weniger als die Hälfte des Kraftstoffes im Vergleich zu ihren Vorgängern vor 10 Jahren. Daß es nicht sogar zu einem Rückgang des Gesamtverbrauches gekommen ist, ist durch zunehmende Motorisierung und Verkehrsleistung, aber auch durch den erneuten Drang zu größeren und stärkeren Autos erklärlich, der durch niedrige Ölpreise noch bestärkt wird. Obwohl der Ausbau der Kernkraftwerke um etwa die Hälfte hinter den Plänen zurückgeblieben ist – trotz gestiegenem Bruttosozialprodukt –, ist die Strom-
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 323
versorgung mehr als ausreichend. Die installierte Netto-Engpaßkapazität aller Kraftwerke in der BRD beträgt mehr als 90 Gigawatt, wozu die Kernkraftwerke etwa 20 % beisteuern. Die bisher größte Spitzenlast wäre mit etwa 60 Gigawatt abzudecken gewesen. Eine Überkapazität zwischen 25 und 50 % läßt sich behaupten (ein starkes Argument der Sofortaussteiger). Die Betreiber bestreiten dies: Man brauche die Überkapazität als Reserve für Störungen und andere Abschaltungen. Sind denn unsere KKWs nicht besonders zuverlässig? Ließen sich denn extreme Spitzenlasten und Ausfälle nicht über das europäische Verbundnetz abfangen? Die KKWs liefern einen überproportionalen Anteil, nämlich etwa ein Drittel des Stromes, da sie zur Deckung der Grundlast eingesetzt werden (KKWs erlauben kein rasches Herauf- oder Herunterfahren der Anlagen). Daß die Stromerzeuger Absatzsorgen haben, zeigt sich an ihrer Absatzpolitik. Noch immer gibt es degressive Sondertarife für Vielverbraucher. Die Fernwärme aus der Steckdose wird durch billigen Nachtstrom attraktiv gemacht. Elektrische Blockheizzentralen werden von Stromerzeugern finanziert und mit subventioniertem Strom beliefert: Riesige Tauchsieder erhitzen nachts Wasser etwa für die Raumheizung eines Schulzentrums5 – man begeht also die thermodynamische Sünde, die Edelenergie Strom in minderwertige Wärmeenergie umzuwandeln. Diese Investition sorgt für langfristige Bindung an diese Energieform. Dem zukünftigen Strombedarf wird somit unter die Arme gegriffen. Die Subventionen werden durch Umlage von den Normalverbrauchern bezahlt. Offenbar ist der Grundlastsockel zu hoch. Seine Absenkung wäre die wirksamste Methode zur Verminderung des Überschusses. Es gäbe noch viel zu erfinden, um die Technik der Energiespeicherung und -umwandlung zu verbessern (z. B. elektrolytische Wasserstoffherstellung). Bedauerlicherweise wird hierdurch der Teufelskreis mehr Kapazität, also höherer Verbrauch usw. nicht durchbrochen. Die Möglichkeiten zu rationellerer Energieausnutzung sind bei weitem nicht ausgeschöpft. Die wichtigste Reserve ist das große Potential immer noch vergeudeter Energie. Konsequente Weiterentwicklung der Kraft-Wärme-Kopplung, Ausbau der (thermischen!) Fernheizung, bessere Wirkungsgrade und – vor allem – die Verringerung des Heizungsaufwandes durch geeignete bauliche Maßnahmen könnten jene Absatzprognosen noch drastischer widerlegen – ohne Abstriche am Lebensstil. Soeben werden immer noch mehr als 40 % der Primärenergie, mehr als 50 % der Endenergie für Raumheizung und Warmwasser verwendet! Auch die Technik der Stromerzeugung ist nicht sehr elegant. Etwa 30 % der Primärenergie werden verströmt.6 Etwa 70 % davon (etwa 60 % bei modernen Verbrennungskraftwerken) heizen als ungenutzte Wärme die Flüsse oder die Atmosphäre; von der Edelenergie Strom werden schließlich 24 % für stromspezifische Anwendungen (Kraft, Licht, Kommunikation) verbraucht. Der Löwenanteil dient der Wärmeerzeugung. Obendrein: Auch Glühbirnen und Elektromotoren haben keinen sehr hohen Wirkungsgrad.
324 SPEZIELLE P ROBLEME
Es fehlt nicht an eindrucksvollen Beispielen und diskutablen Vorschlägen für eine Politik, die der Vergeudung weiter entgegenwirkt.7 Energieschonende Maßnahmen werden zur profitablen Wachstumsbranche – selbst Stromerzeuger (in den USA) betätigen sich auf diesem Markt. Diese Möglichkeiten blieben bei den Planungen außer Betracht, wurden zu niedrig angesetzt oder als Kalorienfuchserei verspottet. Die alternativen Formen der Energiegewinnung können einen Beitrag zur Versorgung liefern – entgegen den Behauptungen jener Energieplaner. Sonneneinstrahlung, Wind, Erdwärme, Biogas sind reiche Quellen, vor allem, wenn sie auf die lokalen Verhältnisse zugeschnitten eingesetzt werden.8 Auch in Skandinavien gibt es fast energie-autonome Solarhäuser (einen kleinen Diesel-Generator braucht man schon gelegentlich); manche Gemeinde wird von ihrer sauberen Müllverbrennung beheizt, und dänische Windkraftwerke liefern preiswert Strom. Natürlich eignet sich nicht jede dieser Möglichkeiten zur global anwendbaren, zentralistischen Großtechnik. Warum auch? Viel Kleinvieh macht auch Mist. Die nicht ohne Genugtuung vermerkte Stillegung der Großwindanlage GROWIAN wegen Unzuverlässigkeit und hoher Kosten (« Wir haben es ja gleich gesagt ») liefert kein Argument. Die Windfarm Altamont in Kalifornien liefert mit Hunderten von kleineren Windturbinen Strom für 100 000 Haushalte. Die Kerntechnik bietet keine ausgereifte, langfristige Zukunftslösung – trotz der Bekundungen ihrer Advokaten. Die Kernkraftwerke wurden in der Gewißheit projektiert, daß sich Zwischen- und Endlagerung sowie die Wiederaufbereitung des Brennstoffes schon rechtzeitig lösen lassen würden. Diese Hoffnung hat getrogen. Es gibt keine technisch und wirtschaftlich vertretbaren Lösungen, die auch für die Umwohner der Anlagen zumutbar sind: Die Entsorgungstechnik ist eine sehr gefährliche und schmutzige Technik. Das gleiche gilt für Brennelementefabriken und Wiederaufbereitungsanlagen. Ein weiteres Subsystem im versprochenen ewigen Kreislauf von Uran und Plutonium ist der Schnelle Brüter. Sein Ziehvater behauptete 1976: « The fast breeder has achieved a high degree of maturity and is now developed on an almost commercial scale. »9 Alle Erfahrungen (etwa mit Superphénix in Frankreich) zeigen, daß diese Behauptungen bis heute nicht zu erhärten sind: Technische Probleme, Kostenexplosion, Ärger mit den Folgeeinrichtungen (WAA) sind die Regel. Die anfänglich auf 1 Mrd. DM geschätzten Baukosten für den Schnellen Brüter in Kalkar betragen inzwischen mehr als 7 Mrd. DM, mindestens weitere 1,5 Mrd. DM sind erforderlich. Es gilt als fraglich, ob diese Anlage jemals Strom liefert und ob sie jemals effektiv Spaltstoff brüten wird. Seit staatliche Subventionslust sich abgekühlt hat, verliert auch die Industrie die Lust an diesem Objekt. Wenn aber der Spaltstoffkreislauf nicht funktioniert, wird die schöne Vorstellung von der praktisch unbegrenzten Verfügbarkeit der Kernenergie in der Plutoniumwirtschaft hinfällig.
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 325
Auch die Abrißprobleme der KKWs (Lebensdauer 20 Jahre) blieben bei der Planung außer Betracht: KKW Niederaichbach, das 1974 (Baukosten von 230 Mio. DM) schon nach 18 Tagen Dienst wegen ständiger Störfälle stillgelegt wurde, soll für 100 Mio. DM abgerissen werden; der Verbleib der strahlenden Trümmer ist un geklärt.10 Kernkraft ist weder sicher noch umweltschonend – entgegen den dama ligen Planungsannahmen. Seit Tschernobyl haben viele Millionen von Europäern traumatische Erfahrungen. Russische Schlamperei? Veraltete Technik? Bei uns könne das nicht passieren? Noch 1985 verlautete der Bundes-Innenminister, daß Kernkraftwerke « sicher und zuverlässig » sind,11 denn keines der 1984 registrierten « Vorkommnisse » könne als Störfall bezeichnet werden. Nach Tschernobyl verlautete aus dem gleichen Ministerium, daß es von 1982 bis 1984 in den Kernkraftwerken der BRD 666 gemeldete Störfälle gegeben habe, wobei 64 mal schnell abgeschaltet wurde; 216 beruhten auf Bauteildefekten, 152 auf Bedienungsfehlern, 64 auf ungeklärten Ursachen; ein Fall machte sofortige behördliche Untersuchung notwendig, 107 waren durch Ausfälle im Sicherheitssystem verursacht …12 Weitere Evidenz für die verfehlte Energiepolitik findet sich fast täglich in der Zeitung: Die Kernenergie ist teuer … Sie ist anfällig gegen Sabotage und Schlamperei … Bestechung und Korruption in den Überwachungsorganen … mußte wegen eines Lecks abgeschaltet werden. Die Selbstgewißheit jener Planer, eine Energiepolitik durchzusetzen, die sich hauptsächlich auf eine unerprobte, sicher nicht ausgereifte Technik stützt, ist bewundernswert.
1.3 Drehbücher des Fortschritts Wie konnte es schon über eine so kurze Zeitspanne zu derartig drastischen Fehleinschätzungen zukünftiger Entwicklungen kommen? Werfen wir einen Blick auf die theoretischen Grundlagen jener Planungen. Seit Anfang der siebziger Jahre gibt es eine Bewegung unter den Fachleuten, welche sich der Sorge um den Fortbestand und den Fortschritt der Welt widmen. Aus dem Gefühl der Verantwortung, begabt mit dem Wissen darüber, was die Menschheit braucht und was ihr frommt, schauen sie tief in die Zukunft, um zu ergründen, wie es mit dem Raumschiff Erde weitergeht. Ihre Denkprodukte nennt man Szenarios (zu deutsch: Drehbücher) über denkbare, zu erwartende, zu vermeidende, unentrinnbare Zukünfte, oft versehen mit einer Moral, was daraus für die verantwortliche Politik heute folgt. Szenarios werden wissenschaftlich mit interdisziplinärer Sachkenntnis erarbeitet; man entwickelt ein Modell von der Mechanik des Weltgeschehens und läßt einen Computer durchspielen, welche Zukünfte sich aus den Grundannahmen ergeben. Diese Denkprodukte genossen viel öffentliche Aufmerksamkeit, und Politiker glaubten sich wohlberaten, sie zu expliziten Bezugsgrößen der Politik zu machen.
326 SPEZIELLE P ROBLEME
Zu den einflußreichsten bedrohlichen Szenarios gehörten die des Club of Rome.13 Sie haben viel dazu beigetragen, daß die langfristigen Probleme der Ressourcenverknappung und der Umweltgefährdung auch in Europa auf die Agenden kamen. Düster, wenn auch Raum für Hoffnung lassend, sofern nur die Menschheit sich rasch der Einsicht in die Notwendigkeit beuge und die erforderlichen Maßnahmen implementiere, waren die Energie-Szenarios des International Institute for Advanced Systems Analysis (IIASA) in Wien, einer internationalen Einrichtung, in der amerikanische, russische und andere Experten sich gemeinsam die Köpfe über die Zukunft zerbrechen. Verantwortlich für Energiebedarfsstudien war Wolf Häfele (welcher auch der Planer des Schnellen Brüters in Kalkar ist). Diese Systemanalysen sind als Häfele-Szenarios bekannt geworden. Sie gehören zu den einflußreichsten Entscheidungsgrundlagen der Energiepolitik des letzten Jahrzehnts, vor allem in der BRD.14 Deshalb empfiehlt sich ein Blick auf ihre Logik. Objekt ist die globale Energieversorgung: Das Zieljahr ist 2030. Die Menschheit wird sich verdoppelt haben; die Erdölreserven erschöpfen sich. Wirtschaftliches Wachstum, gemessen durch das Bruttosozialprodukt (BSP), ist die Voraussetzung für das Wohlergehen der Menschen – auch in bereits entwickelten Ländern. Wirtschaftswachstum sei zwangsläufig an den Energiekonsum gekoppelt: Etwa 0,4 kg SKE pro DM BSP pro Jahr. Entwicklungspolitik zielt auf Verbesserung der Lebensbedingungen, müsse also auf Wachstum der Energieerzeugung gerichtet sein. Während 1975 in den USA 12 kW/Kopf an Primärenergie verbraucht werden, sind es z. B. in Afrika lediglich 0,5 kW/Kopf. Im Interesse langfristiger Gerechtigkeit gelte es somit, einen riesigen Nachholbedarf für die Weltenergieerzeugung zu befriedigen, während die Reichen immer noch ein bißchen wachsen. Es wird angenommen, daß die Wachstumsraten der entwickelten Länder bis zur Jahrtausendwende nur 3 %, danach 1 % – also praktisch Nullwachstum (!) – ausmachen, während sie in den Entwicklungsländern wesentlich höher liegen sollen. Unter Berücksichtigung des Bevölkerungswachstums kommt man so für die USA auf 18 kW/Kopf, für Europa auf 12 kW/Kopf, für Afrika und Indien auf 1,9 kW/Kopf. Global wird der Weltbedarf an Primärenergie von 8 Mrd. kW (1975) auf – realistisch gesehen – 22,4 bis 35,7 Mrd. kW (2030) steigen. Kurz: Der globale Energiebedarf wird sich bis 2030 verdrei- bis vervierfachen! Was daraus für die BRD folgt, läßt sich anteilig zurückrechnen. Es wird ferner angenommen, daß nur 25 % des Weltbedarfes durch elektrische Energie gedeckt werden, die nuklear erzeugt wird. Das entspricht 5000 Leichtwasserreaktoren vom Typ Biblis (soeben gibt es etwa 500). Also müssen wir sogleich anfangen, 100 KKWs pro Jahr zu projektieren, denn die Zeit für Planung und Bau eines KKW beträgt mindestens 10 Jahre! Es müssen also spätestens nach 10 Jahren ständig 1000 KKWs im Bau sein. Nach ungefähr 20 Jahren müssen es doppelt so viele sein, da die wirtschaftliche Lebensdauer eines KKW etwa 20 Jahre beträgt. Als Infrastruktur werden 50 Brennelemente-Fabriken gebraucht, 50 Wiederaufbereitungs-
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 327
anlagen vom Typ Wackersdorf und 50 Endlager – die man am besten weitab ansiedelt, z. B. in der Sahara. Soziale Unruhen seien ja nicht auszuschließen. Das alles braucht gewaltige Kapital-Investitionen. 40 Billionen US$ bei Preisen von 1975! Der Buchwert aller heute existierenden Industrieanlagen betrage 10 Billionen US$. Woher soll dieses Kapital kommen? Im Interesse der Steigerung des Wohlstandes muß die Menschheit ihren Konsum einschränken. Um die Stromver sorgung zu finanzieren, muß die Menschheit (auch die in der Dritten Welt) 10 bis 25 % (jeder Tag Verzögerung macht es teurer!) ihres Einkommens in die Kern-Energie versorgung investieren. Außerdem braucht man sehr viel spaltbares Uran. Bei vertretbaren P reisen reichen die bekannten Vorräte bis etwa 2020. Was dann? Bis dahin wird die Technik der Schnellen Brüter eingeführt sein müssen, damit der dann verfügbare Spaltstoff immer wieder zirkulieren kann. Das braucht natürlich einige weitere Investitionen. Diese Strategie soll das elektrische Viertel des antizipierten Energiebedarfs abdecken. Die IIASA-Szenarios lassen es offen, wie die obendrein benötigte (im Vergleich zu 1975) vervierfachte Nachfrage nach Kohle sowie der um 50 % steigende Bedarf an Erdöl finanziert und gedeckt werden soll. Die global vernetzte Energieversorgung setzt große Konzentration und Zen tralisierung der Einrichtungen und ihrer Verwaltung voraus. Damit wird das System anfällig gegen Sabotage und menschliches Versagen. Es ist eine Jahrhundertaufgabe sozialer Technologie, wie der Objektschutz dieser Anlagen und ihr verantwortliches Management sowie verantwortungsbewußte Attitüden der Bürger gewährleistet werden können. Braucht es nicht einen neuen Menschen, der die Bürde des Fortschrittes und seiner Verteidigung gegen Anarchie, Kulturpessimismus, Ignoranz und irregeleitete Weltverbesserei zu tragen vermag – und sei es unter dem Opfer des zeitweiligen Verzichtes auf die volle Ausschöpfung seiner Bürgerrechte? Und nach 2030? Dann ist eine neue, exponentiell gewachsene Anzahl von Kernkraftwerken fällig. Etwa 10 000 Stück. Und so weiter, und so weiter. Welch eine Zukunft! Diese Systemanalysen wurden mit hohem wissenschaftlichem Anspruch und un geheurem Aufgebot an Sachkompetenz erarbeitet. An der jüngsten Version haben über 100 Wissenschaftler mitgewirkt. Unmengen von Daten wurden in Computer-Modelle mit Tausenden von Variablen gefüttert, um alternative Zukünfte durchzuspielen. Diese Vision hat bei Regierungen und – naturgemäß! – bei den einschlägigen Industrien geneigte Ohren und tatkräftige Unterstützung gefunden. Sie wurde zur vorherrschenden Denkweise und zur Grundlage der Energieplanung – trotz aller Warnungen und Kritiken. Es gab ja gar keine andere Möglichkeit. Wer könnte sich den mit klarer Logik ermittelten Sachzwängen entziehen? Die Ergebnisse: Milliarden fehlgeleiteter Subventionen, ein paar ungeliebte KKWs, Umweltprobleme, Sorgen mit der Entsorgung, aber auch der Hamburger Kessel und die Schlachten um Wackersdorf.
328 SPEZIELLE P ROBLEME
Ein Nachruf: 1984 veröffentlichten zwei Wissenschaftler, der Schwede Bill Keepin und der Brite Bryan Wynne, ihre akribische Analyse der Methodik der IIASASystemanalyse.15 Nur einige ihrer Befunde: « Die Szenarien sind – entgegen der Behauptungen ihrer Robustheit – bei kleinen Ände rungen wichtiger Eingabedaten instabil. … die Computermodelle reproduzieren im wesentlichen die informell vorgeschrie benen Eingabedaten … welche unverändert durch die Modellrechnung hindurchlaufen. … den Autoren gelang es, (viele Ergebnisse) ohne das ganze hochkomplizierte Programm in simplen Rechnungen mit Papier und Bleistift mit ausgezeichneter Genauig keit zu reproduzieren. … beruht die … behauptete hervorragende Bedeutung des Schnellen Brüters auf einem recht künstlich eingeführten, winzigen Kostenvorteil. … die Möglichkeiten, den Energieverbrauch einzuschränken, weitgehend ignoriert wurden. … (Schlußfolgerungen) beruhen letztlich auf unzulänglichen subjektiven Urteilen und nicht auf der Anwendung der mathematischen Modelle. »
1.4 Wird Energie rar? Natürlich. Sonst gäbe es keine Energiewirtschaft. Denn Wirtschaften regelt bekanntlich den Umgang mit knappen Gütern. Die Ressource Energie ist in mannigfachen Formen im Überfluß vorhanden. Die Frage ist, wieviel, in welcher Form und Menge, wo, von wem sie in Nutzenergie transformiert und genutzt wird.
2. Zukunftsschmiede – wer sind sie? « Wie die Leute auf diesem verfluchten Schiff, werden sie (die Menschen) von Kapitänen gelenkt, die weder Karten noch Kompasse haben und die von Minute zu Minute sich kei nen Problemen stellen, als denen ihrer Selbstdarstellung. » (Kurt Vonnegut, Galapagos, 1987, Süddeutsche Zeitung, 1./5.7. 87, S. 4)
Oben wurde behauptet, daß die mißratene Energieplanung ein Fall einer allgemeinen Schwäche des Planungsvermögens ist. Die Suche nach Ursachen für die massiven Pannen führt zu den Fragen: Wer sind die Designer der Zukunft? Was sind ihre Absichten? Welche Vorstellungen und Denkweisen liegen den Planungen zugrunde?
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 329
2.1 Planung als nautische Aufgabe Wie beschreibt man am besten die Akteure, welche das Design der Zukunft für uns alle betreiben? Gemäß einer verbreiteten Vorstellung sind es zweckrationale Gebilde, wie sie seit Max Weber heißen. Ob Regierung, Firma, Behörde oder multinationaler Konzern: In diesem Verständnis handelt es sich um Institutionen, die einen Zweck erfüllen und die so ausgelegt sind, daß dieser Zweck zielstrebig verfolgt wird (z. B. Profitmaximierung, Sicherung der Elektrizitätsversorgung, Verteidigung des Abend landes usw.). Wir sehen Systeme von Leuten, Einrichtungen, Ressourcen und Regeln, die sich im Hinblick auf diese Zwecke verläßlich durch die Zeitläufe steuern lassen. Seit Plato16 sind zur Beschreibung dieser Gebilde nautische Metaphern außer ordentlich beliebt. Man spricht vom Staatsschiff, von Wirtschaftskapitänen, vom Lotsen, der das sinkende Schiff verläßt, von dem Ruder, an das man kommt und das in eine starke Hand genommen werden muß. Auch das Raumschiff Erde, das dringend der Globalsteuerung bedarf, paßt in dieses Bild. Die Institution wird als Vehikel verstanden, das von seiner K ommandobrücke aus gesteuert wird, auf der kühle, rationale Lenker den besten Kurs ermitteln und die Ruder stellen. Auf der Brücke steht der Kapitän, umgeben von Offizieren. Die auf der Brücke erfüllen sachlich und ingenieurartig ihre kybernetische Steuerungsaufgabe, nämlich das Richtige im Hinblick auf die Mission und auf das Wohl des Schiffes (und seiner Mannschaft) zu tun. Vielerlei Instrumente auf der B rücke zeigen die Zustände der wesentlichen Variablen des Gesamtsystems an. Diese sind aus einer Unzahl lokaler Meßwerte aggregiert und beschreiben das Wohlbefinden des Schiffes und den Zustand seiner Umgebung. Durch den Maschinen telegraphen werden steuernde Maßnahmen in die Hierarchie der Regelkreise eingespeist, deren Zusammenspiel ein verläßliches Gesamtverhalten garantiert. Die loyale Crew betätigt die Effektoren nach Maßgabe der Steuersignale und meldet Auffälliges nach oben. Bei ruhiger See darf der Kybernet schon einmal den Autopiloten einstellen und etwas Golf spielen gehen. Auf manchen Schiffen wählt die Crew den Kapitän: Im Prinzip darf dort jeder mal auf die Brücke. Anderswo wird er vom Admiral ernannt. Planung ist die Festlegung der Route – im Zusammenspiel mit anderen oder auch in Konkurrenz zu anderen zweckrationalen Systemen. Gelegentlich gibt es auch eine Seeschlacht. Ein guter Kybernet trägt seine schwere Verantwortung leidenschaftslos und nüchtern. Im Idealfall ist er puritanischer Verantwortungsethik (im Gegensatz zur Gesinnungsethik) verpflichtet; ein Asket, der entsagungsvoll die Bürde weitsichtiger Verantwortung für das Ganze als auferlegtes Schicksal trägt. Wie erwirbt man diese Fähigkeiten? Nun, es wächst der Mensch mit seinen höheren Zwecken, und wem Gott ein Amt gibt, dem gibt er auch die Kraft, es zu ver-
330 SPEZIELLE P ROBLEME
walten. Die Person wachse in ihre Rolle hinein. Herkunft, Ausbildung, Milieu und Erfahrung und – vor allem – Charakterstärke gelten als Determinanten für die Befähigung zum Kapitänspatent.
2.2 Neofeudalismus? Dieses ordentliche Modell des Planens und Regierens ist nur schwer mit den Beobachtungen tagtäglichen Geschehens in Einklang zu bringen. Der Rückblick auf die Energiepolitik bietet keineswegs das überzeugende Bild zweckrationalen Waltens in einer technisch-wissenschaftlichen Welt, in der kühle und weitsichtige Vernunft regiert. In den Auseinandersetzungen über die Energiezukunft der BRD bemerkt man eine wundersame Harmonie zwischen den Interessen der Akteure und dem jeweils behaupteten Wohl der Menschheit. Wer Kernkraftwerke verkauft, ist vor Tschernobyl kaum je mit dem Argument ertappt worden, daß sie nicht die universell beste Antwort auf das langfristige Energieproblem sind. Die Geschichte des Schnellen Brüters liest sich besonders spannend.17 Sie erscheint als verstricktes Drama, in dem selbstbewußte, mächtige und/oder charismatische Akteure mit ihrem Troß von Experten ihren Casus im Verein mit Bürokraten durchzusetzen versuchen. Manch ein Akteur wird zornig, droht etwa mit Abschaltungen, falls seine Vorstellungen sich nicht durchsetzen. What is good for General Motors is good for America – eine alte amerikanische Volksweisheit – kommt in den Sinn. In anderen Planungsbereichen zeigt sich dieser Stil noch deutlicher. Schon seit Watergate, noch drastischer seit der Ära des Reaganismus, dann auch hier mit der Wende nimmt man eine eindrucksvolle Offenheit wahr, mit der zahlreiche Machthaber der verschiedensten Couleur und Funktion ihre Macht ausüben. Wenn eine Großmacht ankündigt, daß sie die ihr mißliebige, obschon gewählte Regierung eines kleinen Landes durch militärische Subversion zu destabilisieren gedenkt, und das dann auch versucht, ist dies kaum verantwortungsethisch zu rechtfertigen, sondern höchstens als ethikfreies Machthandeln zu begreifen. Der Zweck heiligt die Mittel. Man ist versucht, diese Herrschaftspraxis in weiten Bereichen als renaissanceartigen Neofeudalismus zu charakterisieren, weil sie am treffendsten in machiavellischen Kategorien beschrieben wird. Herrschen ist die Kunst, die Macht zu mehren und sie zu behalten. Geschichte ist das Produkt von Titanenkämpfen. Besonders eindrucksvoll ist die Dynamik des Wirtschaftsgeschehens z. B. soeben in den USA. Machthaber gerieren sich ungeniert als Souveräne; Konzerne versuchen sich gegenseitig zu übernehmen, wobei sie sich gelegentlich übernehmen: Pech gehabt. Die Unterlegenen verschwinden im Orkus. Die herrschende Moral ist die Moral der Herrschenden. Rambo, James Bond und Dallas kennzeichnen den
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 331
Betriebsstil. Diese Attitüde wirkt sich bis in die Architektur aus: Prächtige postmoderne Trutzburgen in New York, Frankfurt und Hongkong zeugen vom Condottiere-Geist und dem Mäzenatentum ihrer Herren. Vergangen sind die Zeiten, in denen der Kapitalist selbstgenügsam seine Bürde trug, wo spartanische Zweckbauten sein puritanisches Rollenverständnis zum Ausdruck brachten. War das nicht schon immer so? Vermutlich? Neu sei lediglich der frappante Verzicht auf Tarnung? Ich glaube nicht, daß dieses Bild viel zum Verständnis zeitgenössischer Planungspraxis helfen kann. Es ist zu einfach: Es beruht auf der Annahme von Renaissance-Heroen, die je ihr verläßliches zweckrationales System, ihren Apparat, zur Verfügung haben, welchen sie zur Mehrung ihrer Machtfülle einsetzen. Gibt es diese verläßlichen Apparate? Die zahlreichen Skandale der letzten Zeit (Watergate, Neue Heimat, Flick, Irangate …) offenbaren besonders dramatisch, daß Schaltstellen der Macht keineswegs immer fest in der Hand eines Salomo, Napoleon oder Iacocca liegen. Getümmel, Gezänk, Intrige und Schlimmeres in den Kulissen der Weltbühne zeigen einen Abgrund ganz ordinärer Menschlichkeit. Das Design der Zukunft ist nicht das Ergebnis eines Ringens zwischen kraftstrotzenden, gebildeten, aber eiskalten listigen Heroen – auch wenn sich mancher Akteur so geriert. Das feudale Gehabe ist vielleicht nur eine Verkleidung. Wir brauchen ein feinkörnigeres Bild.
2.3 Voilà un homme 1986 wurde der Amerikaner James Buchanan mit dem Nobelpreis für Wirtschaftswissenschaften ausgezeichnet. Er hatte sich seit Jahrzehnten damit beschäftigt, wie man durch geeignete Regeln höhere Markttransparenz erreichen kann, die bessere Steuerung erlaubt. Der Kern seiner Befunde ist die Beobachtung, daß das Bilder buchidyll von einer wohlwollenden Regierung in Washington, die – beraten von weisen und selbstlosen Harvard-Professoren – weitsichtig und gerecht im Interesse des Gemeinwohls wirkt, unzutreffend ist. Dieses Bild tauge nicht, um Regierungsver halten zu beschreiben. Marktmechanismen beherrschen auch die Politik. Profaner: Mit dem Mandat überkommt einen Politiker nicht automatisch der reine Altruismus. Politiker wollen wiedergewählt werden. Dazu brauchen sie Erfolg in den Augen ihrer Wähler: « Politicians are motivated not by the public good but by the need to please constituents to stay in office. »18 Die nahe Wiederwahl liegt ihnen folglich näher am Herzen und auf der Seele als das langfristige Wohlergehen der Nation oder die Zukunft der Menschheit. Buchanans Idee « … is little more than the insight that politicians and bureaucrats are ordinary people just like the rest of us ».19 So banal diese Einsicht erscheint, so irritierend ist sie für die Theorie des Planens. Es liegt auf der Hand, sie nicht auf die Politik zu beschränken, sondern auch
332 SPEZIELLE P ROBLEME
auf das planende Handeln in den Steuerstellen von Verwaltung und Wirtschaft zu verallgemeinern. Die akute Zukunft reicht bis zur nächsten Beförderung oder bis zur nächsten Aufsichtsratssitzung.20 Im Hinblick auf dieses Nahziel mag ein Argu ment im Hinblick auf längerfristige Perspektiven dienlich sein. Bei Charismatikern und Sehern ist es umgekehrt: Was sie als Argument vorbringen, läßt die akute Zukunft als Schritt auf dem langen Weg in ihr gelobtes Land erscheinen. Unter diesen Umständen wird das zweckrationale Modell untauglich. « Die Hohe Politik ist genau so, wie sie Klein-Moritz sich vorstellt », behauptete schon Karl Kraus. Machtverweser sind auch Leute. Um zu deuten, wie Planung und Politik funktionieren: Cherchez l’homme! An den Schaltstellen der Macht sitzen Leute wie Du und ich – mit ähnlichen Schwächen, aber auch unseren gelegentlich nobleren Anwandlungen. Dieser Standpunkt steht im Gegensatz zu einem Dezisionismus, wonach Geschehen und Geschichte das Produkt einsamer Entscheidungen großer Persönlichkeiten (gewöhnlich Männer) sind, die mit List und Charisma die Geschicke lenken. Die Humanisierung des Machthandelns, von der hier die Rede ist, setzt gerade nicht voraus, daß Machtverweser besonders begnadete Heroen sind.
2.4 Das allegorische Welttheater In diesem Bild wird die Welt nicht einfacher. Wir sind es nämlich gewohnt, das Geschehen als Interaktion zwischen abstrakten Mächten, Kräften und Akteuren zu verstehen. Abstracta wie der Verbraucher, die Grünen, der Staat, Siemens, die Russen, sogar die Gesellschaft, der Fortschritt, die Technik werden gern gewissermaßen als die handelnden Akteure auf der Bühne des Welttheaters gesehen. Es sind Alle gorien, quasi Personifizierungen von Gruppen, Institutionen oder Kräften – vergleichbar mit John Bull oder der Gerechtigkeit (mit verbundenen Augen und der Waage in der Hand). Diese Akteure haben ihre spezifische, recht konstante Wesensart und benehmen sich somit verhältnismäßig konsistent und voraussagbar, oft zweckrational und selten emotional. Grund für diesen Usus der Allegorisierung ist das Bedürfnis zur Vereinfachung der Welt, nach kognitiver Ökonomie, um sie halbwegs plausibel verstehen zu können. Einem Theaterstück, in dem mehr als ein halbes Dutzend Hauptdarsteller mitmachen, kann man nicht folgen. Ebenso ist es mit einem Phänomen wie Wackersdorf. Da sind der Strauß (eine one-man institution!), Bonn, die Demonstranten, die Betreiber, die Polizei, die Grünen, die Bauern, welche mit- und gegeneinander das Drama gestal ten. Zudem erlaubt diese Abstraktion, alle, auf die ein solches Etikett paßt, über einen Kamm zu scheren, z. B. zu verteufeln. Auch das macht das Leben leichter: Man will ja schließlich wissen, wem man die Daumen drücken soll und wem nicht. Dieses allegorisierte Verständnis von Geschehen hat einen gewichtigen Nachteil: Allegorien kann man nicht belangen; man kann nicht mit ihnen argu-
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 333
mentieren; man kann sie nicht anfassen. Die Gesellschaft mag morbide sein, die Technik verrucht. Aber wo sind deren Ansprechpartner? Allegorisierung frustriert, trübt den Blick. Sie behindert das Verständnis der Planungsvorgänge. Cherchez l’homme. Bei näherem Zusehen lassen sich gewöhnlich Personen finden, welche eine Machtverweser-Funktion innehaben, ihr zuarbeiten, sich von ihr abgrenzen oder auch gegen sie opponieren.
2.5 Aus der Planungspathologie Wenn man die Maxime « Auch Machtverweser sind Leute » akzeptiert, wird der ganze Reichtum menschlicher Fallibilität für die plausible Deutung von Planungspannen und seltsamen Formen institutionellen Verhaltens verfügbar. Dies mögen einige typische Fälle aus dem planungspathologischen Kabinett verdeutlichen.21 Da gibt es die Trendgläubigkeit: Bei allem Selbst- und Machtbewußtsein fragt sich der Akteur: Wo geht es hin? Er hebt den angefeuchteten Finger in den Wind und bestimmt so den Trend, an den er sich dann anschließt. Man müsse schließlich mit der Zeit gehen, die jüngste Entwicklung mitmachen, mit den Wölfen heulen. Jeder möchte auf den bandwagon. Das führt zu absurden Situationen, wenn diese Einstellung zur allgemeinen Gewohnheit wird, es keinen allgemein anerkannten trendsetter gibt und jeder – wie die Lemminge – dem andern nachläuft.22 Wenn jeder glaubt, daß eine Krise kommt, gibt es eine. Analog: Eine Wende. Liebe Gewohnheiten: Jahrelanger Erfolgstrott läßt die Fähigkeit zu kritischer Selbstbeobachtung, zum Umlernen, zu alertem Krisenmanagement verkümmern. Man wurstelt zufrieden vor sich hin und verschläft den Wandel der Zeiten. Dieses Verhalten geht häufig Hand in Hand mit der Neophobie. Alles Neue ist bedrohlich. Mikrocomputer? Windmühlen? Photovoltaik? Das sind Spielzeuge, sagte der Indu strielle, verpaßte den Anschluß und verlor weitere Märkte. Auch die Vogel-Strauß-Attitüde ist nahe verwandt: Dräuende Anzeichen werden nicht wahrgenommen oder weggeleugnet, der Propaganda finsterer Kräfte zugeschrieben, als vorübergehende Störphänomene deklariert. Das Waldsterben gibt es nicht. Chronische strukturelle Arbeitslosigkeit? Das darf es, kann es gar nicht geben: Wer hier wirklich arbeiten will, findet auch Arbeit. Antizipationsangst und notorische Kurzsichtigkeit: Die Zukunft ist unheimlich. Man spürt dumpfes Unbehagen, daß es auf längere Sicht nicht so weitergeht wie bislang, und verdrängt diese Einsicht. Jeder weiß, daß jede Größe mit positiver Zuwachsrate exponentiell über alle Grenzen wächst. Trotzdem herrscht großer Jubel über jedes Prozent Steigerung des Stromabsatzes, der Kfz-Neuzulassungen, sogar der Geburtenrate (in der BRD). Über den vielleicht schmerzhaften Übergang von einer Wachstums- in eine Ersatzwirtschaft denkt man lieber nicht nach. Heroische Torheit, entspringt der nibelungenhaften Neigung zur sentimental begründeten Treue zu seinem Spezi: Alten Kumpels wird die Treue gehalten, selbst
334 SPEZIELLE P ROBLEME
wenn es furchtbar teuer kommt: Treue ist ein Wert an sich. Wie wollte man sich sonst erklären, daß Politiker und Industrielle dem iranischen Schah bis 5 nach 12 die Treue gehalten haben, die Stabilität des Regimes lobten, obwohl man sich das nahe Ende der Stille des Terrors an den fünf Fingern abzählen konnte? Ähnliches gilt für das Beharren auf Prinzipien, obwohl deren raison d’être nicht mehr gegeben ist: Wachstum ist notwendig! – Mit Grünen verhandelt man nicht! – Lebertran ist gesund! Indikatorengläubigkeit resultiert aus der Neigung zum allegorischen Theater, also dem Drang nach Vereinfachung der Welt. Moderne soziale Systeme wie Firmen, Märkte, Nationen sind so schrecklich kompliziert. Man braucht Meßsonden, welche Zustand und Wohlbefinden eines solchen Objektes einfach und zureichend beschreiben. Beliebt sind Bruttosozialprodukt, Wachstumsrate, Außenhandelsbilanz. Uns geht’s so gut, wie es die Indikatoren indizieren. Lasset uns nach Zuständen der Welt streben, welche schönere Werte der Indikatoren liefern. Die Versuchung ist groß, eher den Indikator zu kurieren als das, was er indiziert. Wenn der Indikator Prozentsatz toter Bäume hohe Umweltbelastung anzeigt, dann laßt uns Bäume pflanzen! Man kann auch die Definitionen der Indikatoren ändern, damit die Welt schöner aussieht. Wenn es zu viele Arbeitslose gibt, kann man ihre Anzahl reduzieren, indem man aus der Statistik die herausläßt, welche es aufgegeben haben, nach Arbeit zu suchen. Oft zählt Statistik mehr als deutlicher Augenschein. Der Hang zum Mystischen ist trotz aller Selbstbewußtheit vielen Mächtigen nicht fremd. Sie schätzen den Rat, die Prophetie, die Weissagung des Gurus und Schamanen, die des Scouts mit gutem Riecher, des weisen Sehers. Mit Spannung erwartet die BRD jedesmal das wirtschaftspolitische Orakel des Rat der Weisen. Jeglicher Expertenrat ist willkommen – sofern er ins Konzept paßt. Auch Computer haben Orakelfunktion, der man gern traut (selbst wenn sie nur verfremdet widerspiegeln, was man hineingetan hat). Wunschdenken tönt die Erwartungen, im Hinblick auf die man handelt. Die Allergie gegen schlechte Nachrichten gab es schon im klassischen Altertum und im alten Orient. Man pflegte den Boten, der die schlechte Nachricht nach oben übermittelte, zu enthaupten. Verständlicherweise findet sich bald kaum noch ein Hiobsbote. Aufgrund dieses archaischen Verhaltensmusters geschieht es nicht selten, daß Machthaber ahnungslos bleiben, wenn das ihnen unterstehende System einer Katastrophe zustrebt oder gar eine solche bereits eingetreten ist. Ein Beispiel ist die Challenger-Katastrophe; auch in der Havarie von Tschernobyl scheint d ieses Syndrom eine wichtige Rolle gespielt zu haben. Die Unfähigkeit, einen einmal angefangenen Plan abzubrechen, entspringt dem Bedürfnis nach kosmischer Gerechtigkeit: Alle Opfer können, dürfen doch nicht vergebens gewesen sein. Kriegerdenkmäler sind tragische Zeugnisse dieser Mentalität, besonders wenn der Krieg verloren wurde. In der profaneren Version lautet das Argument: Jetzt haben wir schon so viel Mühe und Geld reingesteckt – das kann man doch nicht einfach in den Rauch schreiben –, worauf man der verlorenen Sache weiteres Geld
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 335
hinterherwirft. Gute Beispiele hierfür sind der Schnelle Brüter und der Rhein-MainDonau-Kanal. Nicht selten wird diese Einstellung durch das Bedürfnis bestärkt, sein Gesicht wahren zu wollen. Wenn man sich korrigiert, von seinen Plänen von gestern abrückt, gesteht man einen Fehler ein und bietet den Gegnern eine Blöße. Megalomanie ist das Verlangen nach Riesenwuchs. Big is beautiful, bigger is better. Zentralisierung und Konsolidierung zu byzantinischen Imperien garantieren Ruhm und Erfolg. Kaufmännisches Denken spielt bei Expansion und hostile takeovers eine untergeordnete Rolle, obschon innere Reibung und Anfälligkeit mit zunehmender Größe überproportional zuzunehmen pflegen. Oder: Blockheizkraftwerke sind uninteressant, weil sie großtechnisch und für den internationalen Verbund untauglich sind. Lokale, gar autonome Stromerzeugung ist dem global denkenden Planer ein Greuel. Man braucht Großforschung, obschon diese das Tüfteln und Nachdenken bekanntlich nicht beflügelt. Wenn schon Solarenergie, dann großtechnisch und zentralisiert. Die Motive für dieses Bestreben sind nicht einfach ergründbar. Ist es ein archaischer Hamstertrieb, ein Imponiergehabe oder die Sucht nach umfassender Kontrolle? Die Obsession von Ordnung und Simplizität ist ebenfalls aus dem Unbehagen über die Undurchschaubarkeit moderner, sozialer Gebilde zu verstehen. Deren Wirkungsweise ist komplex in dem Sinne, daß sie das Verständnisvermögen bei weitem überfordern. Intellektuelle Ökonomie verlangt nach einer einfachen, harmonischen Sollwelt, mit der die Istwelt in Einklang zu bringen ist. Überschaubarkeit, geometrische Ordnung, Homogenität werden hoch geschätzt. Unüberschaubare Vielfalt, Unordnung, Heterogenität sind unerträglich. Man schätzt das klare Bild, die klare Linie, saubere Verhältnisse, das Einheitliche. Normung ist gut. Per se. Wem das nicht paßt, der ist ein Chaot. Manche der Zukunftsszenarios sind sicher vom Bedürfnis nach einer ordentlichen und einfachen Welt geprägt. Arrogance of Power: « Macht macht dumm » (Das Bügelbrett, Berlin, 1985), « Dumm heit und Stolz wachsen auf einem Holz » (Volksmund). Die Arroganz des Arrivierten trübt seinen Blick fürs Tunliche, unterminiert zivile Sitten und fördert meist w enig gerechtfertigte Überheblichkeit. Diese Attitüde zeigt sich in vielerlei Formen. Deutsche Technik ist aller anderen überlegen – selbst wenn die Stammkundschaft längst in Japan kauft. Wir erfinden alles selbst – auch wenn es anderswo längst erfunden ist. Kritik oder Zweifel an uns ist Majestätsbeleidigung und/oder Nest beschmutzung. Kanonenbootdiplomatie und Säbelrasseln in mannigfachen Formen demonstrieren bedrohliche Präsenz. Seltsamerweise geht Wehleidigkeit oft damit einher. Alle sind gegen uns. Man liebt uns nicht. Undank ist der Welt Lohn. Dabei reibt man sich doch auf für das große Ganze, schont sich nicht, die Familie ist daran schon kaputtgegangen. Wir müssen es halt durchstehen. Genug des Panoptikums. Beispiele für Manifestationen dieser Gemütslagen, Attitüden, Verhaltensformen gibt es in reicher Fülle in allen Arten des Planens und Regierens.
336 SPEZIELLE P ROBLEME
Homo sum; humani nil a me alienum puto. Alle diese Verhaltensweisen sind gewöhnliche Vorkommnisse des täglichen Lebens. Sie gelten zwar als nicht besonders weise oder moralisch edel, aber auch nicht als besonders verabscheuungswürdig oder gar kriminell. Es handelt sich um ordinäre menschliche Schwächen. Warum sollte es in den Machtpositionen der großen Institutionen anders zugehen? Es gibt einen wesentlichen Unterschied: Im täglichen Leben halten sich der Schaden und die Unbill, die durch solche Schwächen entstehen, in Grenzen, bleiben auf einige Personen beschränkt. Wenn jedoch gigantische politische und wirtschaftliche Gebilde auf diese Weise gelenkt werden, ist beträchtlicher Flurschaden nicht unwahrscheinlich. Dann nimmt es nicht wunder, daß zweckrationales Zukunfts design auf der Strecke bleibt. Zum Glück? Diese Sachlage ist schon beunruhigend genug. Doch – wie im gewöhnlichen Leben auch – verfallen Leute in Machtpositionen gelegentlich sogar ins Kriminelle: Unterschlagung, Bestechung, Erpressung, Betrug, manchmal auch Schlimmeres führen zu systemerschütternden Krisen.
2.6 Denkmodell Ökotop Wenn also das beunruhigende Gleichnis vom verläßlichen Schiff und den weitsichtigen Kapitänen nicht taugt, brauchen wir ein anderes Modell der planenden und regierenden Einrichtungen, welche das Design der Zukunft besorgen und von gewöhnlichen Leuten bevölkert sind. Das folgende ist ein Vorschlag. Ein Unternehmen, eine Regierung oder Verwaltung ist keine monolithische, wie ein Räderwerk wohlkoordinierte Einheit, deren Gesamtverhalten an eindeutigen Zielen orientiert ist. Soziale Einrichtungen haben eine solche Zweckorientierung nur, solange sie in der Planung auf dem Reißbrett sind, höchstens noch in der ersten Phase der Inbetriebnahme. Schon bald verliert sich dieser zweck rationale Charakter; sie werden zu einem symbiotischen Gebilde, das ich als Ökotop bezeichnen möchte. Damit ist die Koexistenz von Individuen mit nicht notwendig identischen, aber auch nicht notwendig durchgängig kontroversen Interessen in einer gemeinsamen Umwelt gemeint. Es gibt keinen von allen Mitgliedern koordiniert angestrebten Gesamtzweck. Was ist der Zweck einer Universität, eines Bundeskanzleramtes, eines Rheinisch-Westfälischen Elektrizitätswerkes? Ein Ökotop erinnert an das Biotop einer Korallenkolonie. Die Feinstruktur des Ökotops zeigt häufig eine große Anzahl von Umweltnischen, welche von Individuen bewohnt werden. Die Kolonie wird von Nahrungsströmen durch- und umflossen, an denen die Bewohner ihre Nahrung saugen. Es gibt begehrte und weniger attraktive Nischen, je nach ihrer Nähe zu den nährenden Strömen. Jeder strebt nach einer besseren Nische. Die Nischen – sprich Positionen – und ihre Bewohner sind nicht unabhängig voneinander. Während der Nahrungsaufnahme kann man
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 337
durch seine Tentakel mit den Ökotopiern in benachbarten Nischen kommunizieren, aber ihnen auch elektrische Schocks versetzen – zwecks vorbeugender territorialer Sicherung, als Sanktion, oder mit der Absicht, dem Nachbarn seine Nische unwirtlich zu machen. Es entwickelt sich ein kompliziertes System von symbio tischen K oalitionen (man vereinbart gegenseitige Schonung, vereint seine Kräfte gegen gemeinsame Konkurrenten u. dgl.). Es spielen sich Netze von meistens gegen seitigen, manchmal parasitären Abhängigkeiten ein, die bisweilen die Form von Hierarchien annehmen. Manche Nischen bieten ihren Inhabern besonders viel Einfluß über andere Nischen. Sie liegen gewöhnlich besonders günstig am Nährstrom und werden deshalb von vielen begehrt. Ihre Bewohner sind Machthaber. Die Grenzverläufe zwischen den Einflußsphären ändern sich ständig. Jeder Ökotopier will seine Subsistenz sichern und verbessern. Wann immer möglich, zieht er in eine bessere Nische um. Übergeordnetes gemeinsames Interesse stellt sich ein, wenn es um Sicherung, Ausbau und Verhinderung des Kollapses der Nische und ihrer unmittelbaren Nachbarschaft geht. Hierbei können leicht Bedrohungen des ganzen Ökotops übersehen werden, obwohl dessen Kollaps in keines Bewohners Interesse liegt. Es gibt keine klare Kommandostruktur. Je straffer die formale Organisation, je formalisierter die offizielle Kommunikation, desto improvisierter die Interaktionen, desto häufiger findet die eigentliche Kommunikation auf informellen Kanälen neben dem offiziellen Netz statt, dessen Fütterung zum bloßen Pflichtritual werden mag, um seine Präsenz zu zeigen und Kolonietreue zu demonstrieren. Relevante Information wird zur wertvollen Tauschwährung, eine Form von Macht und Einfluß. Von weitem bieten die Ökotope das Bild eines Riffs mit übersichtlichem Gesamtverhalten. Dies ist aber nichts als die Resultante aus dem Verhalten vieler – und nicht das Werk eines mastermind, der das alles steuert. In der Südsee gibt es viele Ökotope, zwischen denen von Tentakel zu Tentakel vielerlei Interaktion stattfindet, teils kooperierend, teils kompetitiv. Dieses bunte, chaotische Bild ist zwar nicht salonfähig, sicherlich grotesk übertrieben, aber nicht unrealistisch: Design der Zukunft stellt sich als Versuch einer Koalition von Bewohnern eines Ökotops dar, dessen Umbau – oder gar den des ganzen Riffs – nach ihrem Bilde durchzusetzen.
2.7 Eine unheilige Allianz Wie kann der Inhaber einer guten Zelle im Ökotop (nennen wir ihn Machtverweser) die Chancen verbessern, seine Vorstellungen vom Umbau nach seinem Bilde durchsetzen? Er kann eine Strategie der brachialen Gewalt versuchen. Besser jedoch ist die Idee, den Mitbewohnern ein Bild zu vermitteln, das die beabsichtigten Veränderungen für viele (besser: Die meisten oder gar alle) von ihnen als begeh-
338 SPEZIELLE P ROBLEME
renswert erscheinen läßt, so daß sie freudig und selbstsüchtig an der Realisierung des Planes interessiert werden. Planung wird ein Krieg um die Köpfe der Ökotopier. Am besten ist es, wenn der Machthaber glaubhaft machen kann, daß er der Weiseste ist und am besten von allen weiß, was für alle gut ist. Eine solche Person nennt man seit Plato einen Philosophenkönig. Hierzu fühlt er sich durch Abkunft, Bildung, Sendung und/oder genetische Manipulation befähigt. Gewöhnlich hat er sein genaues Bild im Kopf, wie das ganze Ökotop und seine Bewohner oder gar das ganze System von Ökotopen von Grund auf durchgestaltet werden müßten, um endlich dem ganzen Gewusel (s. o.) ein Ende zu machen und eine Welt zu schaffen, in der jeder seinen sinnvollen Platz hat und gern ausfüllt – im Interesse des großen Ganzen (s. o.). Karl Popper hat diese Planungsmentalität Utopian Engineering genannt. Die Geschichte ist nicht arm an solchen Versuchen mit katastrophalen Ergebnissen, was – nach Popper – aus guten epistemologischen Gründen nicht verwundern sollte. Eine andere Strategie besteht darin, sich Verbündete zu suchen, deren Wort und Urteil allgemein von den Ökotopiern geachtet und anerkannt wird. Im 20. Jahrhundert gibt es die sogenannten Experten, welche das komfortable und verhältnismäßig ruhige Ökotop Wissenschaft und Technik bevölkern. Sie genießen hohes Ansehen, denn sie gelten als objektiv (d. h., sie denken so, daß es jeder Experte nachvollziehen kann), neutral und verfügen über nützliches Wissen. Dieses Ansehen macht sie als Verbündete für Machthaber begehrenswert. Wäre es nicht im allseitigen Interesse, wenn die Experten wissenschaftlich herausfänden, was richtig und gut, vielleicht sogar optimal für uns alle ist? Eine enge Kooperation liegt nahe. Nicht wenige Experten lassen sich – vielleicht leichtgläubig – darauf ein. Nehmen wir an, daß eine Standortentscheidung, etwa für ein Kernkraftwerk, ansteht. Große Teile der Bevölkerung mögen diesen Entschluß begrüßen, aber kaum jemand möchte diese Anlage in seiner Nachbarschaft sehen. Wie man auch immer entscheidet: Es verärgert viele. Ein gewählter Politiker möchte jedoch von allen geliebt und wiedergewählt werden. Da kommt der Experte recht, der streng wissenschaftlich herausfindet, was die optimale Lösung des vorliegenden Problems ist. Jeder kann das nur befürworten. Das Resultat sei Standort X. Dies enthebt den Politiker der Entscheidung. Er wäre verantwortungslos, wenn er das Ergebnis der Expertise sich nicht zu eigen machte und ihm zur Durchsetzung verhülfe: « Liebe Mitbürger! Es tut mir leid, aber ihr wohnt am objektiv optimalen Standort. Bringt ein Opfer für die Allgemeinheit und liebt mich trotzdem weiterhin. » Wie durch ein Wunder stimmt das Ergebnis der Expertise häufig mit dem überein, was der Politiker ohnehin im Sinn hatte! Wäre es nicht eher ein Wunder, wenn es nicht so wäre? Es heißt ja schließlich Gutachter und nicht Schlechtachter. Warum sollte man sich einen Experten nehmen, der die eigene Position schwächt? Die Geschichte ist reich an Fällen, in denen die unheilige Allianz zwischen Macht haber und Experten über lange Zeit stabil geblieben ist, in beiderseitigem Interesse: Der Machthaber wird der Last der politischen Entscheidung enthoben, der Experte
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 339
verdient sich ein Zubrot und erfreut sich zudem eines Abglanzes der Macht. Umgekehrt gibt es aber auch Fälle, wo die Kooperation infolge kontraproduktiver Expertisen bald scheitert: Das Gutachten verschwindet in den Schubladen, und man sucht sich einen neuen Gutachter.
2.8 Zur Logik von Planung und Wissenschaft oder Wie schafft man einen Sachzwang? Die Ursache für diese unerquickliche Situation kann man als epistemologische Naivität bezeichnen, also mangelndes Verständnis über das Leistungsvermögen von Wissenschaft und den Zusammenhang zwischen Planung und wissenschaftlicher Expertise. Hierdurch kommt es zu pseudowissenschaftlichen Argumentations weisen. Das Grundmodell ist der Sachzwang.23 Dies ist der Trick, aus dem, was ist oder gewesen ist, abzuleiten, was geschehen wird, und zu schließen, was getan werden soll oder getan werden muß – die alte Sehnsucht nach der normativen Kraft des Faktischen. Als ob aus einer Liste von faktischen Prämissen eine Soll-Folgerung gezogen werden könnte … . Einige Schlußweisen, wie sie in Szenariokonstruktionen zu finden sind, mögen dies zeigen. So lassen sich einer Zeitreihe von Daten (etwa dem Pro-Kopf-Energieverbrauch) verschiedene Modelle unterlegen, welche die Projektion in die Zukunft erlauben. Für den gegebenen Datensatz ergeben sich dann ganz verschiedene Zukünfte durch Extrapolation. In einem linearen Modell wird die absolute jährliche Veränderungsrate konstant bleiben; im exponentiellen Bild bleibt die relative Zuwachsrate konstant, und die absolute Größe wächst rasch über alle Grenzen; wählt man ein Sättigungsmodell, also eine S-Kurve, werden die Werte einem Sättigungswert zustreben. Trivialerweise: Was man hineinsteckt, kommt auch wieder raus. Die Wahl des Modells folgt nicht wissenschaftlich zwingend aus den Fakten der Vergangenheit. Vielmehr sucht sich der Experte dasjenige Modell aus, das ihm am plausibelsten (und wünschenswertesten) erscheint. Ein Malthusianer, der auf die Menschheit schlimme Zeiten zukommen sieht, neigt natürlich zum exponentiellen Modell. Diese Grundüberzeugung (vom zukünftigen Energieelend) ist jedoch nicht wissenschaftlich begründbar, sondern vorwissenschaftliches Vorurteil, außerhalb wissenschaftlicher Expertise. Verwandt damit ist das Schere-Argument: Da der Strombedarf schneller zunimmt als die Stromerzeugungskapazität, kommt der Zeitpunkt, wo die Nachfrage das Angebot übersteigt. Die Lichter gehen aus, sofern der Ausbau der Kapazität nicht rechtzeitig geschieht. Hier liegt der Fehlschluß darin, daß es dem (außerwissenschaftlichen) Urteil des Prognostikers überlassen ist, welche Größen er als veränderbar und welche er als unbeeinflußbar annimmt. Der gleiche Sachverhalt (wie er sich in den gemessenen Daten darstellt und durch das gewählte Modell extrapolitiert wird) ließe sich auch ganz anders interpretieren: Da der Verbrauch eines Gutes nie höher sein kann
340 SPEZIELLE P ROBLEME
als die erzeugte Quantität, muß er sich – bei stagnierender Produktion – auf einen egel einspielen, welcher durch die Produktionskapazität begrenzt ist. OffensichtP lich wird ein Verteiler in der Energieerzeugung eher invarianten Verbrauchszuwachs sehen wollen als stagnierenden Absatz. Und bei einem Grünen ist es umgekehrt. Die oft behauptete kausale Koppelung des Bruttosozialproduktes (welches als Wohlstandsmaß angenommen wird) an den Energieverbrauch ist ebenso unhaltbar. Wissenschaftlich gestützt ist höchstens eine Korrelation zwischen den beiden Größen, d. h., daß im Diagramm die Werte Energieverbrauch/Kopf und Bruttosozialprodukt/Kopf in der Vergangenheit für viele Länder ungefähr durch eine gerade Linie oder eine andere einfache Kurve approximiert werden können, was als Kausalbeziehung gedeutet wird. Die Richtung der Kausalität läßt sich nicht ableiten (wenn sie überhaupt besteht): Höherer Stromverbrauch mag höheres BSP; höheres BSP mag mehr Energieverbrauch stimulieren; beide mögen aber ebenso durch einen (vielleicht ungemessen gebliebenen) Hintergrundfaktor (wie Erwerbsund Verschwendungssucht) verursacht gedeutet werden. Die unkritisch unterstellte Grundannahme, daß Wachstum (gemessen als Zunahme des Bruttosozialproduktes) etwas Gutes und somit unbestreitbar Erstrebenswertes sei, ist ebenfalls durch Wissenschaft nicht zu stützen. Bekanntlich tragen jeder Unfall, jede Stromvergeudung, jede Beseitigung von Umweltschäden, jede Reparatur, jeder Auf- und Abbau des Butterbergs positiv zum BSP bei. Die Wertschöpfung von Hausfrauen und Rentnern bleibt außer Betracht; Selbsthilfe und die Energie vom Kollektor auf dem Dach mindern es. Als Erfolgsbarometer für eine Energiepolitik ist das BSP untauglich. Im Gefolge von Tschernobyl gab es beträchtliche Konfusion über die Höhe zulässiger Grenzwerte für radioaktive Verstrahlung. Nicht nur die peinliche Ratlosig keit der Experten und Behörden nach teurer, jahrzehntelanger Forschung und Diskussion wurde offenbar, sondern auch die fatale Verkennung der Natur solcher Standards: Es handelt sich dabei um politische Setzungen, nichl um wissenschaftlich begründete Schlußfolgerungen. Es gibt keine sicheren Bestrahlungsdosen. Im besten Falle kann man ungefähr abschätzen, wie viele Opfer ein gegebenes Expositionsniveau mit sich bringen wird. Wie viele Opfer durchschnittlich sozial akzeptabel sind, kann nicht wissenschaftlich begründet werden. Dennoch wird dies immer wieder versprochen: « Grenzwerte für Risiken bedürfen der wissenschaftlichen Begründung. » « … durch den Umgang mit der Technik kein höheres Sterberisiko gegeben sein darf als das natürliche Sterberisiko. »24 Dieses beträgt für 5–15jährige etwa 1/10 000 im Jahr, folglich darf das durch Technik verursachte Gesamt-Sterbe risiko auch bei 1/10 000 liegen, was das Gesamtrisiko für diese Altersgruppe verdoppelt. Warum nicht ver-x-facht? Die Rechnung ergibt jährlich 11 400 zumutbare Unfalltote für die BRD. Übrigens: Wenn ein bestimmtes KKW durchschnittlich alle 10 000 Jahre einen Super-GAU verursacht, ist die Möglichkeit, daß es diese Woche passiert, 30mal wahrscheinlicher, als 6 Richtige im Lotto zu tippen.
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 341
2.9 Einige Stimmen aus den Zukunftsschmieden « Ist das Bestreben, den Spezialisten zum Fachidioten abzustempeln und ihn dem Allesbesserwisser gegenüberzustellen, nicht der Versuch, hochorganisierte Gesellschaften anarchistisch zu zerstören? »25 « … optimum use of global resources asks for a stable and persistent global order. it is our limited capacity to establish such an order that will finally decide if and how we manage the energy transition. … Now is the time for action … »26 « Nicht die Unfähigkeit der Technik, sondern das Unbehagen an der Kultur macht uns zu schaffen. »27 « Der Politiker ist gehalten, diese interdisziplinäre Zusammenarbeit in Entscheidungen umzuformen. Seine Aufgabe ist es, die Durchführbarkeit erforderlicher Handlungen zu garantieren. »28 « Man haßt die Technik, weil man sich ihr unterlegen fühlt. Viele Geisteswissenschaftler und die sich selbst so nennenden Intellektuellen sind hier angesiedelt. »29 « Die Politiker dürfen nicht, wie es im März ’80 bei der Volksabstimmung in Schweden geschehen ist, die Entscheidung über die Nutzung der Kernenergie dem Volk auch noch in mehreren Varianten übertragen, sondern müssen sie selbst treffen. »30 « … zunehmend ideologisch verformten Zerrbilder der Wirklichkeit, das in unseren Schulen geboten wird. »31 « Die Skeptiker oder Gegner der Kerntechnik haben Anspruch darauf, ihre Sorgen erörtert, ihre Sorgen ausgeräumt zu sehen. Sie fühlen sich notwendigerweise der Fachkompetenz von Experten unterlegen und brauchen die Hilfe der Regierung, der Verwaltung, die, um ihrerseits urteilen zu können, unabhängigen Sachverstand zu Rate ziehen. »32 « Keine Rechtfertigung besteht nach meiner Meinung für fest organisierte und installierte Bürgerinitiativen, die von Erörterungstermin zu Erörterungstermin ziehen. Für ihre Aktionen gibt es kein demokratisches Leitbild, da die von ihnen behauptete Wahrung der allgemeinen Interessen den gewählten Repräsentanten obliegt. Die gleichsam professionellen Vertreter der Bürgerinitiativen können auch kein Informationsdefizit für sich in Anspruch nehmen, obwohl ihre Argumentation im allgemeinen nicht von naturwissenschaftlich begründbaren Tatsachen ausgeht. Sie haben ihre Urteilsfähigkeit nachweislich nicht ausreichend geschärft … »33
342 SPEZIELLE P ROBLEME
« Wie weit sind wir noch von der Regierung durch die ‹ Erzogenen › im Platonschen Sinn entfernt? »34 « Energie, Ordnung und Menschlichkeit werden somit zu den Antriebskräften, die den Überlebenskompromiß nicht nur für die Menschheit, sondern für das Leben auf unserem Planeten ausformen müssen. »35
3. Zukunft bei den Ökotopiern Man braucht keine Henne zu sein, um die Qualität eines Eies beurteilen zu können. (Aus dem Volksmund)
3.1 Der Kampf um die Köpfe Das hier skizzierte Bild von den Praktiken des Umganges mit der Zukunft klingt nicht sehr optimistisch. Jemandes Realität ist, was er als solche wahrnimmt. Was wirklich wahr ist oder werden wird, ist irrelevant, da es von niemandem wahrgenommen wird. Jeder hat seine Vorstellung von der Welt im Kopf, sein Bild von der Vergangenheit, der Gegen wart und der Zukunft sowie davon, wie die Welt funktioniert. Das Bild von der Zukunft besteht einerseits aus dem, was man erwartet und auf das man sich besser einrichtet, und aus dem, was man herbeiwünscht, erhofft, vielleicht sogar herbei zuführen beabsichtigt. Dabei teilt man seine Welt ein in die Phänomene, welche man als unveränderbar ansieht und auch nicht verändert sehen will, und die, welche man für veränderbar hält und vielleicht auch selbst verändern zu können glaubt. Auch die Vergangenheit ist durchaus noch formbar: Geschichtsverständnisse ändern sich. Ob die vorgestellte Zukunft wirklich eintreten wird oder nicht, ist heute von nachgeordneter Wichtigkeit. Aber Zukünfte sind programmatisch: Leute handeln heute im Hinblick auf sie. Was dann als Geschehen wahrgenommen wird, sind die Resultanten aller dieser Verhaltensweisen sowie der Ereignisse, die unvorhergesehen dazwischenkommen. Deshalb sind die Zukünfte in den Köpfen so wichtig. Deshalb versuchen die Ökotopier gegenseitig, ihre Zukünfte zu beeinflussen. Dem Inhaber guter und einflußreicher Nischen ist natürlich daran gelegen, daß möglichst viele andere ihn als klugen und gütigen Nischeninhaber sehen und einsehen, daß sein Zukunftsbild auch für sie das beste ist. Realitäten werden von unmittelbaren Wahrnehmungen und Erfahrungen geprägt oder sie werden vermittelt. Der Lehrer hat gesagt, daß die Erde rund ist, und dem glaube ich, denkt der Schüler und baut die neue Erkenntnis in seine Realität
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 343
ein. Im Zeitalter der Massenmedien sind solche Realitätsangebote von wenigen an sehr viele möglich. Da dies sehr eindrücklich geschieht, nehmen viele etwas (für) wahr, weil sie es im Fernsehen gesehen haben. Public Relations sind Trumpf. So muß das Wendewunder einfach wahr sein, da es so viele sympathische Leute immer wieder sagen – selbst wenn Arbeitslosenziffern und Anzahl der Pleiten eher dagegen sprechen. Oder die schlechten Nachrichten kommen ins Kleingedruckte. (Der Reaktor in Cattenom wurde wegen eines Lecks zeitweilig abgeschaltet. Eine Gefährdung der Bevölkerung wird ausgeschlossen.) Sprechweise und symbolhafte Zeichen werden zum Gegenstand eines neuartigen Engineering. Es kommt zu so etwas wie einer terminologischen Kriegsführung: Eure Insurgenten sind Terroristen, unsere sind Freiheitskämpfer; eine Giftmüll deponie wird zum Entsorgungspark; Präventivangriff wird Vorwärtsverteidigung. Der Begriffsumfang von Gewalt wird so lange gestreckt, bis lästige Sitzstreiks und andere Formen passiven Widerstands darunterfallen. Konformität der Realitäten in den Köpfen macht das Regieren leichter. Grundkonsens und gemeinsame Werte müssen erzielt und gepflegt werden. Wir sitzen alle in einem Boot und müssen an einem Strick ziehen. Etwas Nationalbewußtsein eint ebenfalls. Schuster bleib bei deinen Leisten. Drum werde ein Fachidiot. Auch Verschulung der Hochschulen und mit Pflichtfächern prall gefüllte Normstudienpläne helfen homogenisieren. Aber durch homogene Köpfe werden die Pläne nicht besser. Offenbar ist die wirksamste Form der Macht die Macht über die Köpfe.
3.2 Knigge für Ökotopier Wo nun endlich das Positive bliebe? Ich glaube, die ganze hier erzählte Horror geschichte ist durchaus positiv und konstruktiv, denn einige goldene Regeln für das Leben in den Ökotopen bieten sich an: • Behalte Deinen Kopf und achte sorgfältig darauf, Dich nicht durch Singsang und Feierlichkeiten einsäuseln zu lassen. • Wenn man Dir einen Plan andient, frage nach den Motiven seines Autors. Suche das Haar in der Suppe. In jeder Suppe ist stets noch ein weiteres Haar. • Frage stets, wenn Dir ein Design der Zukunft angeboten wird: Wer hat die Vorteile, wer die Nachteile? Kein Plan ist für alle vorteilhaft. Wer hat ein Motiv? • Kritikvermögen ist hilfreich. • Schule Dich in epistemologischer Entlarvung, vor allem wenn Experten erklären, daß etwas Bestimmtes getan werden muß: • Prüfe ihre Schlußweisen sorgfältig. Achte darauf, daß nicht etwa Gesolltes aus dem Faktischen abgeleitet wird.
344 SPEZIELLE P ROBLEME
•
• •
•
•
•
• Sollprämissen sind nicht wissenschaftlich begründbar. Die Sollprämissen des Experten sind genausoviel wert wie Deine oder meine. • Wird das Gemeinwohl zitiert, prüfe, wessen Idee von Gemeinwohl gemeint ist und mit wessen Eigenwohl es koinzidiert. • Ermittle, in wessen Diensten die Expertise erstellt worden ist. • Frage, woher der Experte seine Gewißheit hat, was seine Garantoren sind. • Experten sind keine Richter, sondern parteiische Anwälte. Zu jedem gehört mindestens ein Gegenexperte. Werde allergisch gegen technokratisches Vokabular, wie technisch notwendig, Sachzwang, optimal, komplex, rational, Rahmenbedingungen. Habe ein langes Gedächtnis. Vergleiche, was heute in der Zeitung steht, mit dem der letzten Woche oder vorigen Jahres. Die Literatur ist reich an Quellen, welche die Wirkungsweise von Ökotopiern verstehen helfen und Munition liefern können: Popper, Tucholsky, Stirner, Kafka, Kraus … Auch die Schriften der Gurus und Schamanen sind lehrreich. In der Obrigkeit sitzen auch nur Leute. Aber selbst Du bist fallibel. Trotzdem braucht man die Obrigkeit nicht auch noch zu lieben. Denke Dir eine Zukunft aus und versuche, Leute davon zu überzeugen. Auch andere Leute konstruieren sich manchmal ganz interessante Zukünfte. Man darf seine Zukunft ruhig verändern. Es lohnt sich, über neue Spielregeln für das Leben in den Ökotopen nachzudenken. Nichts deutet darauf hin, daß es für den zivilisierten Umgang miteinander keine neuen Regeln mehr zu erfinden gibt.
Ich gebe es zu: Hinter all diesen Überlegungen steht die nicht weiter herzuleitende Annahme, daß Vernunftgebrauch nicht notwendig schadet – eine Attitüde, die man auch als blauäugige, aufklärerische Hoffnung belächelt. Aber nur respektloser Vernunftgebrauch eröffnet neue Denkmöglichkeiten, und nur skeptischer Abstand offenbart, ob ein Kaiser statt neuer Kleider gar keine anhat. Wird die Verfügbarkeit über Energie immer stärker die Vorstellungen über unsere Handlungsfähigkeit beherrschen? Beherrschen sollte sie unsere Köpfe nicht. Im Gegenteil. Viele Köpfe werden gebraucht, um die vielfältigen Möglichkeiten des Umgangs mit Energie beherrschen zu lernen. Hierbei darf jeder als Sachkundiger mitmachen.
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 345
1 Diese und ähnliche Zitate finden sich umfassend und sorgfaltig recherchiert in Karweina/1981. Statistische Daten sind vor allem der periodischen Statistik der Energiewirtschaft, Hrsg. Vereinigung industrielle Kraftwirtschaft, Essen, entnommen. 2 Riesenhuber warnt vor Atomausstieg, Stuttg. Ztg., 26. 5. 86; siehe auch Heinrich/Schmidt, S. 168. 3 Die Energiediskussionen haben eine ungewöhnlich reiche Literatur hervorgebracht. Hier werden nur einige besonders aufschlußreiche und exemplarische Quellen aus verschiedenen Lagern aufgeführt. 4 Hier ist nicht der Anlaß, die verwirrende Vielfalt und Divergenz der zahllosen Prognosen und Schätzungen jener Tage zu schildern. Hier werden nur einige Werte angeführt, die als Planungsgrundlagen eine Rolle spielten. Eine umfassendere Zusammenstellung findet sich etwa in Karweina, S. 15 ff. Auch die folgenden Zahlenangaben sollen nur Größenordnungen geben. Schon wegen der vielen Nuancen in den Definitionen (Netto-Engpaßleistung, installierte Leistung u. dgl.) ist eine knappe Zusammenfassung durch einige präzise Angaben nicht möglich. 5 In Stuttgart bewegt die öffentliche Diskussion soeben eine besonders effiziente Praktik des dortigen Energieerzeugers (TWS) zur Steigerung des Stromabsatzes. Für Schulen, Altenheime, eine große Firma werden Blockspeicherheizungen eingerichtet, obwohl die Gasleitung vor dem Hause liegt. Der Strom wird (einstweilen?) zu einem Preis von 6,7 Dpf/kWh abgegeben – einschließlich der Amortisation der Anlagen –, obschon die Selbstkosten bei 21,5 Dpf/kWh liegen werden. Mit Maßnahmen dieser Art hofft man, den mit der Inbetriebnahme des KKW Neckarwestheim entstehenden Angebotssprung durch Erhöhung des Stromabsatzes in Stuttgart aufzufangen. Ein Vertreter des Umwelt-Bundesamtes: «Anstatt Energievorräte zu schonen, kurbeln solche Absatzklimmzüge nur den Stromverbrauch unnötig an.» («Der überschüssige Atomstrom wird verheizt», Stuttg. Ztg., 24. 11. 86). 6 Vgl. etwa Bischoff/Gocht oder Karweina; die Statistik der Energiewirtschaft der VIK (siehe Anm. 1) enthält vielfältige Aufschlüsselungen über den Verbleib der Energien. 7 Siehe etwa Fischer/1986, S. 47 ff.; Karweina, S. 38 ff.; in Krause u. a./1980 wer den verschiedene recht plausible Szenarien für eine Energiewirtschaft ohne Erdöl und Uran bei gleichzeitigem bescheidenem Wirtschaftswachstum entwickelt. 8 A. a. O. 9 Häfele/Sassin/1976, S. 158. 10 «In Niederaichbach wird ein Kernkraftwerk geschleift», Süddeutsche Ztg., 17. 3. 85. 11 «Kernkraftwerke sind sicher und zuverlässig», Süddeutsche Ztg., 14. 8. 85. 12 «In drei Jahren 427 Störfälle ...», Süddeutsche Ztg., 24. 6. 86; «64mal wurde schnell abgeschaltet», Rhein-Neckar Ztg., 20. 12. 86 (hier zitiert). 13 Gabor u. a./1976 ist der 3. Bericht an den Club of Rome; Global 2000: Bericht an den Präsidenten, 1980, ist eine andere Studie vom gleichen Typ. 14 Es gibt viele Versionen dieses Szenarios und unzählige Artikel von W. Häfele und Mitarbeitern über globale und regionale Energiewirtschaft. Einige werden hier zitiert. Die siebenjährige Arbeit kulminiert in der IIASA-Studie: Energy in a Finite World, Wien, 1981. Eine prägnante Zusammenfassung findet sich bei Karweina, 28 ff.; methodische Anleitung bei Bohn/Bitterlich. 15 Nature, Dec. 84; Policy Science 17, 1984; zit. nach Besprechung Energie-Studie: «Nur Annahmen reproduziert», Süddeutsche Ztg., 17. 1. 85. 16 Der Staat, Ausg. von Henricus Stephanus, Paris 1578, S. 488 ff. 17 «Geschicktes Spiel mit Angst und Gier», Spiegel, 12–14,1987. 18 «Nobel economist’s credo: Politicians’ benevolence is limited», San Francisco Examiner and Chronicle, Oct. 19, 1986; auch «Spielregeln gesucht», Wirtschaftswoche, Nr. 50, 5. 12. 86. Das bahnbrechende Buch war: Buchanan & Tullock, The Calculus of Consent, Logical Foundations of Constitutional Democracy, 1962. 19 A. a. O. 20 Ich bin nicht gewiß, daß J. Buchanan dieser Ausweitung seiner Ideen zustimmen würde. Vermutlich nicht. Anyway: It is worth a try. 21 Wir sammeln seit Jahren Fälle seltsamen planerischen Verhaltens und versuchen, sie zu deuten. Wir nennen diese Tätigkeit Planungspathologie. 22 Ein Beispiel: Am 11. 9. 1986 gab es in der New Yorker Börse einen plötzlichen drastischen Kurssturz (um etwa 86 Punkte). Der Grund? Große institutionelle Anleger (wie Pensions- oder Investmentfonds) hatten die gleichen Papiere abgestoßen oder gekauft. Zur Bestimmung ihrer Transaktionen hatten sie Computerprogramme benutzt, welche aufgrund ihrer Trendanalysen die lohnendsten Werte ermitteln. Da viele Spekulanten gleichartige Programme benutzten, kam es zu gleichartigen Börsenverhalten. Dies drückte den Preis der verkauften Aktien mit Multiplikatoreffekt. Ist es nicht eine alte Heuristik der Börsianer, immer das zu tun, was die anderen nicht tun, also sich antizyklisch zu verhalten? Manchmal möchte man am Profitstreben der Kapitalisten zweifeln.
346 SPEZIELLE P ROBLEME
23 24 25 26
27 28 29 30 31 32 33 34 35
Rittel/1981; siehe auch Traube/1978. Kuhlmann/1977, S. 39 ff., siehe auch Kuhlmann u. a./1969. Knizia/1981, S. 20. Häfele/Sassin/1976, S. 28/29 (Übersetzung: «Optimale Nutzung globaler Ressourcen verlangt eine stabile und dauerhafte Weltordnung. Unsere begrenzte Fähigkeit, eine solche Ordnung zu etablieren, wird letztlich entscheiden, ob und wie wir mit dieser Energietransition umgehen können. ... Jetzt ist die Zeit zu handeln ...»). Knizia/1981, S. 36. A. a. O., S. 260. A. a. O., S. 260. Levi nach König «Kernenergie – Ein Gewinn für alle», Atomstrom, 3,1980. Knizia/1981, S. 269. A. a. O., S. 278. A. a. O., S. 280. A. a. O., S. 281. A. a. O., S. 282.
Literatur Bischoff, G.; Gocht, W. (Hrsg.); Energietaschenbuch, Braunschweig 1979 Bohn, Th.; Bitterlich, W.; Grundlagen der Energie- und Kraftwerkstechnik, Köln 1981 Fischer, Joschka (Hrsg.); Der Ausstieg aus der Atomenergie ist machbar, Reinbek 1986 Gabor, Dennis; Colombo, Umberto u. a.; Das Ende der Verschwendung, Tatsachenbericht an den Club of Rome, Stuttgart 1976 Häfele, W.; Sassin, W.; Energy Strategies, Energy, 1,147–63,1976 Heinrich, Michael; Schmidt, Andreas; Der Atomatlas, München 1986 Jungk, Robert; Der Atomstaat, München 1977 Karweina, Günter; Der Megawatt Clan, Geschäfte mit der Energie von Morgen, Hamburg 1981 Knizia, Klaus; Energie, Ordnung, Menschlichkeit, Düsseldorf/Wien 1981 Krause, F.; Bossel, FL; Müller-Reissmann, K. F.; Energie-Wende: Ein Alternativbericht des Öko-Instituts Freiburg, Frankfurt am Main 1980 Kuhlmann, A.; Bresser, H.; Bröcher, W. u. a.; Prognose der Gefahr, Köln 1969 Kuhlmann, A.; Alptraum Technik?, Köln 1977 Popper, Karl R.; Die offene Gesellschaft und ihre Feinde, Bd. 1 u. 2, München 1980 Rittel, H. W. J.; Energie – ein Sachzwang, oder was sonst?, in: Institut für Landschaftsplanung und Städtebauliches Institut; Universität Stuttgart, Energie – ein Problem für Stadtplaner?, Stuttgart 1981 Traube, Klaus; Müssen wir umschalten? Von den politischen Grenzen der Technik, Reinbek 1978
*
Quelle: Burckhardt, Lucius; Internationales Design Zentrum Berlin (Hrsg.): Design der Zukunft, Architektur – Design – Technik – Ökologie. Köln 1987. Der Text basiert auf einem Vortrag, gehalten auf dem Forumkongreß des Internationalen Design Zentrum Berlin e. V., der unter dem Titel « Design der Zukunft – wie stellt es sich in unseren Köpfen dar? » am 12. und 13. Dezember 1986 in Berlin abgehalten wurde.
SACHZWÄNGE ODER DER KRIEG UM DIE KÖPFE 347
Anhang
Ausgewählte Bibliographie
Horst W. J. Rittel Kommunikationstheorie in der Soziologie, Akten des XVIII. Internationalen Soziologenkongresses, Nürnberg, Vol. 1, 434/443. Meisenheim am Glahn: Hain, September 1958 mit Hans Paul Bahrdt, Helmut Krauch « Die wissenschaftliche Arbeit in Gruppen », in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Heft XII Januar, 1960, S. 1–40 mit Hanno Kesting Geschichtsphilosophie und Kybernetik – Von der Zwangsläufigkeit zur Verplanung der Geschichte – Kritische Beobachtungen, Radiomanuskript in drei Teilen, Frankfurt am Main: Hessischer Rundfunk, 1960 « Zu den Arbeitshypothesen der Hochschule für Gestaltung in Ulm », in: Werk, August 1961 mit Helmut Krauch, Werner Kunz (Hrsg.) Forschungsplanung, München: Oldenbourg, 1966 « Hierarchie oder Team? – Betrachtungen zu den Kooperationsformen in Forschung und Entwicklung », in: Helmut Krauch; Werner Kunz; Horst W. J. Rittel (Hrsg.); Forschungsplanung, München: Oldenbourg, 1966, S. 40–70 « Zur wissenschaftlichen und politischen Bedeutung der Entscheidungstheorie », in: Helmut Krauch; Werner Kunz; Horst W. J. Rittel (Hrsg.); Forschungsplanung, München: Oldenbourg, 1966, S. 110–129 mit Peter v. Brentano, Karl Achim Czemper, Bruno Fritsch, Werner Kunz, Walter Müller « Beschreibung Amerikanischer Forschungsinstitute », in: Helmut Krauch; Werner Kunz; Horst W. J. Rittel (Hrsg.); Forschungsplanung, München: Oldenbourg, 1966, S.177–183 « Instrumentelles Wissen in der Politik », in: Helmut Krauch (Hrsg.); Wissenschaft und Politik, Heidelberg 1966, S. 183–209 « Some Principles for the Design of an Educational System for Design », in: J. Passonneau (Hrsg.); Education for Architectural Technology, St. Louis, MO, Washington University and the AIA Educational Research Projects, April 1966, S. 103–151 « Systematik des Planens », in: Fachtagung Philosophie und Realität des Wohnungs- und Städtebaus, Hannover: Constructa II, 1967, S. 17–20 mit Werner Kunz « Zur Logik von Forschung und Dokumentation. Einige Strategien für den Entwurf freundlicher Informationssysteme für die wissenschaftliche Forschung », in: Die Naturwissenschaften, 55. Jg. Heft 8,1968, S. 358–361 mit Werner Kunz « Forschung und Information », in: Ziele und Wege rationaler Forschungsplanung, Schriftenreihe des Bundesministers für wissenschaftliche Forschung, Forschungspolitik, Heft 9,1969, S. 33–41
350 ANHANG
mit Werner Kunz « Patent Documentation and the Transfer of Knowledge », in: Information Retrieval among Patent Offices, Tokyo Meeting of the Committee for International Cooperation in Information Retrieval among Patent Offices (ICIREPAT), BIRPI, Genf: 1969, S. 153–159 mit Arne Musso « Über das Messen der Güte von Gebäuden », in: Jürgen Joedicke (Hrsg.); Arbeitsberichte zur Planungsmethodik 1, Bewertungsprobleme in der Bauplanung, Stuttgart, Bern: Kramer 1969, S. 37–61 mit Werner Kunz The Changing Information Environment: Implications for Governments, Part 1: Purpose, Methods and Results of the Study. Working Report about a study for the Organization for Economic Cooperation and Development (OECD), Paris, Heidelberg, Berkeley, CA, November 1969 mit Werner Kunz (Hrsg.) Systemanalyse und Informationsverarbeitung in der Forschung, München: Oldenbourg, 1970 mit Werner Kunz « Systemanalyse eines Forschungsprozesses », in: Werner Kunz; Horst W. J. Rittel (Hrsg.); System analyse und Informationsverarbeitung in der Forschung, München: Oldenbourg, 1970, S. 19–52 mit Stewart Blake, Werner Kunz Systems Analysis of the Logic of Research Processes in Organic Chemistry, Part III: Reasoning Patterns in Organic Chemistry, General and Chemical Concepts of Similarity, Menlo Park, CA: Stanford Research Institute, 1970 « Rittelthink: Horst Rittel on Design Education », in: Design Methods Group Newsletter, Vol. 4, No. 12,1970, and Vol. 5, No. 1,1971 « Zukunftsorientierte Raumordnung », in: Karl Steinbuch (Hrsg.); Zukunftsfragen Systems 69, Internationales Symposium, Stuttgart: DVA, 1970, S. 174–192 mit Werner Kunz « Entwurfsskizze für ein Forschungsplanungs-Informationssystem », in: Nachrichten für Dokumentation, 21,1970, S. 3–7 mit Werner Kunz Issues as Elements of Information Systems, Center for Planning and Development Research, University of California, Berkeley, CA, Working Paper No. 131, July 1970 « Der Planungsprozeß als iterativer Vorgang von Varietätserzeugung und Varietätseinschränkung », in: Jürgen Joedicke (Hrsg.); Arbeitsberichte zur Planungsmethodik 4, Entwurfsmethoden in der Bauplanung, Stuttgart, Bern: Kramer, 1970, S. 17–31 mit Werner Kunz, Karl Heinrich Meyer-Uhlenried « Die Entwicklung eines Informationssystems für den Deutschen Bundestag », in: Tagung der Deutschen Gesellschaft für Informatik, Stuttgart, 1970 Theories of Cell Configurations, in: G. Moore (Hrsg.); Emerging Methods in Environmental Design and Planning, Cambridge, MA: University Press, 1970, S. 179–181 mit Werner Kunz « Volltext-Retrieval in großen Dokumentenbeständen – ein Konzept für die Chemische Dokumentation » in: Chemikerzeitung 95. Jg. Heft 17,1971, S. 747–750
AUSGEWÄHLTE BIBLIOGRAPHIE 351
mit Werner Kunz « An Educational System for the Information Sciences », in: G. Lubboek (Hrsg.); International Conference on Training for Information Work, Rom, November 15–19, 1971 mit Werner Kunz « Dokumentation und der Transfer von Wissen », in: H. Blohm und Karl Steinbuch (Hrsg.); Technische Neuerungen richtig nutzen, Information für die Innovation, Düsseldorf: VDI-Verlag 1971, S. 10–16 mit Werner Kunz « Ausbildung in den Informationswissenschaften: Der Bedarf an Informationswissenschaftlern für Planung und Betrieb von Informationssystemen », in: Das Informationsbankensystem, Berlin, Bonn, München: Heymanns, 1971, S. 367–377 mit Werner Kunz Die Informationswissenschaften – Ihre Ansätze, Probleme, Methoden und ihr Ausbau in Deutschland, München: Oldenbourg, 1972 mit Werner Kunz « Information Science: On the Structure of its Problems », in: Information Storage and Retrieval, Vol. 8,1972, S. 95–98 « Democratic Decision Making », in: Architectural Design, 43, April 4, 1972, S. 233–234 mit Jean-Pierre Protzen Prinzipien der Wissenschaftsförderung: Alternative Strategien, SPIG-Papier 2, Science Policy Information Group, Heidelberg, September 1972 « Prozeduren, Computersoftware und Mini-Mikrofilme = ein System », in: Der Mensch und die Technik, Technisch-wissenschaftliche Blätter der Süddeutschen Zeitung, 14. Nov. 1972, S. 6 mit Melvin M. Webber Dilemmas in a General Theory of Planning, Working Paper No. 194, Institute of Urban and Regional Development, University of California, Berkeley, CA, 1972 « Structure and Usefulness of Planning Information Systems », in: Bedriftsøkonomen, Nr. 8, Oktober 1972, S. 398–401 « On the Planning Crisis: Systems Analysis of the First and Second Generations », in: Bedriftsøkonomen, Nr. 8, Oktober 1972, S. 390–396 mit Werner Kunz « Das Wissen des Chemikers und seine Information – Vorschläge zur informationswissenschaftlichen Ausbildung », in: Chemiker-Zeitung, 96. Jg. Heft 6, 1972, S. 348–351 Die Entwicklung der Technik – Konsequenzen für Bildung und Wissenschaft, Bericht Nr. 113 der Studiengruppe für Systemforschung e. V., Heidelberg, Pullach: Verlag Dokumentation, 1972 mit Werner Kunz « Das Umweltplanungs-Informationssystem UMPLIS », in: Institut für Städtebau und Wohnungswesen der Deutschen Akademie für Städtebau und Landesplanung (Hrsg.); Städtebauliche Beiträge, München, 2/1973, S. 55–72 « Gesellschaftliche Alternativen im Berufsverkehr », in: Aufgabe Zukunft: Qualität des Lebens. Beiträge zur vierten internationalen Arbeitstagung der Industriegewerkschaft Metall für die Bundesrepublik Deutschland. 11.–14. April 1972 in Oberhausen. Bd. 3: Verkehr, Frankfurt am Main: Europäische Verlagsanstalt 1973, S. 76–108
352 ANHANG
mit Anita Treiber « LORBAS: Anwendungsmöglichkeiten im Bibliothekswesen », in: Neue Verfahren für die Dateneingabe und Datenausgabe in Bibliotheken, Dokumentation, Pullach, München: Verlag Dokumentation 1973, S. 145–158 mit Anita Treiber LORBAS – Ein System zur Unterstützung der Patentdokumentation, Heidelberg: Informations systeme Gesellschaft für Planung und Entwicklung GmbH 1973 « Informationswissenschaften: Ihr Beitrag für die Planung », in: Institut für Städtebau und Wohnungswesen der Deutschen Akademie für Städtebau und Landesplanung (Hrsg.); Städtebauliche Beiträge, München, 2/1973, S. 120–135 Horst W. J. Rittel (Hrsg.); The Networking Concept of the International Referral System (IRS) of the United Nations Environment Programme (UNEP), Summary of a Seminar in Heidelberg, December 1973, Institute of Urban and Regional Development, University of California, Berkeley, CA, und Institut für Grundlagen der Planung, Universität Stuttgart, Januar 1974 Zur zukünftigen Entwicklung der Techniken für Speicherung und Retrieval großer Textmengen, AWV-Fachbericht, Sonderreihe Vorträge vom Europäischen Mikrofilm Kongress, Mainz 1972, Teil 3, Jan. 1974 The Design of the International Refferal System of UNDP, Series of Reports submitted to the Second Meeting of the Governing Council of the United Nations Environment Program (UNEP), Nairobi, März 1974 mit Werner Kunz, Werner Schwuchow Methods of the Analysis and Evaluation of Information Needs, Report on a Study for UNESCO, Heidelberg, August 1974 Sachzwänge – Ausreden für Entscheidungsmüde? Skript einer Radiosendung. Deutschlandfunk Köln, Dezember 1976, Arbeitspapier S-76-1, Institut für Grundlagen der Planung, Stuttgart: Universität 1976 mit H. Dehlinger, H. Kaihammer, R. Mertes, W. Weiss BAUTIS: Bau-Technologie-Informationssystem, Endbericht der Projektgruppe an der Universität Stuttgart, Arbeitspapier A-76-1, Institut für Grundlagen der Planung, Universität Stuttgart, 1976 Projekt STI – EC: Systems Analysis of the Generation and Dissemination of Scientific and Technolo gical Information in the European Community, Summary, Discussion, and Recommendations, Heidelberg, Studiengruppe für Systemforschung, e. V., November 1976 Verbundsysteme von EDV und Mikrographie, in: Münchener Medizinische Wochenschrift 118, Nr. 48,1976, S. 1567–1570 « Evaluating Evaluators: Internal and External Assessment of a Profession and its Education », in: National Architectural Accrediting Board, Accreditation and Assessment Conference, New Orleans, LA., 18 March, 1976, Washington, DC, 1977, S. 77–91 mit Werner Kunz A Systems Analysis of the Logic of Research and Information Processes, Reasoning Patterns in Organic Chemistry, München: Verlag Dokumentation 1977 Aufgaben und Schwerpunkte informationswissenschaftlicher Forschung, in: Werner Kunz (Hrsg.); Informationswissenschaft – Stand, Entwicklung, Perspektiven – Förderung im IUD-Programm der Bundesregierung, München: Oldenbourg, 1978, S. 56–86
AUSGEWÄHLTE BIBLIOGRAPHIE 353
mit Werner Kunz, Wolf D. Reuter UMPLIS – Entwicklung eines Umwelt-Planungs-Informationssystems – Fallstudie, München: Saur, 1980 APIS: A Concept for an Argumentative Planning Information System, Working Paper No. 324, Institute of Urban and Regional Development, University of California, Berkeley, CA, Mai 1980 mit Gislind Budnick, Ulrike Pühl Perspektiven ländlicher Entwicklungspolitik, Arbeitspapier A-81-1, Grundlagen der Planung, Universität Stuttgart, 1981 mit Werner Kunz « How to know what ist known: Designing Crutches for Communication », in: H. J. Dietschmann (Hrsg.); Representation and Exchange of Knowledge as a Basis of Information Process, Elsevier, 1984 Architekten und Computer, in: ARCH+ Nr. 78, Aachen, Dez. 1984 « Über den Einfluß des Computers auf die zukünftige Rolle und das Berufsbild von Architekten », in: W. Ehlers; G. Feldhusen; Carl Steckewehr (Hrsg.); CAD: Architektur automatisch? Bauwelt Fundamente 76, Braunschweig: Vieweg, 1986, S. 205–230 mit Werner Kunz Chemis – Ein wissensbasiertes Informationssystem für die organische Chemie, Gesellschaft für Information und Dokumentation (Hrsg.), Informationswissenschaft und -praxis 7, Frankfurt am Main: IDD-Verlag, 1987 « Das Erbe der HfG? », in: Herbert Lindinger (Hrsg.); Hochschule für Gestaltung Ulm (Ausstellungs katalog), Berlin: Ernst, 1987, S. 118–119 « Energie wird rar? Sachzwänge oder der Krieg um die Köpfe », in: Lucius Burckhardt, Internationales Design Zentrum Berlin (Hrsg.); Design der Zukunft – Architektur – Design – Technik – Ökologie, Köln: DuMont, 1987, S. 21–57 The Reasoning of Designers, Draft of a paper delivered at the International Congress on Planning and Design Theory, Boston, MA, August 1987, Arbeitspapier A-88-4, Institut für Grundlagen der Planung, Universität Stuttgart, 1988 mit Douglas Noble Issue-Based Information Systems for Design, Draft of a working paper to be published in the Proceedings of the ACADIA Conference, at the University of Michigan, Ann Arbor, MI, October 1988, Arbeitspapier A-88-2, Institut für Grundlagen der Planung, Universität Stuttgart, 1988 mit Douglas Noble Issue-Based Information Systems and Environmental Planning Information Systems, A bibliography of material on IBIS and UMPLIS, Arbeitspapier A-88-3, Institut für Grundlagen der Planung, Universität Stuttgart, 1988 « Similarity as an Organizing Principle of a Knowledge Base for Organic Chemistry », in: Josef Brandt; Ivar K. Ugi (Hrsg.); Computer Applications in Chemical Research and Education, Heidelberg: Hüthig, 1989 « Technischer Wandel und Stadtstruktur », in: Rudolf Wildenmann (Hrsg.); Stadt, Kultur, Natur – Chancen zukünftiger Lebensgestaltung, Baden-Baden: Nomos 1989, S. 347–383
354 ANHANG
Index A Akteursystem 226, 228 Algorithmisierung 179 Altamont 325 Ansatz, systemtheoretischer 28 Anti-Rationalismus 185, 202 Architekten 62 Architektenarbeit, Rationalisierung der 188 Architektenausbildung 193 Architektur 185 Argument 111, 147 Argumentation 34, 112, 168 Entwerfen als 124 Prozeß der 125 Strategie der maximalen 297 Argumentationsprozeß 28, 53, 59, 125, 149, 170 Aristoteles 243 Aspekte, politische 288 Ausbildung 193, 280 von Planern und Entwerfern 288 Aushandlungsprozesse 237, 273
B Ballungsdichte, städtische 258 Basel 323 Bernoulli 233 Berufsstand der Architekten 190 Berufsverkehr 303 Beteiligte 50 Betroffene 50, 170 f., 265, 275, 307 Betroffenheit 270 Bewertung von Wertsystemen 297
Bewertungsfilter 75 Bewertungsprozeduren 293 Bewertungssystem 87, 91 Bewertungsvorgang 55 Boulding 201 f., 283 Buchanan 332
C CAD 189 CADD 189 Churchman 219 Club of Rome 327 Computer 179, 185, 186 Constraints 80
D Darwin 201 Daten 183 Delegation 264 Deliberation 54 Deliberierung 109, 111 Delphi-Methode 159 Demokratisierung des Planungsprozesses 170, 265 f. Denkmodell Ökotop 337 Denkweise, Feinstruktur der 126 Denkweisen von Planern 124 f. Denkzeuge 195 Descartes 212 Design-Variablen 77 Desinformation 156 Determinismus 307 Dezisionismus 333 Dilemmas 270 Diskrepanz 46, 65, 67, 144, 159, 304
INDEX 355
Diskurs 112 f., 208 f., 240 politischer 209 Diskussion 148 Dokumentationssysteme 148
E EDV 186 Effizienz 24 Einsicht, Sozialisierung der 209 Eisenhower 22 Energie 321 Energieplanung 321 Enthymeme 243 Entscheidung 85, 107, 222, 248 Entscheidungsfindung 59, 244 Entscheidungsgeschichte 171 Entscheidungsmodell 228 Entscheidungsprozesse 224 Modelle für 227 Entscheidungsregeln 269 Entscheidungssituation 226, 228 Entscheidungsspielraum 241, 244 Entscheidungssystem 199 f. Entscheidungstheorie 105, 207, 216, 222 f. Entscheidungsvorbereitung, wissenschaftliche 243 Entwerfen 123 Frühphasen des 194 Logik des 124 objektives 130 Entwurfs-Variable 78 Entwurfscharakter politischen Handelns 205 Entwurfsprobleme 131 Erklärung 33, 46 Ersten Generation 41 Systemansatz der 41, 49 Evolution, technische 262
356 ANHANG
Experte 20, 49, 52, 242, 264, 294, 339 Expertenplaner 264 Expertenplanung 269 Expertise 263, 340 Explizität 92
F Fachleute 20 f. Faktenwissen 158 Faktischen, normative Kraft des 243, 340 Faustregeln 308 Forschung und Entwicklung im Bauwesen 293 Forschungsplanung 236 Fortschritt 276 Freiheit, epistemische 129
G Galilei 201 Garantor 113 f., 131 Gegenplan 69, 267 Gemeinwohl 263 Gesamturteil 56, 89, 98, 108 Gesamtzweck 337 Gossen 233 Großtechniken 323 Gruppenurteil 93 Gutachter 242 Güte 87 Gütefunktion 89
H Häfele 327 Handeln 141 politisches 200 Handlungslehre 219 Hebamme 52 Hoffnung, aufklärerische 345
I IBIS 147, 162 Ideenerzeugung 154 Ignoranz, Symmetrie der 50, 170, 307 IIASA 327 Szenarios 328 Indikatorengläubigkeit 335 Individualismus 36 Individuen 37 Informant 182 Information 138, 156, 176 f., 221, 338 Erzeugung von 167 externe 157 interne 157 Information Scouting 173 Informationsangebot 170 Informationsaustausch 148 Informationsbedarf 173, 286 Informationsbedürfnisse 165 Informationsbegriff 138 Informationsflüsse 221 Informationsprozeß 138 f., 154, 165 Informationsquelle 169 Informationsschwierigkeiten 165 Informationssystem 138, 147, 176, 181 natürliches intelligenzverstärkendes 183 wissenschaftlichtechnisches 160 Informationstheorie 156, 216 Informationswissenschaft 138, 176 f., 183 Inkrementalismus 33 Innovation 118 Innovationsplanung 236 Intelligenz, künstliche 179, 195 natürliche 179
Intelligenz-Verstärker, natürliche 182 Intelligenzersatz 181 Interessen 58, 279, 337 Interessenkonflikte 254 Intuition 54 Invarianten 68, 116, 130, 248, 257, 305 Irreversibilität 64 Irrtum, Recht auf 48 Issue 52, 126, 147, 149, 162, 271 Issue-Based Information System 147, 162 Issues deontische 150, 163 explanatorische 150, 163 faktische 150, 163 instrumentelle 150, 163 konzeptionelle 163 Ist-Zustand 66
J Jungk 322
K Kafka 345 Kausalerklärung 304 Kausalketten 43 Kausalrichtung 304 Keepin 329 Kernenergie 321 Kernstadt 259 Klassifikation 166 des Wissens 200 Klassifikationssysteme 166 Kommunikation 86, 183, 338 Vermittlung von 172
INDEX 357
Kommunikationshilfen 179 Kommunikationshilfsmittel 182 Kommunikationsketten 172 Kommunikationswege 173 Kompromisse 132 Konfirmationssysteme 181 Konflikte 58, 69 Konsequenzen 30, 43, 200 Konstriktion 41, 49, 106, 131, 228, 244 f. Kontext 79 gesellschaftlicher 35 sozialer 132 Variablen 77 f. Kontrolle, demokratische 204 Kontroverse 59, 210 Kotarbinski 219 Kraus 345 Kriegsführung, terminologische 344 Kybernetik 216
L Lambsdorff 321 Lange 219 Legitimation 254, 307 Lernen 154 lebenslanges 280 von Prinzipien 282 Lernprozeß 112, 267 Lösung 30, 45, 65, 73 Lösungsmuster 77 Lösungsprinzip 32, 66 Lösungsraum 41 Lösungsvielfalt 48
M Machbarkeit 23 Machiavelli 222
358 ANHANG
Macht 29, 130, 132, 254, 333, 339, 344 Machtausübung 113 Machthandeln 331 Machtverhältnisse 237 Mandat, politisches 266 Maßskalen 72 Megalomanie 336 Mehrheitsentscheidung 269 Messen 89 Meta-Issues 126 Metawissenschaft 220 Methodologie 219 Minimalbedürfnisse 262 Minoritäten 36 Mitplanungsrecht 271 Modell 43, 66, 69, 77, 124, 141, 225, 248, 257, 340 zweckrationales 333 Monitoring-System 162 Moralsysteme 233 Methode, morphologische 79 Mosteller 233
N Nach- und Seiteneffekte 64 Nachwirkungen 124, 127 Nahverkehr 298 Naturwissenschaften 34 f. Nebeneffekte 210 Nebenwirkungen 124, 127, 199 Negroponte 185 Neofeudalismus 331 Neophobie 334 Netzwerk 21, 24, 170, 183
Neumann-Morgenstern, von 233 Newton 201, 207 Nixon 22 Nogee 233 Normensysteme 237 Notwendigkeit 129, 306 Nutzen 87 Nutzenfunktion 231 Nutzentheorie 233 Nutzenvorstellungen 231
O Objektifizierung 51, 111 Objektivität 111, 287 Objektivitätsanspruch 223, 262 Objektsystem 224, 226, 228 Objektvariable 66 Operations Research 24, 41, 216, 220 Optimalität 20, 287 Optimierungsmodell 29
P Partialurteil 56, 109 Pasteur 201 Peirce 122, 208 Performance-(Güte-) Variablen 77 Phasen 41, 71 Philosophenkönig 339 Plan 64 Planen als politischer Prozeß 70 Planen und Entwerfen, Wissenschaft vom 132 Planen Logik des 294 Modell des 331 rationales 63 Planung elitäre 272 partizipatorische 267
und Wissenschaft 340 Verwissenschaftlichung der 52 wissenschaftliche 51 f. Planungsinformation 186 Planungsinformationssysteme 167 Planungsmodell, argumentatives 58 konspiratives 53 Planungspathologie 334 Planungsproblem 26 Planungsprobleme Natur von 44 nicht-disziplinäre 169 Planungsprozeß 53, 71 als iterativer Vorgang 71 Mikrostruktur des 73 Planungs- und Regiervermögens, Krise des 323 Planungsschritte 85 Planungsspielraum 257 Planungssystem 64, 155, 294 Planungstheorie 64, 207 Planungsvariable 66 Planungsvorgang 64 Platon 58, 212 PLIS 165 Pluralismus 21, 35, 38 Politik 38 Politingenieur 213 Politisierung 266 der Wissenschaft 223 Popper 205, 339, 345 Prämisse 111, 121, 244, 263 deontische 50, 52, 130, 263 Praxeologie 219
INDEX 359
Problem 65, 67, 144, 170 Problembereich 147 Problemdefinition 25 Probleme bösartige 27, 44 Früherkennung von 174 politische 168 zahme 44 Problemerzeugung 286 Problemformulierung 28 Problemidentifikation 207 Problemlandschaft 171 Problemlösung 147 Problemlösungsgruppen 147 Problemnetz 170 Problemverständnis 304 Professionalismus 23 Prognose 257 Prozeß iterativer 85 kybernetischer 25 politischer 205, 266, 298
Q Qualität Quellen
87 171 f.
R Rationalismus 114 Rationalität 42, 64, 210 Paradoxien der 42 Ratlosigkeit, Symmetrie der 226 Raumordnung 253 Raumordnungscharta 271 Raumordnungstheorien 258 Realität 343 Rechtfertigung 241 Referenzsystem 172 referral-principle 169 Relationsgefüge 170
360 ANHANG
S Sachwissen 206 Sachzwang 85, 130, 240, 256, 262, 279, 305, 340 Sartre 233 SAY-Effekt 301 Schiller 233 Seveso 323 Shannon 138, 156 Shaw 20 Situation 144 Situationsmodelle 208 Skalen 72, 88 social technologies 270 Soll-Aussage 50 Soll-Zustand 66 Sollbild 262 vom Planer und Entwerfer 289 Sollprämisse 244 Sozialpolitik 31 Sozialprodukt 36 Sozialtechniken 288 Sozialwissenschaften 36 Spezialisten 49 Spielräume 306 Spieltheorie 216 Spontanurteil 55, 89, 98, 109, 110 Standpunkte, alternative 299 Stil 54 Stirner 345 Strategien 74 Strauß 321 Symptom 33, 47, 67, 298 System Engineering 216 Systemanalyse 39 Systemanalytiker 39 Systemansatz 40, 42 Systematik 54
Systeme 22, 24 offene 21 soziale 23 Systemforscher 39 Systemforschung 67, 179, 207, 221 Systemplaner 39 Systemwissenschaft 219 Szenarios 326
T Technik 275 im Bauwesen 277 Teilurteile 89 Thesaurus 167 Transformationsfunktionen 91 Transparenz 50 Trendgläubigkeit 247, 256, 334 Trends 247, 256, 305 Tschernobyl 322, 341 Tucholsky 321, 345
U Überprüfungsmöglichkeit 30, 47 Übervölkerung 254 UMPLIS 165 Umweltbewußtheit 252 Unternehmensforschung 220 Urteil 51, 87, 108, 129, 148 deliberiertes 55, 109 spontanes 55, 89, 98, 109 f. überlegtes 89 urteilen 55, 179 Urteilsbildung 108, 244 Urteilsrechtfertigung 110 Urteilsvermögen 187
V Variable 67, 72, 77, 116, 130, 228 Varietät 55 Einschränkung von 55, 71, 73 Erzeugung von 55, 71, 73, 78 Veränderung 115 Verantwortung 111, 130 Verkehr 298 Verkehrssystem 298 Versuch und Irrtum 47
W Wahlfreiheit 263 Weaver 138, 156 Weber, Max 220, 330 Weltanschauung 130, 261 Weltansicht 111, 305 Weltbild 58 Wert 21, 37, 87 Wertgrundlagen 36 Wertsystem, wissenschaftliches 223 Wertsysteme 24, 223, 306 f. Wissen 139, 200 deontisches 158, 165 erklärendes 165 Erzeugung von 161 explanatorisches 158 faktisches 165 instrumentelles 158, 165, 198, 206 konzeptionelles 159 Modell des 141 Wissensänderung 139, 143 Wissensarten 158 Wissensbasis 204 Wissensbeschaffung 285
INDEX 361
Wissenschaft 212, 216, 261, 272, 276, 291 empirische 261 und Politik 199 und Technik 291 vom Handeln 220 Wissenschaften, traditionelle 204 Wissenschaftlichkeit 242 Wissenschaftsbegriff 216 Wissenselement 156 Wissensstand 181 Wohl, öffentliches 36 Wohlfahrtsfunktion, soziale 263 Wynne 329
Z Ziel 22, 210, 229, 232, 237, 337 Ziele, politische 210 Zielfindung 22 Zielformulierung 22 Zielfunktion 232 Zielgrößen 234 Zielvariable 66 Zukunft 253, 343 Zwänge 106 Zweck 88, 337 Zweifel 52 f., 85, 182, 247 systematischer 85, 283 Zweiten Generation, Systemansatz der 49 Zwicky 79 Zwicky-Box 80
362 ANHANG
Autorenverzeichnis Prof. Dr. rer. nat. Werner Kunz Jahrgang 1927; Studium der Chemie in Tübingen und Heidelberg; ab 1959 Leiter der Studiengruppe für Systemforschung; zwischen 1965 und 1972 verschiedene Forschungsaufenthalte am Stanford Research Institute, Menlo Park, Kalifornien, und an der University of California, Berkeley; ab 1975 Lehre an der Universität Frankfurt am Main; ab 1988 Leiter der Arbeitsgruppe für Systemforschung der GMD – Gesellschaft für Mathematik und Datenverarbeitung mbH und Geschäftsführer des Vereins zur Förderung der deutsch-amerikanischen Zusammenarbeit auf dem Gebiet der Informatik und ihrer Anwendungen e. V., Heidelberg.
Prof. Dipl.-Ing. Arne Musso Jahrgang 1928; Studium der Volkswirtschaftslehre in Göttingen und Madison, Wisconsin, USA, und der Architektur in Hannover; Forschungsarbeiten über Universitätsplanung und mathematische M odelle in der Bauplanung sowie über Bewertungssysteme in der Bauplanung und Begründung von Baunormen; ab 1972 Professor an der Technischen Universität Berlin.
Prof. Dr.-Ing. habil. Wolf D. Reuter Jahrgang 1943; Studium der Architektur und Stadtplanung in Stuttgart und Berkeley, USA. 1972 Studien gruppe für Systemforschung Heidelberg. Lehrstuhlvertretungen und Gastprofessuren in Stuttgart und Taiwan, Essen und HfG Schwäbisch Gmünd. 1989–1998 eigenes Architekturbüro. Seit 1998 Professor für Entwurfs- und Planungstheorien und Planungsmethoden an der Universität Stuttgart. Seit 2006 Lehre in Stuttgart und an der Tongji University, Shanghai. Spezielle Gebiete: Diskurs, Macht, Wissen im Planen und Entwerfen.
Prof. Melvin M. Webber Jahrgang 1920; Studium der Stadtplanung an der University of California, Berkeley, USA; von 1959 bis 1990 Professor of Planning und Director, Institute of Urban and Regional Developement, U niversity of California, Berkeley; später Director, University of California Transportation Center und Professor Eremitus of Planning, University of California, Berkeley.
AUTORENVERZEICHNIS 363
BIRD
www.birkhauser.com
Wörterbuch Design Begriffliche Perspektiven des Design Dieses Wörterbuch bietet die interessante und kategoriale Grundlage für einen ernsthaften internationalen Diskurs über Design. Es ist das Handbuch für alle, die mit Design beruflich und in der Ausbildung zu tun haben, sich dafür interessieren, sich daran vergnügen und Design begreifen wollen. Über 100 Autorinnen und Autoren u. a. aus Japan, Österreich, England, Deutschland, Australien, aus der Schweiz, den Niederlanden und aus den USA haben für dieses Design-Wörterbuch Originalbeiträge geschrieben und bieten so bei aller kulturellen Differenz mögliche Erörterungen an, sich über wesentliche Kategorien des Design und somit über Design grundlegend zu verständigen. Es umfasst sowohl die teilweise noch jungen Begriffe aktueller Diskussionen als auch Klassiker der Design-Diskurse. – Ein praktisches Buch, das sowohl W issenschaftscharakter hat als auch ein Buch zum Blättern und Lesen ist. Michael Erlhoff, Tim Marshall (Hg.) In Zusammenarbeit mit dem Board of International Research in Design 472 Seiten 16,8 × 22,4 cm Gebunden ISBN: 978-3-7643-7738-0 Deutsch ISBN: 978-3-7643-7739-7 Englisch
Gestaltung denken Grundlagentexte zu Design und Architektur «Gestaltung denken» macht 40 Grundlagentexte der Architektur- und Designtheorie zugänglich. Der erste Teil versammelt Texte von Praktikern: Architekten und Designer, der zweite Teil Texte von Theoretikern: Kulturwissenschaftler, Philosophen, Soziologen, Architektur- und Designhistoriker. Die Beiträge markieren Meilensteine in der Geschichte der Gestaltung und ihrer Reflexion und zeigen die Entwicklung von der frühen Moderne bis zu aktuellen Debatten auf. Jeder dieser Primärtexte wird von einem renommierten Fachautor eingeführt und kommentiert. Die Kommentare informieren über Autor, Entstehungszeit und publizistischen Kontext. Viele der ausgewählten Texte lagen nur verstreut vor oder waren längst vergriffen. Der Reader macht diese Texte zugänglich. Er ist bestens geeignet zur Vermittlung der Geschichte und Entwicklung der Gestaltungsdisziplinen an Architekturund Designhochschulen, bietet aber auch praktisch arbeitenden Architekten und Designern eine Grundlage, die eigene Arbeit vor dem Hintergrund historischer Debatten zu reflektieren. Klaus Thomas Edelmann, Gerrit Terstiege (Hg.) In Zusammenarbeit mit dem Board of International Research in Design 336 Seiten 16,8 × 22,4 cm Broschur ISBN: 978-3-0346-0515-1 Deutsch
Mapping Design Research Positions and Perspectives «Mapping Design Research» versammelt eine autoritative und kommentierte Auswahl der Texte, welche für die Orientierung in der Designforschung grundlegend sind. Gewisse charismatische Namen tauchen im Diskurs zwar immer wieder auf, der Community fehlte es aber an einem verbindlichen, wissenschaftlich abgesicherten und doch leserfreundlichen Arbeitsbuch. Simon Grand und Wolfgang Jonas haben diese Lücke mit dem vorliegenden Buch gefüllt. Die Sammlung von 18 internationalen Texten seit 1960 spiegelt die maßgebenden Etappen der Design forschung und der Wissenschaftsforschung wider. Umfangreiche Essays der Herausgeber verorten und erläutern die Texte und verhelfen zu ihrem adäquaten Verständnis. Simon Grand, Wolfgang Jonas (Hg.) In Zusammenarbeit mit dem Board of International Research in Design 256 Seiten 16,8 × 22,4 cm Gebunden ISBN: 978-3-0346-0716-2 Englisch
Designerly Ways of Knowing Das Verstehen und Entwerfen im Design gehorcht ganz eigenen Regeln. Nigel Cross begann um 1980 mit anderen avantgardistischen Forschern diese spezi fischen Gesetzmäßigkeiten herauszuarbeiten. Das Buch fasst seine fundamen talen Erkenntnisse der letzten 25 Jahre konzis zusammen. Es bietet einen faszi nierenden und qualifizierten Einblick in die Welt der Design-Kreativität. Die sieben Kapitel behandeln Kernthemen wie: die Fähigkeit zum Design-Entwerfen, natürliche und künstliche Intelligenz im Design, der kreative Sprung, die kreativen Strategien, Problem-Formulierung, das Generieren von Lösungen, Design als eine (wissenschaftliche) Disziplin. Die Einleitung des BIRD macht deutlich, warum «Designerly Ways of Knowing» den kongenialen Einstieg in diese rasch an Bedeutung gewinnende Disziplin darstellt. Nigel Cross ist Professor of Design Studies an der Open University in Milton Keynes und Editor-in-Chief der internationalen Zeitschrift «Design Studies». Nigel Cross In Zusammenarbeit mit dem Board of International Research in Design 144 Seiten 16,8 × 22,4 cm Gebunden ISBN: 978-3-7643-8484-5 Englisch
BIRD
www.birkhauser.com
Design durch Gebrauch Die alltägliche Metamorphose der Dinge Diese Publikation erforscht und analysiert eine ganz besondere Form von Design: Das ebenso normale wie wunderbare Phänomen, dass Menschen ohne Designanspruch bereits gestaltete Dinge umnutzen, anders nutzen, im besten Sinne «missbrauchen». Nicht Intentionales Design (NID) findet täglich, in jeder Lebens sphäre, in allen Teilen der Welt statt. Diese Umgestaltung durch Umnutzung macht die Dinge multifunktional, kombiniert mit kluger Erfindung neue Funktionen. Sie ist häufig reversibel, ressourcenschonend, improvisierend, innovativ, preiswert. Für das Design kann es zu einer Quelle der Inspiration werden, wenn die professionellen Designer erst einmal wahrnehmen, was im praktischen Gebrauch mit all den gestalteten Dingen tatsächlich geschieht. Uta Brandes, Sonja Stich, Miriam Wender In Zusammenarbeit mit dem Board of International Research in Design 192 Seiten 16,8 × 22,4 cm Gebunden ISBN: 978-3-7643-8866-9 Deutsch ISBN: 978-3-7643-8867-6 Englisch
Design als Rhetorik Grundlagen, Positionen, Fallstudien Auf welche Art wirkt und überzeugt Design? Was wissen Gestalterinnen und Gestalter von den Regeln, die sie, teilweise unbewusst, anwenden? Die zeitgenös sische Designforschung entwickelt zunehmend ein Interesse an den rhetorischen Mechanismen der Design-Praxis. Der vorliegende Sammelband stellt die klassische Kommunikationslehre der Rhetorik als eine neue und umfassende Metatheorie des Designs vor. Sie betrifft prinzipiell alle Bereiche heutigen Designs – vom Grafik-Design über die Architektur bis zur Interfacegestaltung. «Design als Rhetorik» führt drei Bereiche zusammen: Das Buch stellt die historisch relevanten Texte vor und bildet als Positionsbestimmung die kontroverse zeitgenössische Diskussion ab. Zudem versammelt es in Fallstudien Beiträge zu den wichtigsten Forschungsfeldern wie etwa «Interaktive Rhetorik», «Rhetorik Design und Gender», «Rhetorik des World Wide Web». Gesche Joost, Arne Scheuermann (Hg.) In Zusammenarbeit mit dem Board of International Research in Design 280 Seiten 16,8 × 22,4 cm Gebunden ISBN: 978-3-7643-8345-9 Deutsch
Design Research Now Essays and Selected Projects Design entwickelt sich zu einer anerkannten wissenschaftlichen Disziplin und die Designforschung ist der treibende Bodensatz dieser Transformation. «Design Research Now – Essays and Selected Projects» vermisst das Feld der Designforschung anhand grundlegender Essays und ausgewählter Forschungsprojekte. Die Autoren der Essays, allesamt international führende Designwissenschaftler, nehmen zu den wichtigsten Fragen der Designforschung Stellung. Sie verorten die Bedeutung der Designforschung an der Schnittstelle zur Technologieentwicklung, beschreiben ihre Notwendigkeit für die methodische Weiterentwicklung der Entwurfsdisziplinen und ordnen ihr für die relevanten Entwicklungen der Gesellschaft eine bedeutende Rolle zu. Ergänzt werden die Essays durch die Darstellung aktueller, abgeschlossener Forschungsprojekte aus Hochschulen in den Niederlanden, Großbritannien und Italien. Ralf Michel (Hg.) In Zusammenarbeit mit dem Board of International Research in Design 254 Seiten 22,0 × 28,0 cm Gebunden ISBN: 978-3-7643-8471-5 Englisch
Herausgeber: Wolfgang Jonas, Wolf D. Reuter Projektkoordination: Petra Schmid Satz: Sven Schrape Design Konzept BIRD: Christian Riis Ruggaber, Formal Schriften: Akkurat, Arnhem
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugs weiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheber rechtsgesetzes in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungs pflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechts.
© 2013 Birkhäuser Verlag GmbH, Basel Postfach 44, 4009 Basel, Schweiz Ein Unternehmen von De Gruyter
Gedruckt auf säurefreiem Papier, hergestellt aus chlorfrei gebleichtem Zellstoff. TCF ∞ Printed in Germany
ISBN 978-3-03821-450-2
9 8 7 6 5 4 3 2 1 www.birkhauser.com